Tecnologia

No Arizona: um revés para o Uber e para o carro autônomo

Um carro autônomo atropelou fatalmente uma pedestre no Arizona. A questão joga luz sobre um novo problema para a companhia e para a tecnologia

CARRO AUTÔNOMO do UBER: veículo sem motorista da empresa atropelou e matou um pedestre nos EUA (Justin Sullivan/Getty Images)

CARRO AUTÔNOMO do UBER: veículo sem motorista da empresa atropelou e matou um pedestre nos EUA (Justin Sullivan/Getty Images)

TL

Thiago Lavado

Publicado em 19 de março de 2018 às 20h36.

A nuvem escura que paira sobre a companhia de transporte privado Uber parece não querer ir embora. Depois de problemas na presidência da empresa, proibições ao redor do mundo, prejuízos gigantescos, uma nova crise de imagem caiu sobre a empresa nesta segunda-feira: um de seus carros autônomos, que estava em teste na cidade de Tempe, no Arizona, atropelou uma pedestre enquanto ela cruzava a rua. A vítima foi identificada como Elaine Herzberg, que morreu no hospital em decorrência dos ferimentos causados pelo acidente.

A fatalidade aconteceu na madrugada de domingo para segunda-feira e foi confirmada pela polícia local. É a primeira morte por atropelamento relacionada a esse tipo de tecnologia já registrada. Segundo o relatório policial, no momento da colisão o carro estava no modo autônomo, mas havia um humano por precaução atrás do volante.

Em nota, o Uber expressou condolências e afirmou que a empresa está cooperando integralmente com as autoridades no caso. O Uber também disse que está interrompendo todas os testes de veículos autônomos nos Estados Unidos e Canadá — até agora quatro cidades estavam participando dos testes: Phoenix, Pittsburgh, São Francisco e Toronto.

Trata-se de mais uma mancha na imagem do Uber, pressionado por denúncias e acusações de práticas desleais com reguladores, passageiros, colaboradores e concorrentes. Em 2017, a empresa foi acusada de um machismo sistêmico contra funcionárias e terminou com severas acusações de espionagem industrial e de ter roubado planos de desenvolvimento de carros autônomos da Waymo, uma subsidiária especializada em carros sem motoristas da Alphabet, a companhia-mãe da gigante de tecnologia Google.  

No meio do caminho, a empresa teve problemas legislativos em diversas países — do Reino Unido ao Brasil — e passou por uma troca de presidente: o antigo, Travis Kalanick, que também era o fundador da companhia, chegou a ser filmado discutindo com um motorista da empresa sobre o sistema de pagamentos. Ele saiu, dando lugar a um nome bem menos polêmico, o iraniano naturalizado americano Dara Khosrowshahi. O Uber chegou a trazer Bozoma Saint John, ex-chefe de marketing de consumo global do iTunes e da Apple Music, para cuidar da marca da empresa e gerenciar a crise de imagem. No lado financeiro, as notícias não foram melhores: os prejuízos da empresa cresceram 61%, para um total de 4,5 bilhões de dólares, acima dos 2,8 bilhões de 2016.

De quem é a culpa?

Em termos de legislação, parte do problema se volta para o estado do Arizona. No início de março, o governador Doug Ducey havia assinado uma ordem executiva que oficializou carros completamente autônomos a operarem em vias públicas do estado. Duas semanas depois, o acidente pode colocar o governo em risco de forte escrutínio público. A ordem estabelecia que os carros obedecessem todas as leis de trânsitos existentes e as regras para que carros pudessem rodar. “Conforme a tecnologia avança, nossas políticas e prioridades devem se adaptar para permanecermos competitivos na economia atual”, disse o governador em nota. O Arizona é um berço para veículos autônomos, com mais de 600 carros em operação pelas companhias de tecnologia Uber, Intel e Waymo, e pela montadora GM.

Poucos dias antes de o Arizona aprovar carros inteiramente sem motoristas (inclusive sem os supervisores que atualmente ficam atrás do volante em caso de problemas), a Califórnia havia feito o mesmo. Os teste com veículos 100% autônomos devem começar no estado a partir de abril. A Califórnia atualmente exige a presença de um motorista supervisor e a entrega de relatórios anuais sobre problemas de software. Em 2016, um relatório foi preenchido para explicar por que um modelo autônomo da Waymo havia colidido com um ônibus a baixa velocidade. No Arizona, não há qualquer requerimento de transparência pública.

Apesar de as legislações dizerem respeito sobre inovação e tecnologia, permanece uma questão legal: quem é o culpado quando uma inteligência artificial mata alguém? O professor John Kingston, da Universidade de Brighton, na Inglaterra, publicou um artigo acadêmico sobre o assunto no final de fevereiro, em que sugeria a hipótese de um veículo autônomo matar alguém em 2023. Um mês depois da publicação do artigo e a hipótese se torna realidade.

Segundo Kingston, que cita o pesquisador de direito penal e inteligência artificial Gabriel Hallevy, da Universidade Acadêmica Ono, em Israel, a determinação da culpa em um crime requer, necessariamente, a ação e a intenção mental — que podem acontecer juntas ou não. Partindo disso, há três cenários que poderiam ser aplicados a sistemas de inteligência artificial (IA). O primeiro, conhecido como “perpetrado por outrem”, aplica-se atualmente quando o crime é cometido por uma pessoa ou animal mentalmente deficientes — como o dono de um cachorro que incita o animal a atacar alguém. No cenário de IA, os culpados poderiam ser o programador da inteligência artificial ou o usuário, que seriam acusados de perpetrar o crime por outrem.

O segundo cenário, chamado de consequência provável natural, acontece quando o programa utiliza suas ações ordinárias de maneira inapropriada e acaba cometendo um crime. Kingston utiliza o exemplo de um robô que, de maneira errônea, identifica um operário de uma fábrica como um empecilho à tarefa programada. A única maneira de o robô concluir sua tarefa seria livrando-se do humano. Nesse caso, caberia à justiça julgar se o programador do robô poderia prever que essa seria uma consequência provável do uso da inteligência artificial nesse cenário.

O terceiro cenário é a culpa direta — o que requer ação e intenção da inteligência artificial. Algo bem mais difícil de comprovar — e digna de filmes de ficção científica. “Exceder o limite de velocidade é crime. Se um carro ultrapassa os limites de uma via sem ser programado para isso, a lei permite caracterizar culpa ao programa que estava dirigindo”, afirma Kingston. Nesse último cenário, usuários e programadores poderiam estar isentos.

A última nuvem que paira sobre o Uber deve se tornar, portanto, mais um problema legal de difícil solução. O motorista que estava no volante — e deveria ter assumido o controle em caso de perigo — entra como mais um agravante nesse sentido. Os problemas do Uber não devem passar tão cedo. Para os carros autônomos eles acabam de começar.

Acompanhe tudo sobre:acidentes-de-transitoCarros autônomosExame HojeUber

Mais de Tecnologia

Segurança de dados pessoais 'não é negociável', diz CEO do TikTok

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble