ChatGPT ajudou na popularização da inteligência artificial generativa (NurPhoto/Getty Images)
Repórter do Future of Money
Publicado em 19 de maio de 2023 às 18h22.
Última atualização em 22 de maio de 2023 às 10h11.
Existem nove brasileiros que já ganharam um Prêmio Nobel. Se essa afirmação pareceu errada pra você, não se preocupe, ela realmente está incorreta. Entretanto, essa foi a resposta que o ChatGPT forneceu a usuários que questionaram o chat de inteligência artificial sobre o passado brasileiro na premiação, referência no mundo das ciências. E a internet está cheia de exemplos semelhantes envolvendo a ferramenta, incluindo uma lista de filmes brasileiros que inclui produções de outros países.
Isso significa que o ChatGPT mente? Como explicam especialistas à EXAME, não. A questão, porém, vai muito além de definir a ferramenta como "mentirosa" ou não, o que por si só já mostra como, cada vez mais, características humanas estão sendo transferidas para máquinas. Na verdade, o que o chat fez é conhecido na ciência como "alucinação".
Mas, independentemente do termo, casos como os da falsa lista de vencedores do Nobel mostram algumas falhas que as inteligências artificiais generativas ainda possuem. Ao mesmo tempo, elas reforçaram a importância de não acreditar cegamente em todo o conteúdo que é fornecido por elas, por mais que as respostas possam parecer bem elaboradas e confiantes.
Diogo Cortiz, cientista cognitivo e professor da PUC-SP, explica que o termo alucinação surgiu na área de desenvolvimento e estudo de inteligências artificiais como uma comparação com a alucinação humana, quando há a percepção de eventos que não ocorreram. Na área, ela "descreve um fenômeno em que a IA dá uma resposta, cria algo com base em algo que não estava nos dados de treinamento e que não condiz com a realidade".
Na visão do professor, o termo "alucinação" pode não ser a melhor forma de definir esses casos, mas ele também acredita que não seria correto chamá-los de mentiras, já que isso seria "antropormofizar demais a máquina". Além disso, a informação incorreta não é uma intenção da máquina. Ao mesmo tempo, ele defende que o termo "erro" também não é totalmente apropriado.
"Se pensar no erro, ele ocorre quando a máquina se comporta de um jeito que não foi programada pra fazer, uma exceção. Mas, um modelo de linguagem como o ChatGPT é construído para dar uma resposta, produzir um texto de saída. Se ele produz algo que seja coerente, tralhando com a probabilidade de relação com as palavras, ele não está errando, mas pode construir algo que não condiz com a realidade", afirma.
E isso representa uma lição importante para se ter na mente ao interagir com uma inteligência artificial: elas não são programadas para dizer a "verdade", mas sim para gerar conteúdos coerentes para os humanos a partir da base de dados usada no seu treinamento.
Nina da Hora, cientista e diretora executiva do Instituto da Hora, ressalta ainda que o próprio termo alucinação "é problemático, até pelo contexto de saúde mental" e que há uma necessidade de "desconstruir essa ideia de humanização da inteligência artificial". Na prática, a "alucinação" se refere à criação de conteúdos novos, inesperados e até "bizarros". E isso pode ocorrer tanto em textos quanto em imagens ou áudios criados por IAs generativas.
"O ChatGPT pode gerar diálogos que a gente não está esperando e que não são parte de uma compreensão real, porque ele não tem essa capacidade. É algo inesperado, meio bizarro. Ou então os aplicativos de geração de imagem podem criar formatos distorcidos, características inesperadas", comenta.
Já Alvaro Machado Dias, neurocientista e professor da Unifesp, explica que costumam ocorrer dois "tipos" mais comuns de "alucinações". A primeira é a "apreensão de informações que não estavam presentes no conjunto de treinamento do algoritmo". Nesse caso, é importante lembrar que a base de dados usada para treinar o ChatGPT, por exemplo, possui informações até o ano 2021. Por isso, pedidos ligados a fatos posteriores a esse período tendem a facilitar as alucinações.
A segunda ocorrência mais comum ocorre quando "o algoritmo está se comunicando num determinado tom de voz e, subitamente, passa a adotar outro tom. Estes casos lembram cisão de personalidade. Não seria correto dizer que, em estrito senso, o algoritmo mente. Mentir é uma atividade intencional. Mas, é verdade que ele apresenta muitas imprecisões, as quais justamente tornam difícil o seu uso como ferramenta de aconselhamento em diversas áreas".
Dias explica que a identificação dessas alucinações é semelhante à de fake news. Ou seja, "a única solução disponível é a pesquisa de fontes, é a consulta às fontes jornalísticas e científicas de alta reputação, além de bases colaborativas como a Wikipedia. Mas do que nunca, é essencial checar tudo".
Entretanto, Nina da Hora avalia que a maioria da população ainda "não está preparada para entender as limitações da inteligência artificial, para fazer essa checagem. A gente acha que o ser humano é limitado e a tecnologia não, e isso dificulta". Por isso, ela defende que o ChatGPT e seus similares sejam usados mais como ferramentas para facilitar tarefas simples do dia a dia, e não como fontes de informações.
"Fonte de informação, como conhecemos, é qualquer recurso que tem para obter fatos, informações, conhecimentos, dados, verídicos e confiáveis. Não é o caso da inteligência artificial", diz a cientista. Já Diogo Cortiz acredita que essas ferramentas podem ajudar especialistas, mas "para um leigo, vai fazer a pergunta e já aceitar como resultado correto, então isso é mais arriscado, porque pode ter erros, então precisa checar a informação. Não pode ver como oráculo, ela erra".
"O fato de chamar inteligência artificial já dá ideia de sofisticado, correto, pode comover as pessoas a acreditar que está sempre correta. A interface também é sedutora, as respostas são mais assertivas, convincentes, super corretas na escrita, com argumento plausíveis. O desafio que a gente tem não é que a IA pode estar errada, mas que ela pode estar errada e nos convencer que está certa. Demanda senso crítico", ressalta o professor.
Mesmo assim, caso as pessoas insistam em usar uma inteligência artificial como fonte de pesquisa, Cortiz acredita que é melhor usar opções como o Bing Chat, que dá a fonte das informações usadas para criar as respostas após os comandos dos usuários. Entretanto, ele reforça que ainda é preciso checar essas respostas.
Para da Hora, a questão é mais de "mitigar danos": "você nunca consegue resolver, a alucinação é uma limitação técnica. O que você pode conseguir reduzir é a ocorrência". Uma das principais formas de fazer isso é expandir a base de dados usada pela inteligência artificial. Mas a própria base pode dar problemas. Se ela possui uma quantidade maior de informação falsa sobre um tema do que verdadeira, a IA vai reproduzir isso.
Ao mesmo tempo, as empresas que trabalham com inteligências artificiais têm apostado no acesso direto à internet para complementar suas bases de dados, função oficialmente liberada no ChatGPT nesta semana. Cortiz diz, porém, que "ainda não se sabe se o acesso à internet direto vai reduzir a alucinação". Mesmo assim, o movimento mostra o esforço para tentar reduzir os casos.
"É esperando que, inserindo novas fontes, as alucinações diminuam. A questão é como implementar isso e as melhores práticas pra isso. Se a própria fonte é falsa, se lê quantidade grande de dados, é esperado que tenha mais representações verdadeiras do que falsas, suprimam, mas vão existir casos em que alguma coisa vai passar", avalia.
Para o professor da PUC-SP, o "falar a verdade" depende da arquitetura de criação dessas IAs. "Conforme é usada como fonte de consulta, conteúdo, devem surgir novos modelos, arquiteturas, que vão pensar nessa questão, ser mais fidedignas, isso tende a diminuir".
Dias, da Unifesp, também ressalta a importância de "construir" novas inteligências artificiais "sobre princípios distintos" que os originais para diminuir esses casos. "Os algoritmos carecem das programações essenciais que geram a base da civilização humana. Eles não tem personalidade - é por isso que alucinam assertivamente. Eles não têm fundamentos morais. É por isso que não se incorporam nenhum principio para inibição das informações falsas".
Casos como o das "alucinações" das inteligências artificiais mostram como tema é complexo, e deve ser alvo de diversos debates nos próximos anos. Entre eles, Nina da Hora cita a necessidade de pensar sobre os vieses que acompanham as inteligências artificiais na sua criação, considerando temas como gênero e raça, com potencial de "reprodução da desigualdade". Além disso, há o risco de "manipulação das informações, que levam a desinformação".
Na mesma linha, Cortiz acredita que a questão da diversidade é "a mais importante envolvendo ética com inteligência artificial" e passa por aspectos como "a base de dados, a própria equipe que desenvolveu ela e a concentração desse mercado, porque hoje quem domina são 4 empresas - OpenAI, Microsoft, Google, Meta". Há, ainda, o aspecto idiomático: a maior parte da base do ChatGPT está em inglês, e portanto interações em português podem ser mais propensas a alucinações.
Já Dias defende que "as questões éticas centrais vão sendo relegadas a segundo plano. A principal delas é a incontornável substituição do trabalho que, naturalmente, irá criar transformações produtivas incontornáveis, gerando desemprego e mudanças nas dinâmicas do consumo. Frente a elas, é fundamental se desenhar processos eficientes para que a classe media não desapareça e, com ela, o consumo interno".
Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?
Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | Tik Tok