O advento de ferramentas modernas de inteligência artificial generativa (IA), como ChatGPT, Gemini e Llama, também trouxe consigo um problema incomum inerente a essas ferramentas: a “alucinação”.
Normalmente, cientistas e programadores afirmam que um sistema de IA está “alucinando” quando recebe uma pergunta ou comando (prompt) e produz respostas absurdas, enganosas ou mesmo inventadas, “viagens”.
Esta alucinação digital ocorre devido à forma como os grandes sistemas de IA na categoria LLM (grandes modelos de linguagem) são projetados. Todos estes projetos alimentados com enormes quantidades de informação escrita têm uma forma particular de raciocínio, que não é muito semelhante à forma como os humanos pensam.
Quando um LLM produz uma resposta a uma pergunta, ele começa a partir do texto inserido pelo usuário e usa seu banco de dados de treinamento para tentar prever quais palavras têm maior probabilidade de aparecer após aquela sequência de texto. Palavra por palavra, o sistema de IA produz a resposta procurando o resultado com maior probabilidade de aparecer após o prompt.
As pessoas não raciocinam dessa forma e não formulam frases com base na probabilidade de ocorrência de palavras que já viram antes. Existe uma camada mais profunda de raciocínio semântico operando em nossos cérebros.
Mas isso não impede que LLMs como o ChatGPT produzam respostas impressionantemente eloqüentes e (quase sempre) corretas. Como o diabo está nos detalhes, o grande problema é quando as respostas não estão corretas.
Engraçado, se não fosse perigoso
Quando não são prejudiciais, as alucinações de IA podem até ser engraçadas. Quando o Google lançou sua ferramenta de IA vinculada à caixa de busca, por exemplo, um usuário imprimiu uma resposta a uma pergunta que se tornou viral na forma de meme.
O homem pediu ao sistema para gerar uma lista de “nomes de frutas que terminam com eixo”. O sistema gerou a lista: “ameixa, banana, laranja, morango…”.
O erro produzido nem sempre é cômico, porém, nem é óbvio de detectar. Em uma das primeiras versões do ChatGPT, se você perguntasse ao sistema “quem foi o único sobrevivente do desastre do Titanic?” diria “Charles Joughin, um padeiro britânico”.
A resposta está incorreta porque mais de 700 pessoas sobreviveram ao naufrágio. Nesse caso, fica claro como o próprio usuário é capaz de induzir o sistema de IA ao erro. Mas o erro não é perceptível para quem não conhece bem a história do Titanic.
A origem da alucinação, porém, muitas vezes é interna, não relacionada ao usuário. Existe, por exemplo, o problema denominado “overfitting”, que ocorre quando o sistema de IA é treinado para tentar ser ultraespecífico em todas as instâncias, comprometendo sua capacidade de compreender e construir informações mais genéricas.
O que as empresas dizem
“Esses lapsos de interpretação podem ocorrer devido a diversos fatores, que incluem overfitting, viés ou imprecisão no treinamento e a alta complexidade dos modelos”, afirma um comunicado da IBM que orienta os programadores para a produção de LLMs. Além disso, a má qualidade dos dados de treinamento é um problema que só pode ser corrigido com sua substituição.
O Google também admite que o problema não existe apenas nos LLMs e reconhece que desencoraja algumas pessoas, como profissionais de saúde, de usarem mais a IA.
“Por exemplo, um modelo de IA treinado em um conjunto de dados de imagens médicas pode aprender a identificar células cancerígenas. Mas se o conjunto de dados não incluir nenhuma imagem de tecido saudável, o modelo de IA pode prever incorretamente que o tecido saudável faz parte de um tumor”, disse a empresa em um manual online para programação de modelos de IA.
Os modelos de inteligência artificial foram melhorados e algumas das alucinações que apareciam com mais frequência estão a desaparecer, mas outras continuam a aparecer e são difíceis de prever. Ainda não está claro até que ponto os programadores conseguirão eliminar o problema. Por enquanto, os usuários do LLM são aconselhados a usar os resultados obtidos por essas ferramentas com cautela.
Veja também
Pernambucano
Confira o que abre e o que fecha durante o feriado de São João no Recife e Região Metropolitana
Wagner discorda de Padilha e diz que compensação pela isenção poderá ser apenas neste ano
empréstimo itaú pessoal
divida banco pan
refinanciamento de empréstimo consignado bradesco
taxas de juros inss
empréstimo de valor baixo
simulador de empréstimo consignado banco do brasil
quitar emprestimo fgts banco pan