Geral
Pesquisa reforça que IA tem 'crises' de insegurança
Quando contrariada, ferramenta perde confiança nas respostas

Uma nova pesquisa reforça que a Inteligência Artificial (IA) "sofre" de insegurança.
Isto ocorre quando o usuário coloca em dúvida uma afirmação da tecnologia, fazendo com que os modelos linguísticos de grande dimensão (LLM), como o Chat GPT, tendam a dar respostas menos confiáveis.
O estudo, realizado por pesquisadores do Google DeepMind e da Universidade College de Londres, publicado no arXiv - plataforma que publica análises que ainda não foram revisadas pela comunidade científica -, mostra que essa característica prevaleceu em modelos como Gemma 3, GPT4 e o1-preview.
Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança e tende a persistir em sua afirmação mesmo na presença de evidências contrárias.
Por outro lado, quando a ferramenta faz uma afirmação correta, que é então contestada pelo usuário, ela tende a perder facilmente a segurança em "si".
"Os LLMs dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial", escrevem os autores, reforçando evidências de outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erros.
Mais lidas
-
1MÚSICA
Vocalista da Banda Mala 100 Alça é atingido por lata durante show em MT, mas passa bem e perdoa agressor
-
2MEIO AMBIENTE
Plano de Capacitação do IMA é apresentado aos servidores do órgão A iniciativa foca no desenvolvimento pessoal e na integração das equipes
-
3HISTÓRIA
A saga de Lampião e Maria Bonita, 83 anos após a chacina de Angicos
-
4MANIFESTAÇÃO
Bolsonaristas voltam à Avenida Paulista em ato contra Moraes e em apoio a Bolsonaro (VÍDEO)
-
5NO AGRESTE
Ministério Público convoca prefeita de Lagoa da Canoa para reunião sobre concurso público municipal