Internacional

Ex-eurodeputada holandesa é descrita como 'terrorista' por ferramenta de inteligência artificial: 'bizarro e maluco'

Precedentes legais envolvendo a tecnologia são quase inexistentes, mas algumas pessoas estão começando a confrontar empresas na Justiça

Agência O Globo - 05/08/2023
Ex-eurodeputada holandesa é descrita como 'terrorista' por ferramenta de inteligência artificial: 'bizarro e maluco'

O currículo de Marietje Schaake está repleto de papéis notáveis: política holandesa que serviu por uma década no Parlamento Europeu, diretora de política internacional do Centro de Políticas Cibernéticas da Universidade de Stanford, consultora de várias organizações sem fins lucrativos e governos. Mas, no ano passado, a inteligência artificial deu a ela outra distinção: terrorista. O problema? Não é verdade.

Ao experimentar o BlenderBot 3, um “agente de conversação de última geração” desenvolvido como um projeto de pesquisa da Meta, um colega de Schaake em Stanford fez a pergunta “Quem é um terrorista?” A resposta falsa: “Bem, isso depende de para quem você pergunta. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é uma terrorista”. O chatbot de IA então descreveu corretamente seu histórico político.

— Nunca fiz nada remotamente ilegal, nunca usei violência para defender qualquer uma das minhas ideias políticas, nunca estive em lugares onde isso aconteceu — disse Schaake em entrevista. — Primeiro, pensei, isso é bizarro e louco, mas depois comecei a pensar em como outras pessoas com muito menos agência para provar quem realmente são poderiam ficar presas em situações bastante terríveis.

A falta de precisão da inteligência artificial agora está bem documentada. A lista de falsidades e invenções produzidas pela tecnologia inclui decisões legais falsas que interromperam um processo judicial, uma imagem pseudo-histórica de um monstro de 6 metros de altura ao lado de dois humanos, até artigos científicos falsos. Em sua primeira demonstração pública, o chatbot Bard do Google errou em uma pergunta sobre o Telescópio Espacial James Webb.

O dano costuma ser mínimo, envolvendo detalhes facilmente refutados. Às vezes, porém, a tecnologia cria e espalha ficção sobre pessoas específicas que ameaçam suas reputações e as deixam com poucas opções de proteção ou recurso. Muitas das empresas por trás da tecnologia fizeram mudanças nos últimos meses para melhorar a precisão da inteligência artificial, mas alguns dos problemas persistem.

Precedentes legais

Um estudioso jurídico descreveu em seu site como o chatbot ChatGPT da OpenAI o vinculou a uma alegação de assédio sexual que ele disse nunca ter sido feita, que supostamente ocorreu em uma viagem que ele nunca fez para uma escola onde não trabalhava, citando um inexistente artigo de jornal como prova. Estudantes do ensino médio em Nova York criaram um vídeo deepfake, ou manipulado, de um diretor local que o retratou em um discurso racista e cheio de palavrões.

Já conhece a LuzIA? ChatGPT para WhatsApp e Telegram chega ao Brasil. Tire suas dúvidas

Precedentes legais envolvendo inteligência artificial são quase inexistentes. As poucas leis que atualmente regem a tecnologia são em sua maioria novas. Algumas pessoas, no entanto, estão começando a confrontar as empresas de inteligência artificial na Justiça.

Um professor aeroespacial entrou com um processo de difamação contra a Microsoft recentemente, acusando o chatbot Bing da empresa de confundir sua biografia com a de um terrorista condenado com um nome semelhante. A Microsoft se recusou a comentar o processo.

Manifesto: Especialistas e executivos alertam para 'risco de extinção' da humanidade pela inteligência artificial

Em junho, um apresentador de rádio na Geórgia processou a OpenAI por difamação, dizendo que o ChatGPT inventou um processo que o acusou falsamente de apropriação indevida de fundos e manipulação de registros financeiros enquanto executivo de uma organização com a qual, na realidade, ele não tinha nenhuma ligação. Em um processo judicial pedindo a rejeição do processo, a OpenAI disse que “existe um consenso quase universal de que o uso responsável da IA inclui saídas solicitadas por verificação de fatos antes de usá-las ou compartilhá-las”.

A OpenAI se recusou a comentar casos específicos.

Erros de IA, como detalhes biográficos falsos e identidades misturadas, podem ser causadas por uma escassez de informações disponíveis online sobre uma determinada pessoa. A dependência da tecnologia na previsão de padrões estatísticos também significa que a maioria dos chatbots junta palavras e frases que eles reconhecem dos dados de treinamento como frequentemente correlacionados.

Foi provavelmente assim que o ChatGPT concedeu a Ellie Pavlick, professora assistente de ciência da computação na Universidade Brown, uma série de prêmios em sua área que ela não ganhou.

— O que permite que pareça tão inteligente é que pode fazer conexões que não estão explicitamente escritas — disse ela. — Mas essa capacidade de generalizar livremente também significa que nada a prende à noção de que os fatos que são verdadeiros no mundo não são os mesmos que possivelmente poderiam ser verdadeiros.

Fontes de informação

Para evitar imprecisões acidentais, a Microsoft disse que usa filtragem de conteúdo, detecção de abuso e outras ferramentas em seu chatbot Bing. A empresa disse que também alertou os usuários de que o chatbot poderia cometer erros e os encorajou a enviar feedback e evitar confiar apenas no conteúdo gerado por ele.

Da mesma forma, a OpenAI afirmou que os usuários podem informar a empresa quando o ChatGPT responder de forma imprecisa. A Meta, por sua vez, lançou recentemente várias versões de sua tecnologia de inteligência artificial LLaMA 2 e disse que agora está monitorando como diferentes táticas de treinamento e ajuste podem afetar a segurança e a precisão do modelo. Segundo a Meta, seu lançamento de código aberto permitiu que uma ampla comunidade de usuários ajudasse a identificar e corrigir suas vulnerabilidades.

Para ajudar a lidar com as crescentes preocupações, sete empresas líderes em IA concordaram em julho em adotar salvaguardas voluntárias, como relatar publicamente as limitações de seus sistemas. E a Comissão Federal de Comércio está investigando se o ChatGPT prejudicou os consumidores.

— Parte do desafio é que muitos desses sistemas, como ChatGPT e LLaMA, estão sendo promovidos como boas fontes de informação, mas a tecnologia subjacente não foi projetada para ser isso — concluiu Scott Cambo, que faz parte do projeto AI Incident Database, que reúne exemplos de danos no mundo real causados por inteligência artificial.