Geral

Unesco pede que empresas revejam formação de IAs para impedir distorção do Holocausto entre os jovens

A agência da ONU alerta que a inteligência artificial generativa pode inventar fatos históricos e encobrir personagens como o ministro da Propaganda nazista, Joseph Goebbels, num momento em que 80% dos menores de idade usam essas ferramentas diariamente

Agência O Globo - 18/06/2024

Unesco pede que empresas revejam  formação de IAs para impedir  distorção do Holocausto entre os jovens
Unesco pede que empresas revejam formação de IAs para impedir distorção do Holocausto entre os jovens - Foto: Reprodução / internet

Num momento em que 80% dos jovens já utilizam diariamente a inteligência artificial, tanto para educação quanto em momentos de lazer, a Unesco lançou um alerta sobre como as ferramentas "inventam de forma involuntária" fatos históricos falsos relacionados ao Holocausto. Num documento publicado nesta semana, a agência da ONU alerta que esses dados gerados pela IA distorcem a percepção dos menores, e pediu que as empresas de tecnologia incorporem protocolo éticos e revejam a forma como essas ferramentas são treinadas.

O documento traz exemplos concretos, como o conceito “Holocausto por afogamento”, inventado pelo ChatGPT, que pressupõe que os nazistas realizaram campanhas de assassinato em massa de judeus por afogamento em rios e lagos. Há ainda aplicativos como "Historical Figures", que permite aos usuários conversar com altos funcionários nazistas e divulga afirmações como a de que Joseph Goebbels (Ministro da Propaganda nazista) não participou intencionalmente do Holocausto e tentou prevenir a violência contra os judeus.

"Essas ferramentas geram conteúdos que imitam evidências históricas, como depoimentos de sobreviventes ou reflexões pessoais de agressores, de forma que esses materiais pareçam convincentes para não especialistas”, denuncia o relatório "AI e o Holocausto: reescrever a história? Como gerir o impacto da inteligência artificial na compreensão do Holocausto".

Outro exemplo citado no documento é o uso de imagens de Anne Frank (a adolescente autora do mais famoso Diário do Holocausto) para criar memes ofensivos e sua distribuição na internet por sistemas de IA.

“A IA tem que ser treinada usando dados. Esses dados vêm da Internet e muitas vezes podem incluir conteúdos errôneos ou preconceituosos, e isso tem influência na forma como a IA interpreta um fenômeno específico", diz o relatório.

O estudo denuncia ainda a forma como a falta de transparência em relação ao treinamento dos sistemas e as políticas de moderação para bloquear conteúdos falsos impedem os usuários de avaliarem a abordagem de temas sensíveis, como a história do Holocausto. “Não está claro quais bases de dados são usadas para treinar sistemas de inteligência artificial ou como os algoritmos decidem que conteúdo recuperam, geram ou priorizam quando o usuário realiza uma pesquisa".

Karel Fracapane, coautor do estudo e especialista da UNESCO na luta contra o discurso de ódio, esclarece que a organização não dispõe de dados concretos sobre como a propagação destes fatos falsos na Internet aumentou nos últimos anos. Questionado sobre como o cenário atual cenário pode afetar as ações do Governo de Israel contra a população palestina em Gaza, ele responde que, “em primeiro lugar”, a responsabilidade recai sobre os grupos extremistas que promovem o anti-semitismo.

— A atual situação de conflito proporciona um ambiente que pode ser utilizado por grupos radicais para promover as suas ideias e discursos de ódio — afirma. — Eles utilizam os canais oferecidos pela tecnologia para dividir e desestabilizar sistemas.

Para evitar esses movimentos, Fracapane acredita que os governantes “têm a obrigação de estabelecer parâmetros legais para garantir o respeito aos direitos humanos também nas redes sociais”. Para isso, segundo ele, “é necessária regulação”.

O documento enfatiza que não está claro por que certas fontes de informação sobre o Holocausto alcançam mais visibilidade do que outras. Os autores destacam, no entanto, que os algoritmos das redes sociais e dos motores de busca "priorizam" e "promovem" conteúdo (incluindo a desinformação) que atrai a atenção e é propenso a vieses, "o que potencialmente vai contra informações mais precisas". Eles dão um exemplo: alguém que buscasse no Google em 2020 por "carrinho de bebê judeu", provavelmente encontraria imagens de fornos portáteis.

"Esses resultados dos motores de busca, que glorificam e zombam da história do Holocausto, provavelmente foram resultado de esforços coordenados de trolls antissemitas que usaram sites marginais para promover essas imagens de modo que a IA lhes desse prioridade", denuncia o estudo da Unesco.

Outro comportamento problemático da IA ocorre quando ela não consegue recuperar dados sobre um episódio específico da história, neste caso o Holocausto, em um idioma em particular. Em 2020, aponta o relatório, 36% dos resultados na busca de imagens sobre o Holocausto no Baidu, a ferramenta de busca mais usada na China, faziam referência a filmes e música death metal. Ao fazer a mesma busca em russo, entre os 50 primeiros resultados não aparecia nenhuma imagem relacionada ao Holocausto.

"As empresas de tecnologia devem contar com a comunidade judaica, com os sobreviventes do Holocausto e seus descendentes, com educadores, especialistas em antissemitismo e historiadores para o design de modelos de IA generativa", destaca o relatório. A Unesco enfatiza a obrigação das empresas dme garantir que seus produtos não prejudiquem os esforços de educadores e historiadores ao "simplificar o passado ou descrevê-lo de maneira imprecisa".

E, de forma mais urgente, destaca que elas "devem se esforçar para introduzir supervisão para evitar que se promova a negação do Holocausto e o antissemitismo em todos os idiomas". "Os desenvolvedores de sistemas de IA inevitavelmente têm que tomar decisões sobre quais tipos de conteúdo legal sobre o Holocausto devem ser priorizados ou desprezados ao recuperar ou gerar informações", enfatiza.

Organizações como o Starling Lab for Data Integrity da Universidade de Stanford, financiado pela USC Shoah Foundation, e a Coalition for Content Provenance and Authenticity, estão trabalhando em métodos para certificar criptograficamente a autenticidade do conteúdo e identificar aquele que foi gerado por IA. Outro exemplo é o projeto Decoding Antisemitism, que reuniu uma equipe de acadêmicos da Alemanha, França e Reino Unido para detectar e analisar conteúdo antissemita online, com o objetivo de criar um guia para treinar a IA na identificação do discurso de ódio.