Internacional

Em ano de disputas ao redor do mundo, OpenAI promete ferramentas contra a desinformação eleitoral

Países como Estados Unidos, Índia, Grã-Bretanha e Uruguai terão eleições em 2024

Agência O Globo - 16/01/2024
Em ano de disputas ao redor do mundo, OpenAI promete ferramentas contra a desinformação eleitoral

A empresa norte-americana OpenAI, criadora do robô virtual ChatGPT, anunciou que lançará ferramentas contra a desinformação neste ano, em que ocorrerão dezenas de eleições em países que abrigam metade da população mundial.

Eleições EUA: Trump vence caucus em Iowa com 51%: 'Não vai demorar muito', diz sobre decisão das prévias republicanas

Mundo: Israel diz que 'fase intensa' de ofensiva em Gaza chega ao fim

O ChatGPT impulsionou uma revolução na inteligência artificial (IA), mas também gerou advertências de especialistas de que programas como esses poderiam inundar a internet com desinformação e influenciar a decisão dos eleitores.

Diante da realização de diversas eleições neste ano em países como Estados Unidos, Índia, Grã-Bretanha e Uruguai, a OpenAI declarou na segunda-feira que não permitirá que sua tecnologia, incluindo o ChatGPT e o gerador de imagens DALL-E 3, seja utilizada em campanhas políticas.

"Queremos garantir que nossa tecnologia não seja usada para minar" processos democráticos, afirmou a OpenAI em um blog.

"Ainda estamos trabalhando para compreender a eficácia de nossas ferramentas para persuasão personalizada. Até sabermos mais, não permitimos a construção de aplicativos para campanhas políticas e grupos de pressão", acrescentou a empresa.

Desinformação: um risco

A desinformação, incluindo a gerada por IA, é um dos maiores riscos globais a curto prazo e pode causar danos aos governos recém-eleitos nas principais potências econômicas, alertou na semana passada o Fórum Econômico Mundial.

Segundo os especialistas, o temor da desinformação eleitoral começou há anos, mas o fácil acesso a poderosos geradores de texto e imagens baseados em IA aumentou a ameaça, especialmente se os usuários não conseguirem distinguir facilmente se o conteúdo é falso ou foi manipulado.

A OpenAI informou na segunda-feira que está desenvolvendo ferramentas para tornar os textos gerados pelo ChatGPT mais confiáveis, bem como oferecer aos usuários a capacidade de detectar se uma imagem foi criada com o DALL-E 3.

"No início deste ano, implementaremos as credenciais digitais da Coalition for Content Provenance and Authenticity (Coalizão para Autenticidade e Procedência de Conteúdo), uma abordagem que codifica os detalhes sobre a origem do conteúdo por meio de criptografia", declarou a empresa.

A coalizão, também conhecida como C2PA, busca melhorar a identificação e o rastreamento de conteúdo digital. Entre seus membros estão grandes empresas como Microsoft, Sony, Adobe e as japonesas especializadas em imagem Nikon e Canon.

De acordo com a OpenAI, o ChatGPT direcionará os usuários para sites autorizados quando questionado sobre procedimentos eleitorais nos Estados Unidos, como onde votar.

"As conclusões deste trabalho servirão como base para nossa abordagem em outros países e regiões", afirmou a empresa. Ela acrescentou que o DALL-E 3 possui "guardrails" - espécie de proteção - para evitar a geração de imagens de pessoas reais, incluindo candidatos.

O anúncio da OpenAI segue as medidas adotadas por gigantes tecnológicas como Google e a rede social Facebook para limitar a interferência eleitoral, especialmente por meio do uso de IA.

A AFP anteriormente desmentiu falsos documentários, como o do presidente dos Estados Unidos anunciando o recrutamento de soldados, ou o vídeo da democrata Hillary Clinton declarando apoio à candidatura presidencial do governador republicano do estado da Flórida, Ron DeSantis.

Esse tipo de informação, assim como diversos áudios, circulou nas redes sociais durante a campanha para as eleições em Taiwan realizadas neste mês, conforme estudos realizados pelo Fact Check da AFP.