Cuidado: Notícias geradas por IA podem estar erradas quase metade das vezes.

Um novo estudo conduzido pela União Europeia de Radiodifusão (EBU) e pela BBC revelou que os principais chatbots de IA frequentemente distorcem e representam de maneira incorreta as notícias. As implicações podem resultar em uma erosão significativa da confiança pública nas organizações de notícias e na estabilidade da própria democracia, alertam as entidades.

Abrangendo 18 países e 14 idiomas, a pesquisa envolveu jornalistas profissionais que avaliaram milhares de respostas geradas por ChatGPT, Copilot, Gemini e Perplexity sobre histórias recentes, com base em critérios como precisão, fontes e a distinção entre fato e opinião. Os pesquisadores descobriram que quase metade (45%) das respostas analisadas pelos quatro sistemas de IA apresentavam “pelo menos um problema significativo,” segundo a BBC, enquanto muitas (20%) “tinham questões graves de precisão,” como alucinações — ou seja, a fabricação de informações apresentadas como verdades — ou fornecimento de dados desatualizados. O desempenho do Gemini, do Google, foi o pior entre todos, com 76% de suas respostas apresentando problemas relevantes, especialmente na questão das fontes.

Este estudo chega em um momento em que ferramentas de IA generativas estão se tornando a porta de entrada principal para a internet, superando os motores de busca tradicionais — incluindo a forma como as pessoas buscam e interagem com as notícias. De acordo com o Relatório Digital de Notícias 2025 do Instituto Reuters, 7% dos entrevistados ao redor do mundo afirmaram usar ferramentas de IA para se manter informados; esse número aumentou para 15% entre os respondentes abaixo de 25 anos. No entanto, uma pesquisa do Pew Research, realizada em agosto com adultos nos EUA, revelou que três quartos dos entrevistados nunca obtêm suas notícias de um chatbot de IA.

Dados recentes mostram que, embora poucas pessoas tenham total confiança nas informações oferecidas pelo recurso de Visão Geral de IA do Google (que utiliza o Gemini), muitos raramente ou nunca tentam verificar a precisão das respostas clicando nos links de fontes fornecidos. O uso de ferramentas de IA para interagir com as notícias, combinado com a falta de confiabilidade desses recursos, pode resultar em consequências sociais e políticas sérias, alertam a EBU e a BBC.

O novo estudo “mostra de maneira conclusiva que essas falhas não são incidentes isolados,” afirmou Jean Philip De Tender, Diretor de Mídia da EBU. “Elas são sistemáticas, transnacionais e multilíngues, e acreditamos que isso ameaça a confiança pública. Quando as pessoas não sabem no que confiar, acabam confiando em nada, o que pode desestimular a participação democrática.”

A compromissão da confiança pública — da capacidade média das pessoas de distinguir de forma conclusiva entre fato e ficção — é ainda mais exacerbada pela ascensão de ferramentas de IA para geração de vídeos, como o Sora da OpenAI, que foi lançado como um aplicativo gratuito em setembro e atingiu um milhão de downloads em apenas cinco dias. Apesar de os termos de uso da OpenAI proibirem a representação de qualquer pessoa viva sem seu consentimento, os usuários rapidamente demonstraram que o Sora pode ser programado para representar pessoas falecidas e outros clipes gerados por IA problemáticos, como cenas de guerras que nunca aconteceram. (Os vídeos gerados pelo Sora possuem uma marca d’água que atravessa a tela, mas alguns usuários habilidosos descobriram maneiras de editá-la para fora).

O vídeo sempre foi considerado, tanto nos círculos sociais quanto legais, como a forma definitiva de prova irrefutável de que um evento realmente ocorreu, mas ferramentas como o Sora estão rapidamente tornando esse modelo obsoleto. Mesmo antes do advento de vídeos gerados por IA ou chatbots como ChatGPT e Gemini, o ecossistema da informação já estava se tornando fragmentado e reduzido a câmaras de eco por meio de algoritmos de redes sociais projetados para maximizar o engajamento do usuário, e não para garantir que os usuários recebam uma visão precisa da realidade. A IA generativa, portanto, está alimentando uma chama que arde há décadas.

Historicamente, manter-se atualizado sobre eventos atuais exigia um compromisso de tempo e dinheiro. As pessoas assinavam jornais ou revistas e passavam minutos ou horas lendo as notícias de jornalistas humanos em quem confiavam. O emergente modelo de notícias via IA contornou esses obstáculos tradicionais. Hoje, qualquer pessoa com uma conexão à internet pode receber resumos de notícias gratuitos e facilmente digeríveis — mesmo que, como mostra a nova pesquisa da EBU e da BBC, esses resumos estejam repletos de imprecisões e outros problemas significativos.

[Referência: ZDNET]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima