Un informe constata que a IA deturpa o contido informativo

xoves, 23 de outubro do 2025 Redacción

Unha investigación coordinada pola Unión Europea de Radiodifusión (EBU) e encabezada pola BBC, revelou que os asistentes de intelixencia artificial cometen erros significativos ao representar contido informativo en case a metade das súas respostas. O estudo, presentado na Asemblea de Noticias da EBU en Nápoles, contou coa participación de 22 medios públicos de 18 países e foi realizado en 14 linguas distintas.
Os resultados son contundentes: o 45% das respostas analizadas presentaban polo menos un problema relevante, xa fose de exactitude, atribución de fontes ou contextualización. En concreto, o 31 % tiña deficiencias graves na citación de fontes, mentres que o 20 % incluía información incorrecta ou inventada. Entre os asistentes avaliados (ChatGPT, Copilot, Gemini e Perplexity), Gemini destacou negativamente, con erros significativos no 76 % das respostas, principalmente por problemas de atribución.
A investigación subliña que estas deficiencias non son casos illados, senón que constitúen un patrón sistémico, transversal a idiomas, países e plataformas, o que pode ter un impacto social moi importante se atendemos a datos do Reuters Institute, que sostén que o 7 % dos consumidores de noticias en liña xa utilizan asistentes de IA como fonte principal, cifra que ascende ao 15 % entre os menores de 25 anos.
Como resposta, a EBU publicou un Kit de integridade informativa en asistentes de IA, que propón solucións tanto para mellorar as respostas dos asistentes como para fomentar a alfabetización mediática entre os usuarios. Ademais, a organización insta ás autoridades europeas e nacionais a aplicar as leis existentes sobre integridade informativa, servizos dixitais e pluralismo mediático, e aposta por un seguimento independente e continuado destes sistemas.