Un estudo da BBC conclúe que os asistentes de IA non son fiables para informarse da actualidade

martes, 11 de febreiro do 2025 Marcus Fernández

Tras a polémica arredor dos catastróficos resumos das notificacións de medios de comunicación realizadas por Apple Intelligence, a BBC elaborou un estudo para revisar as respostas dos asistentes de IA a preguntas sobre as novas. Mentres que outras investigacións buscaron demostrar tipos específicos de erros, como proporcionar información electoral precisa ou identificar a fonte orixinal do texto dun artigo, nesta ocasión buscaban comprender un abano máis amplo de preocupacións e a súa posible frecuencia.
Os asistentes analizados nesta ocasión foron ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity, aos que pediron resumir 100 novas da BBC (entendendo que outros medios de comunicación terán unha problemática semellante).
A investigación amosa que os asistentes de IA teñen problemas significativos coa exactitude fáctica básica. Unha de cada cinco respostas que utilizaban artigos da BBC como fonte introduciu inexactitudes fácticas que non estaban presentes nas fontes, que poderían causar danos inmediatos aos usuarios que reciben as súas noticias e información a través destes asistentes.
Tamén suxire que o abano de erros introducidos polos asistentes de IA vai máis aló das inexactitudes, xa que presentan dificultades para diferenciar entre opinión e feito, e a miúdo non incluíron contexto esencial, podendo dar lugar a respostas enganosas ou tendenciosas.
Dende a BBC consideran probable que no futuros nos informemos mediante asistentes de IA, polo que para preservar a confianza da audiencia é preciso que estes asistentes sexan precisos e respecten os estándares editoriais básicos ao responder preguntas sobre novas.
A BBC repetirá a investigación nun futuro próximo para facer un seguimento da evolución dos asistentes de IA a respecto das novas.