Un proxecto da UDC e a UVigo constata o poder da IA para loitar contra a desinformación
luns, 9 de marzo do 2026

- Laura Castro e Teresa Piñeiro, do Grupo de Investigación Cidadanía Dixital da Universidade da Coruña
O grupo de investigación Sepcom (Comunicación e Servizo Público) da Universidade de Vigo e o Grupo Cidadanía Dixital (DIGI) da Universidade da Coruña desenvolveron (ao abeiro da Cátedra de Feminismos 4.0 Depo-UVigo) un proxecto que constata o potencial de ferramentas de Intelixencia Artificial para loitar contra a desinformación. Trátase de Avaliación da IA xerativa na verificación de feitos sobre personalidades de Pontevedra con perspectiva de xénero.
Foi desenvolvido polos investigadores do grupo Sepcom Mabel Míguez, Alberto Dafonte, Juan Manuel Corbacho e as investigadoras do grupo DIGI da UDC, Teresa Piñeiro e Laura Castro, así como por Graciela Padilla da Complutense de Madrid.
A coordinación foi levada a cabo polo profesor da UVigo Xabier Martínez Rolán, quen explica que este proxecto permitiu constatar que “hai un potencial na IA para utilizala como ferramenta na loita contra a desinformación”, mais tamén que nas respostas destas plataformas atópanse nesgos de xénero, “sutís pero persistentes”.
A análise desenvolvida con catro plataformas, ás que se lle solicitaba información de 20 persoeiros de diferentes ámbitos, sitúa ChatGPT como a ferramenta de meirande fiabilidade e utilidade para este tipo de tarefas. Este traballo viuse complementado ademais polo desenvolvemento dunha extensión para navegadores que permite empregar a IA xerativa para a verificación rápida de información con perspectiva de xénero.
Dada a expansión da IA xerativas como novas portas de acceso á información, o estudo centrouse en comparar o volume, calidade e tipo de información, fontes utilizadas e nesgos de xénero presentes nas respostas proporcionadas por ChatGPT, DeepSeek, Grok e Mistral a unha mesma consulta sobre 20 personalidades. Tratábase de dez homes e dez mulleres dos ámbitos da política, a comunicación, a cultura, o deporte e a ciencia, como os deportistas Ana Peleteiro e Iago Aspas; o presidente da Deputación, Luis López; a portavoz do BNG, Ana Pontón, ou o secretario xeral do PSdeG-PSOE, Xosé Ramón Besteiro; científicas como Marisol Soengas; o reitor da UVigo, Manuel Reigosa, ou persoeiros do mundo da cultura como Ledicia Costas, Marta Pazos ou Carlos Núñez.
Partindo dun prompt único, o equipo investigador analizou as respostas á solicitude de información sobre estas figuras destes catro modelos conversacionais. Deles, ChatGPT amosouse como a “ferramenta máis fiable e coherente”, mentres que Grok e Mistral son cualificadas con “déficit de fontes”. Pola contra, o equipo investigador destaca a “alta taxa de alucinacións”, afirmacións non reais, de DeepSeek, o que fai desta unha ferramenta “sen valor para a verificación”.
De feito, o equipo investigador detectou alucinacións no 55% das respostas desta ferramenta, mentres que Mistral e Grok “manteñen boa exactitude con algunhas alucinacións”. Pola contra, ChatGPT non só se amosa como a ferramenta máis fiable neste eido, senón que tamén é a única que “cumpre de forma consistente coa citación de fontes verificables” solicitada polo equipo investigador, mentres que as outras tres, especialmente DeepSeek, “amosan carencias, incluíndo referencias fabricadas”.
Outro dos eixos desta análise foi a detección de nesgos de xénero nas consultas, detectándose que estaban presentes no 15% das respostas, “o que evidencia desigualdades sutís e a necesidade de integrar criterios feministas no deseño e uso” destes modelos conversacionais. Nomeadamente, o estudo permitiu constatar unha maior incidencia destes nesgos nas respostas sobre mulleres deportistas, unha “lixeira menor ampliación informativa nos perfís femininos e maior vulnerabilidade á desinformación nas súas fontes”. Como apunta Martínez Rolán, en varias das respostas, incluíase información sobre aspectos de índole persoal, como o físico ou a vestimenta, “o que ten que ver con como se constrúe a información das personalidades públicas”, xa que estes modelos “reproducen desigualdades presentes nos datos cos que foron adestrados”.
Este proxecto tamén deu lugar a un decálogo de boas prácticas para o uso consciente da IA xerativa na verificación de información. Entre elas, probar diferentes ferramentas para unha mesma consulta, optar aquelas que permitan rastrexar ao orixe da información para poder verificala de forma independente, pór o foco en que a calidade da resposta depende directamente que como formules a túa consulta ou ter en conta que cada IA ten restricións técnicas, temporais e xeográficas.
Do mesmo xeito, o equipo investigador pon de relevo a importancia de ter en conta de que estes modelos “reproducen nesgos presentes nos datos cos que foron adestradas” e que pode solicitárselle que usen unha linguaxe exclusiva e eviten expresións sexistas.
