Roy Saurabh destaca no CITIC a aprendizaxe federada como clave para unha IA máis ética e segura
xoves, 10 de abril do 2025
A conferencia impartida no CITIC da UDC este xoves 10 de abril por Roy Saurabh, asesor sénior da UNESCO especializado en ética da Intelixencia Artificial, incidiu en como a integración da aprendizaxe federada pode revolucionar a forma en que se abordan os datos sensíbeis e, ao mesmo tempo, mellorar a seguridade e privacidade en sectores tan importantes como a saúde e a educación.
Na súa charla titulada Integración da aprendizaxe federada con marcos de gobernanza de datos para a análise colaborativa e segura de datos sensíbeis, Saurabh explicou que “un dos maiores desafíos dos sistemas de IA é como tratar os datos persoais de maneira ética”. Engadiu que malia a crecente demanda de modelos preditivos para resolver problemas complexos como o benestar, o abandono escolar ou a exclusión social, a recolección e o uso de datos persoais expoñen serias preocupacións sobre privacidade e seguridade.
“O reto non é se os datos persoais deben ser utilizados, senón como usalos de maneira responsábel baixo estritos marcos de gobernanza”, subliñou Saurabh, facendo fincapé na necesidade de protexer a privacidade dos individuos, especialmente dos grupos en risco, como nenos en situacións de vulnerabilidade, persoas con discapacidades ou comunidades migrantes, que son particularmente susceptíbeis á explotación e mal uso dos seus datos.
O concepto central da charla foi a aprendizaxe federada, unha técnica de IA que permite adestrar modelos sen transferir os datos orixinais a servidores centrais. “A aprendizaxe federada permite adestrar modelos de IA en múltiples institucións mantendo os datos locais, o que reduce o risco de filtracións e mantén os datos no seu contexto orixinal,” explicou Saurabh. A través dun exemplo do seu traballo no benestar adolescente, detallou como utilizaron este enfoque para adestrar modelos preditivos baseados en datos biométricos, condutuais e ambientais. “Os datos nunca se centralizan; no seu lugar, os modelos adestran localmente e só se comparten as actualizacións cifradas. Este sistema asegura que os datos sensíbeis non sexan comprometidos mentres xeramos coñecementos valiosos,” agregou.
Ademais, Saurabh subliñou que este enfoque axuda a cumprir coas normativas de protección de datos e a respectar as decisións dos usuarios sobre como e por que utilízase a súa información.
O investigador destacou que a IA non pode avanzar sen un marco ético robusto, e nese sentido, as políticas públicas xogan un papel fundamental especialmente en sectores sensíbeis como a educación, a saúde ou o benestar. “É necesario que os organismos públicos xestionen a IA de maneira responsábel, establecendo controis estritos sobre os modelos, os datos e a transparencia no proceso”, engadiu.
Doutra banda, Saurabh subliñou que “é crucial atopar un equilibrio entre os dereitos dos individuos e a investigación e que as regulacións non deben percibirse como un obstáculo, senón como unha forma de garantir que as innovacións en IA sexan aplicadas de maneira sostíbel e equitativa. A regulación non limita a innovación, senón que a orienta para que se desenvolva de forma que respecte os dereitos e valores das sociedades,” afirmou.
Roy Saurabh concluíu a súa intervención salientando que unha IA ética non é un concepto abstracto, senón que debe ser aplicada a través da arquitectura dos sistemas e supervisada de maneira continua. “A ética da IA debe ser integrada desde o deseño dos sistemas, non só a través de directrices, senón con mecanismos técnicos que garantan o cumprimento das normativas e principios éticos,” concluíu.
A conferencia, organizada polo CITIC da UDC e o Grupo Integrado de Enxeñería (GII), reafirmou o compromiso da comunidade científica e tecnolóxica co desenvolvemento dunha IA responsábel, que protexa a privacidade, garanta a gobernanza dos datos e promova a equidade no uso de tecnoloxías emerxentes.