
Roy Saurabh destaca a aprendizaxe federada como clave para unha IA máis ética e segura na súa conferencia no CITIC da UDC
- O asesor da UNESCO resaltou a importancia da gobernanza dos datos e os sistemas de Intelixencia artificial responsables.
- Saurabh fixo fincapé na necesidade de protexer a privacidade dos individuos, especialmente dos grupos máis vulnerables, que son particularmente susceptibles á explotación e mal uso dos seus datos.
A Coruña, 10 de abril de 2025.- A conferencia impartida este xoves por Roy Saurabh, asesor sénior da UNESCO especializado en ética da Intelixencia artificial, no CITIC da Universidade da Coruña incidiu en como a integración da aprendizaxe federada pode revolucionar a forma en que se abordan os datos sensibles e, ao mesmo tempo, mellorar a seguridade e privacidade en sectores tan importantes como a saúde e a educación.
Na súa charla titulada “Integración da aprendizaxe federada con marcos de gobernanza de datos para a análise colaborativa e segura de datos sensibles”, Saurabh explicou que un dos maiores desafíos dos sistemas de IA é como tratar os datos persoais de maneira ética. A pesar da crecente demanda de modelos preditivos para resolver problemas complexos como o benestar, o abandono escolar ou a exclusión social, a recolección e o uso de datos persoais expoñen serias preocupacións sobre privacidade e seguridade.
“O reto non é se os datos persoais deben ser utilizados, senón como usalos de maneira responsable baixo estritos marcos de gobernanza”, subliñou Saurabh, facendo fincapé na necesidade de protexer a privacidade dos individuos, especialmente dos grupos máis vulnerables, como nenos en situacións de vulnerabilidade, persoas con discapacidades ou comunidades migrantes, que son particularmente susceptibles á explotación e mal uso dos seus datos.
O impacto da aprendizaxe federada na privacidade
O concepto central da charla foi a aprendizaxe federada, unha técnica de IA que permite adestrar modelos sen transferir os datos orixinais a servidores centrais. “A aprendizaxe federada permite adestrar modelos de IA en múltiples institucións mantendo os datos locais, o que reduce o risco de filtracións e mantén os datos no seu contexto orixinal,” explicou Saurabh.
A través dun exemplo do seu traballo no benestar adolescente, detallou como utilizaron este enfoque para adestrar modelos preditivos baseados en datos biométricos, condutuais e ambientais. “Os datos nunca se centralizan; no seu lugar, os modelos adestran localmente e só se comparten as actualizacións cifradas. Este sistema asegura que os datos sensibles non sexan comprometidos mentres xeramos coñecementos valiosos,” agregou.
Ademais, Saurabh subliñou que este enfoque axuda a cumprir coas normativas de protección de datos e a respectar as decisións dos usuarios sobre como e por que utilízase a súa información.
Ética e gobernanza en IA: unha necesidade urxente
O investigador destacou que a IA non pode avanzar sen un marco ético robusto, e nese sentido, as políticas públicas xogan un papel fundamental especialmente en sectores sensibles como a educación, a saúde ou o benestar. “É necesario que os organismos públicos xestionen a IA de maneira responsable, establecendo controis estritos sobre os modelos, os datos e a transparencia no proceso,” engadiu.
Doutra banda, Saurabh subliñou que é crucial atopar un equilibrio entre os dereitos dos individuos e a investigación e que as regulacións non deben percibirse como un obstáculo, senón como unha forma de garantir que as innovacións en IA impleméntense de maneira sostible e equitativa. “A regulación non limita a innovación, senón que a orienta para que se desenvolva de forma que respecte os dereitos e valores das sociedades,” afirmou.
Compromiso cunha IA responsable
Roy Saurabh concluíu a súa intervención salientando que unha IA ética non é un concepto abstracto, senón que debe ser implementada a través da arquitectura dos sistemas e supervisada de maneira continua. “A ética da IA debe ser integrada desde o deseño dos sistemas, non só a través de directrices, senón con mecanismos técnicos que garantan o cumprimento das normativas e principios éticos,” concluíu.
A conferencia, organizada polo CITIC da UDC e o Grupo Integrado de Enxeñería (GII), reafirmou o compromiso da comunidade científica e tecnolóxica co desenvolvemento dunha IA responsable, que protexa a privacidade, garanta a gobernanza dos datos e promova a equidade no uso de tecnoloxías emerxentes.