
Roy Saurabh destaca el aprendizaje federado como clave para una IA más ética y segura en su conferencia en el CITIC de la UDC
- El asesor de la UNESCO resaltó la importancia de la gobernanza de los datos y los sistemas de Inteligencia Artificial responsables.
- Saurabh hizo hincapié en la necesidad de proteger la privacidad de los individuos, especialmente de los grupos más vulnerables, que son particularmente susceptibles a la explotación y mal uso de sus datos.
A Coruña, 10 de abril de 2025.- La conferencia impartida este jueves por Roy Saurabh, asesor sénior de la UNESCO especializado en ética de la Inteligencia Artificial, en el CITIC de la Universidade de A Coruña incidió en cómo la integración del aprendizaje federado puede revolucionar la forma en que se abordan los datos sensibles y, al mismo tiempo, mejorar la seguridad y privacidad en sectores tan importantes como la salud y la educación.
En su charla titulada «Integración del aprendizaje federado con marcos de gobernanza de datos para el análisis colaborativo y seguro de datos sensibles», Saurabh explicó que uno de los mayores desafíos de los sistemas de IA es cómo tratar los datos personales de manera ética. A pesar de la creciente demanda de modelos predictivos para resolver problemas complejos como el bienestar, el abandono escolar o la exclusión social, la recolección y el uso de datos personales plantean serias preocupaciones sobre privacidad y seguridad.
«El reto no es si los datos personales deben ser utilizados, sino cómo usarlos de manera responsable bajo estrictos marcos de gobernanza», subrayó Saurabh, haciendo hincapié en la necesidad de proteger la privacidad de los individuos, especialmente de los grupos más vulnerables, como niños en situaciones de vulnerabilidad, personas con discapacidades o comunidades migrantes, que son particularmente susceptibles a la explotación y mal uso de sus datos.
El impacto del aprendizaje federado en la privacidad
El concepto central de la charla fue el aprendizaje federado, una técnica de IA que permite entrenar modelos sin transferir los datos originales a servidores centrales. «El aprendizaje federado permite entrenar modelos de IA en múltiples instituciones manteniendo los datos locales, lo que reduce el riesgo de filtraciones y mantiene los datos en su contexto original,» explicó Saurabh.
A través de un ejemplo de su trabajo en el bienestar adolescente, detalló cómo utilizaron este enfoque para entrenar modelos predictivos basados en datos biométricos, conductuales y ambientales. «Los datos nunca se centralizan; en su lugar, los modelos entrenan localmente y solo se comparten las actualizaciones cifradas. Este sistema asegura que los datos sensibles no sean comprometidos mientras generamos conocimientos valiosos,» agregó.
Además, Saurabh subrayó que este enfoque ayuda a cumplir con las normativas de protección de datos y a respetar las decisiones de los usuarios sobre cómo y por qué se utiliza su información.
Ética y gobernanza en IA: una necesidad urgente
El investigador destacó que la IA no puede avanzar sin un marco ético robusto, y en ese sentido, las políticas públicas juegan un papel fundamental especialmente en sectores sensibles como la educación, la salud o el bienestar. «Es necesario que los organismos públicos gestionen la IA de manera responsable, estableciendo controles estrictos sobre los modelos, los datos y la transparencia en el proceso,» añadió.
Por otro lado, Saurabh subrayó que es crucial encontrar un equilibrio entre los derechos de los individuos y la investigación y que las regulaciones no deben percibirse como un obstáculo, sino como una forma de garantizar que las innovaciones en IA se implementen de manera sostenible y equitativa. «La regulación no limita la innovación, sino que la orienta para que se desarrolle de forma que respete los derechos y valores de las sociedades,» afirmó.
Compromiso con una IA responsable
Roy Saurabh concluyó su intervención enfatizando que una IA ética no es un concepto abstracto, sino que debe ser implementada a través de la arquitectura de los sistemas y supervisada de manera continua. «La ética de la IA debe ser integrada desde el diseño de los sistemas, no solo a través de directrices, sino con mecanismos técnicos que garanticen el cumplimiento de las normativas y principios éticos,» concluyó.
La conferencia, organizada por el CITIC de la UDC y el Grupo Integrado de Ingeniería (GII), reafirmó el compromiso de la comunidad científica y tecnológica con el desarrollo de una IA responsable, que proteja la privacidad, garantice la gobernanza de los datos y promueva la equidad en el uso de tecnologías emergentes.