El objetivo de su investigación yace en evitar o mitigar los efectos adversos que se derivan de entrenar estos algoritmos con datos sesgados.
12 August 2025 | Fuente: www.regiondigital.com
Ep
Cuatro estudiantes becados por la Fundación La Caixa para estudiar posgrados en el extranjero, entre ellos la extremeña Belén Luengo, están trabajando para desarrollar una inteligencia artificial "orientada al bien común" hecha por y para humanos.
El matemático y alumno del máster en Matemáticas, Visión y Aprendizaje en la Université Paris-Saclay (Francia) Albert Gimó ha explicado que tiene un "gran interés" por la alienación de sistemas de IA con los valores humanos, según recoge la Fundación en un reportaje en su MediaHub.
Más que confiar en la buena voluntad de quienes diseñan los modelos de lenguaje de gran escala, como ChatGPT, Gimó aboga por una actitud consciente frente al desarrollo tecnológico: "No basta solo con no tener mala fe, hay que pensar activamente en los efectos".
"Es fácil perderse en el ciclo de publicar artículos, hallar nuevos métodos, participar en conferencias, y olvidar el impacto de nuestro trabajo sobre la gente", advierte el joven, que alerta del riesgo de desconexión con el mundo real de las decisiones técnicas.
EQUIDAD Y EMPODERAMIENTO
La extremeña graduada en Derecho y Estudios Internacionales Belén Luengo estudiará un máster en Ética Aplicada y Políticas Públicas en la Duke University de Estados Unidos, con enfoque en el desarrollo de tecnologías que promueve la equidad y el empoderamiento de comunidades "tradicionalmente marginadas" y personas con discapacidad.
Luengo colabora con TheNeuroRights Foundation, donde trabaja en la defensa de los derechos mentales ante el auge de las neurotecnologías.
Uno de los usos habituales de la IA en este campo es su aplicación en interfaces cerebro-computadora para permitir recuperar habilidades comunicativas, por ejemplo, a las personas con ELA: "Es algo que puede cambiarte la vida, pues ayuda a paliar el síndrome del encerramiento", señala.
La estudiante cree que la tecnología no es neutral, sino que refleja las prioridades humanas: "Desgraciadamente, en el mundo hay gente con buenas y malas intenciones, y la IA es un catalizador de ello".
"Tanto avance frenético nos obliga a estar constantemente replanteándonos qué sociedad queremos construir y hacia dónde queremos avanzar", apunta.
LA IA NO RAZONA
El ingeniero biomédico Gonzalo Plaza, que cursa un máster en IA Aplicada a la Biomedicina y la Asistencia Sanitaria en el University College de Londres (Reino Unido), asegura que la IA debe ser "una herramienta de apoyo clínico, no un sustituto del juicio humano", e insiste en que el personal sanitario debe entender cómo funcionan los modelos y qué significan sus salidas.
"No es un ente responsable ni ética ni jurídicamente. No razona en el sentido en el que nosotros lo entendemos", detalla el estudiante, que se muestra preocupado tanto por el mal uso de la IA como por el desperdicio de su potencial.
"Una IA de calidad solo puede construirse con datos de calidad. Y esos datos están ahí. Solo hay que saber ordenarlos", concluye.
PRIORIZAR LO QUE SE ENTIENDE
La doble graduada en Física y Matemáticas y doctorando en Astronomía en la Cambridge University (Reino Unido), Júlia Laguna, explica que la nueva generación de telescopios generará cantidades "astronómicas" de datos, y señala que la única forma de aprovecharlos será la IA.
Laguna es crítica con el entusiasmo que orbita el sector, que ve desmedido, y apuesta por modelos "más simples, interpretables y fiables".
"Es fácil dejarse llevar por las nuevas tendencias, pero hay que priorizar aquellas que entendemos mejor para poder explicar los resultados", apunta la estudiante, que confía en el beneficio de estas tecnologías sin olvidar sus riesgos.
"Como toda revolución, la IA arrastra desventajas. Mientras se utilice con cabeza, irá bien. El problema es que tal vez no veamos sus efectos negativos hasta dentro de diez años y, para entonces, puede que ya sea tarde", advierte.