¿Cómo llevar la inteligencia artificial responsable del discurso a la práctica? Esa fue la pregunta que guio el taller “Inteligencia artificial responsable en la práctica”, organizado por el GobLab UAI junto a la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez.

La jornada contó con cerca de 30 participantes, entre ellos académicos, investigadores, colaboradores y estudiantes de doctorado de distintas disciplinas, todos con interés o vínculo con el uso de inteligencia artificial. El foco estuvo en compartir herramientas concretas para integrar principios de equidad, transparencia y responsabilidad a lo largo del ciclo de vida de los proyectos de IA. Estas herramientas fueron creadas por el GobLab UAI en el marco del proyecto ANID IDeA I+D 2023 (ID23I10357).
La directora del GobLab, María Paz Hermosilla, abrió el taller y subrayó la importancia de construir tecnologías que respeten los derechos de las personas, fomenten la confianza institucional y respondan a los nuevos desafíos regulatorios en torno a la IA.

En el encuentro también participó Rolando de la Cruz, académico de la Facultad de Ingeniería y Ciencias UAI, quien destacó el compromiso del sector privado en la adopción de tecnologías más justas y sostenibles:
“Hemos implementado proyectos para reducir emisiones y fomentar el uso de energías renovables. Pero esto no es solo tecnología: la educación y la concienciación de la comunidad son claves para lograr un cambio realmente sostenible”.

Por su parte, Claudio Seebach, decano de la Facultad de Ingeniería y Ciencias UAI, reforzó la necesidad de un enfoque colaborativo y transversal en el desarrollo tecnológico:
“La colaboración entre empresas, gobierno y sociedad civil es esencial para avanzar en la transición energética. Promover políticas públicas que faciliten el desarrollo de iniciativas sostenibles es parte del camino hacia un futuro más limpio y eficiente”.
Posteriormente, Mariana German, investigadora del GobLab, presentó las tres herramientas desarrolladas a través de la revisión de un caso aplicado en un organismo público, lo que permitió evidenciar cómo estas soluciones pueden implementarse en contextos reales, fortaleciendo la legitimidad y la responsabilidad institucional.
Evaluación de Impacto Algorítmico: permite identificar riesgos éticos y legales asociados al desarrollo e implementación de un proyecto de IA, entregando recomendaciones personalizadas para mitigarlos a tiempo.
Medición de Sesgos y Equidad: evalúa si un modelo de IA genera predicciones injustas, identificando sesgos que se estén replicando y apoyando decisiones más justas.
Ficha de Transparencia Algorítmica: sistematiza y comunica de forma clara el funcionamiento, propósito y contexto de uso de un sistema algorítmico.

Estas herramientas, disponibles en español, de acceso abierto y con una interfaz amigable, están pensadas especialmente para equipos interdisciplinarios del sector público y privado que buscan aplicar estándares éticos internacionales sin requerir altos conocimientos técnicos en IA responsable.
Esta iniciativa reafirma el compromiso de la UAI con el desarrollo de una inteligencia artificial centrada en las personas, promoviendo la innovación con sentido ético, social y transformador.
