Por Claudio Ortiz Welsch, gerente general de Cisco Chile.
Señor director:
Detectar el cáncer de piel mediante el análisis de millones de imágenes en segundos era imposible para la labor humana. Hoy con la inteligencia artificial (IA) eso es posible para iniciar el tratamiento a tiempo. Sin embargo, la IA enfrenta constantes dilemas éticos en cuanto a su uso y cómo impactará en las personas negativamente.
“Reemplazará al humano”, “es potencialmente peligrosa” o “acabará con la humanidad” son algunas de las frases que hoy en día pululan alrededor del mundo. Lo cierto es que, se trata de una herramienta que en sí misma no reviste ningún riesgo, sin embargo, su uso e implicancia en las personas requiere un modelo de gobernanza urgente.
Por lo general, los avances y desarrollos tecnológicos van más allá de los marcos normativos, si hablamos de velocidad. ¿Quién se hace responsable de los efectos negativos de la IA y sus algoritmos? ¿Adónde llega la frontera de lo digital? El problema, entonces, no es usarla, sino asegurar el bien y el beneficio hacia las personas.
La IA no asegura igualdad de oportunidades, precisamente porque está hecha por humanos. Y estos tienen sesgos. Por eso, más que un desarrollo de la IA ética, hay que avanzar hacia una conciencia digital sustentada en instituciones, sistemas y Estados que regulen los modelos y herramientas. La IA debe tener gobernanza, donde la penalización por un mal uso sea garantía de una sociedad en armonía con las tecnologías. Más tiempo sin regulación y gobierno, mayor es el riesgo de una crisis sistémica sin precedentes e inabordable.