Mientras más se avanza en la incorporación de la Inteligencia Artificial (IA) en diversos ámbitos, surge una temática tremendamente relevante en torno a la utilización de los datos para el entrenamiento de modelos de IA.
Ya estamos siendo testigos de casos como el de la demanda que puso The New York Times y Daily News a Open AI, alegando la utilización de su contenido protegido por derechos de autor para el entrenamiento de ChatGPT. Ante sucesos como este, cabe preguntarse hasta dónde es posible proteger la data, qué tipo de información está siendo usada para aplicaciones de IA y de qué fuentes proviene, entre muchas otras interrogantes fundamentales.
Sin duda, para la incorporación y masificación de una IA responsable y colaborativa será preciso una regulación efectiva referente a la utilización de datos para el entrenamiento de modelos de IA, sobre todo si se considera su alta complejidad y la diversidad de ecosistemas en los que opera.
Asimismo, la implementación de la IA exige principios éticos sólidos con la finalidad de que su uso sea responsable y apegado a la normativa. Una manipulación desacertada de los algoritmos que alimentan un aplicativo de IA puede perpetuar sesgos de género, edad, discapacidad, nacionalidad, religión, orientación sexual u otros tópicos, de manera negativa.
Además de lo anterior, los usuarios deben ser informados de manera transparente respecto de que están frente a un contenido, dispositivo o aplicativo de IA, ya que la dificultad de distinguir entre creaciones humanas y algoritmos es un desafío diario in crescendo.
Lo cierto es que las preocupaciones éticas y legales en torno a la IA no hacen más que aumentar. Ciertamente, la normativa europea, así como los proyectos locales de regulación son avances importantes. No obstante, falta concientización y una discusión mucho más seria de esta problemática. Aún queda mucho que aprender y pulir en esta revolución que ha venido a iniciar la IA.
Con todo, existe acuerdo de que, al momento de decidir por la ética en la IA, las compañías deben promover la colaboración multidisciplinaria, la capacitación permanente, establecer claros mecanismos de supervisión, proteger la privacidad del usuario y la de los datos sensibles. Aunque, probablemente, lo más relevante es fomentar la transparencia en los procesos de IA para permitir y facilitar su control, manteniendo la confianza de quién la utiliza.