El desafío de tener una IA responsable y colaborativa en el mercado chileno
Por Rodrigo Acevedo, gerente general Entersoft. | Fotografía - Créditos: Entersoft

El desafío de tener una IA responsable y colaborativa en el mercado chileno

Mientras más se avanza en la incorporación de la Inteligencia Artificial (IA) en diversos ámbitos, surge una temática tremendamente relevante en torno a la utilización de los datos para el entrenamiento de modelos de IA.

IA vs IA generativa: ¿Cuál es el real impacto en la industria de la ciberseguridad?
La inteligencia artificial (IA) ha transformado el panorama de la ciberseguridad, proporcionando opciones avanzadas para identificar y mitigar amenazas, responder a incidentes y optimizar sistemas de defensa. Sin embargo, la evolución hacia la inteligencia artificial generativa ha añadido una dimensión nueva y compleja. Ley de Protección de Datos y agentes

Ya estamos siendo testigos de casos como el de la demanda que puso The New York Times y Daily News a Open AI, alegando la utilización de su contenido protegido por derechos de autor para el entrenamiento de ChatGPT. Ante sucesos como este, cabe preguntarse hasta dónde es posible proteger la data, qué tipo de información está siendo usada para aplicaciones de IA y de qué fuentes proviene, entre muchas otras interrogantes fundamentales.

Sin duda, para la incorporación y masificación de una IA responsable y colaborativa será preciso una regulación efectiva referente a la utilización de datos para el entrenamiento de modelos de IA, sobre todo si se considera su alta complejidad y la diversidad de ecosistemas en los que opera.

¿Estamos preparados para la siguiente etapa de la IA Generativa?
El éxito y desarrollo de la inteligencia artificial dependerá tanto de las personas como de la tecnología como un solo equipo, expluca el vocero.

Asimismo, la implementación de la IA exige principios éticos sólidos con la finalidad de que su uso sea responsable y apegado a la normativa. Una manipulación desacertada de los algoritmos que alimentan un aplicativo de IA puede perpetuar sesgos de género, edad, discapacidad, nacionalidad, religión, orientación sexual u otros tópicos, de manera negativa.

Además de lo anterior, los usuarios deben ser informados de manera transparente respecto de que están frente a un contenido, dispositivo o aplicativo de IA, ya que la dificultad de distinguir entre creaciones humanas y algoritmos es un desafío diario in crescendo.

Tecnología y empatía: La receta para transformar la atención médica en Chile
En Chile, la industria ha buscado soporte para la implementación de soluciones TI que promueven la humanización de la atención médica, destaca la vocera.

Lo cierto es que las preocupaciones éticas y legales en torno a la IA no hacen más que aumentar. Ciertamente, la normativa europea, así como los proyectos locales de regulación son avances importantes. No obstante, falta concientización y una discusión mucho más seria de esta problemática. Aún queda mucho que aprender y pulir en esta revolución que ha venido a iniciar la IA.

Con todo, existe acuerdo de que, al momento de decidir por la ética en la IA, las compañías deben promover la colaboración multidisciplinaria, la capacitación permanente, establecer claros mecanismos de supervisión, proteger la privacidad del usuario y la de los datos sensibles. Aunque, probablemente, lo más relevante es fomentar la transparencia en los procesos de IA para permitir y facilitar su control, manteniendo la confianza de quién la utiliza.

2025: El año de la redefinición del concepto laboral en las empresas
A medida que la IA se integra cada vez más en nuestras vidas, su influencia en el futuro del trabajo se hará más evidente, dice el vocero.

 

Francisco Carrasco M.

Francisco Carrasco, editor general y periodista azul especializado en TI con más de 22 años en el mercado local e internacional, quien trabajo por 15 años con la destacada editorial IDG International.