La inteligencia artificial, la mayor estrella de esta década en lo que respecta a tecnología, seguirá aumentando en los próximos años. Proyecciones de Gartner señalan que, para 2026, más del 80 % de las empresas habrán utilizado modelos de inteligencia artificial generativa (Gen AI) o implementado aplicaciones habilitadas para Gen AI en entornos de producción.
Sin embargo, el crecimiento también pone de relieve los desafíos que enfrentan las organizaciones al lidiar con la IA: más del 30 % de estos proyectos deberán abandonarse a finales de 2025 debido a la baja calidad de los datos, un control de riesgos inadecuado, poca percepción de valor y altos costos.
Para los expertos del mercado, el elevado número de proyectos frustrados o abandonados a mitad de camino son el resultado de la creencia de las empresas de que las nuevas tecnologías, como la IA, deberían actuar como una especie de solución mágica a todos los problemas.
Gilson Magalhães, VP y General Manager de Red Hat para América Latina, destaca que hoy:
"[...] vivimos en una panacea de desarrollo reciente en América Latina con la nube, y ahora vemos que la historia se repite con la inteligencia artificial. Hay una emoción que, al mismo tiempo, trae tensión y presión a los CIOs para que produzcan cualquier cosa con esta tecnología, sin mucho análisis ni estrategia. Y definitivamente este no es el mejor camino”.
Para hacer frente a los desafíos de sus elecciones pasadas, especialmente en lo que respecta a la seguridad y la calidad de los datos, el ejecutivo señala que Las organizaciones deben avanzar en los llamados agentes, componentes de software más simples, que se conectarán a las aplicaciones existentes para modernizarlas.
Además, se espera que el mercado vuelva a las aplicaciones predictivas de IA, y más de la mitad de los casos de inteligencia artificial se centran en ofrecer personalización al cliente y optimización de la cadena de suministro. “Las organizaciones dependerán de más plataformas AIOps para reducir la deuda técnica y mejorar los resultados comerciales, y encontrarán en las soluciones de código abierto la respuesta que necesitan para avanzar con seguridad y eficiencia”, afirma.
Una receta para cada negocio
La sinergia entre código abierto e inteligencia artificial para impulsar el avance de las TI empresariales fue tema central del principal evento de código abierto de América Latina, el Red Hat Summit: Connect, que pasó por seis países y abordó las tendencias para el futuro que deberían transformar una vez más el viaje digital de las organizaciones donde Gilson Magalhães destaca que:
"[...] en medio de todos los desafíos y predicciones para los próximos años, ahora estamos hablando no sólo de IA, sino más bien de cómo obtener el poder de la inteligencia humana, ayudado por el trabajo que su IA puede hacer mejor, o más rápido, que posiblemente los humanos puedan hacer".
En otras palabras, dice el ejecutivo, la respuesta a un avance sostenible de la IA radica en la convergencia de esta inteligencia con las habilidades y el conocimiento humanos y comenta que:
"[...] la inteligencia artificial ya es una realidad y el siguiente paso es hacer que interactúe satisfactoriamente con el conocimiento humano. Esto significa contar con herramientas de IA alineadas mejor para resolver los procesos del día a día, automatizar el trabajo repetitivo y mejorar las capacidades de los recursos humanos para tareas más estratégicas".
Las herramientas de código abierto son grandes aliadas en este camino. La estrategia de nube híbrida abierta defendida por Red Hat y presentada durante la serie de eventos es la puerta de entrada a una inteligencia artificial abierta y eficaz, respaldada por importantes socios como Google, AWS y Microsoft. Presentes en los Red Hat Summit: Connect, estos gigantes tecnológicos presentaron casos de éxito con clientes como Solar Coca-Cola y SulAmérica. Otros casos de éxito de Red Hat, como Banco da Amazônia, AGESIC, La Segunda, Arsat y Universidad Finis Terrae también fueron presentados en los distintos encuentros.
El valor de Red Hat OpenShift
Líder mundial en soluciones empresariales de código abierto, Red Hat es parte de todas estas historias al ofrecer herramientas listas para satisfacer las necesidades de cada organización, especialmente cuando se trata de inteligencia artificial. Una de las plataformas más famosas de la compañía, Red Hat OpenShift, obtuvo recientemente una versión específica para IA, donde afirma Magalhães:
"[...] Red Hat OpenShift AI es una herramienta MLOps tecnología escalable y flexible que permite crear y lanzar aplicaciones de IA a escala en entornos de nube híbrida".
Creado con tecnologías de código abierto, Red Hat OpenShift AI proporciona capacidades confiables y consistentes para probar, desarrollar y entrenar modelos de IA, lo que permite la preparación y adquisición de datos, así como el entrenamiento, el ajuste y la entrega de modelos.
La solución se integra con otra novedad de la empresa, el Red Hat Enterprise Linux AI, plataforma modelo base utilizada para desarrollar, probar y ejecutar modelos de lenguajes a gran escala (LLM) de la familia Granite para aplicaciones empresariales, donde el gerente destaca que:
"[...] Red Hat Enterprise Linux AI le permite migrar entornos de nube híbrida, escalar sus flujos de trabajo de IA con Red Hat OpenShift AI y avanzar a IBM watsonx.ai con desarrollo adicional de IA empresarial, datos de gestión y gobernanza de modelos. Y esto es muy importante en un momento en el que es clara la necesidad de modelos de IA cada vez más pequeños y especializados”.
SLM: La nueva era de la IA
Según las previsiones de forrester, mientras que casi el 90 % de los tomadores de decisiones tecnológicas globales dicen que sus empresas aumentarán la inversión en infraestructura, gestión y gobernanza de datos, los líderes tecnológicos seguirán siendo pragmáticos al invertir en IA para maximizar el valor comercial derivado de la tecnología.
De cara a 2025, la transformación más significativa de las inversiones se centrará en pequeños modelos de inteligencia artificial (SLM, por sus siglas en ingés). Con menor costo, mayor asertividad y menos posibilidades de alucinación, estos modelos también son más especializados y pueden ser entrenados y ejecutados mucho más fácilmente.
En la práctica, comprender la sopa de letras de los LLM y SLM es sencillo. Ambas siglas hacen referencia a tipos de sistemas de inteligencia artificial (IA) entrenados para interpretar el lenguaje humano, incluidos los lenguajes de programación. Los LLM a menudo pretenden emular la inteligencia humana en un nivel muy amplio y, por lo tanto, están capacitados en una amplia gama de grandes conjuntos de datos. Por lo tanto, pueden presentar las llamadas "alucinaciones", respuestas potencialmente incorrectas, ya que no tienen el afinamiento y la capacitación en el dominio para responder con precisión a cada consulta de sector o nicho específico.
El VP y General Manager de Red Hat para América Latina explica que los SLM, por otro lado, normalmente se entrenan en conjuntos de datos más pequeños adaptados a dominios industriales específicos (es decir, áreas de especialización):
"[...] por ejemplo, un proveedor de atención médica puede utilizar un chatbot con tecnología SLM y entrenado en conjuntos de datos médicos para inyectar conocimiento de un dominio específico en la consulta no experta de un usuario sobre su salud, enriqueciendo la calidad de la pregunta y la respuesta. "¿Qué modelo es mejor? Todo dependerá de los planes, recursos, experiencia, calendario y otros factores de cada organización".
Otras tendencias
Aunque la inteligencia artificial sigue dominando los titulares y los debates, también se espera que otros temas ganen fuerza en la TI empresarial, según el ejecutivo de Red Hat.
Para 2025, la automatización y la informática de punta estarán en la agenda de las organizaciones públicas y privadas con el avance cada vez más acelerado del Internet de las cosas (IoT). Además, la computación cuántica podría dar un importante salto: las Naciones Unidas (ONU) ya han proclamado que el 2025 será el Año Internacional de la Ciencia y la Tecnología Cuántica, esperando que la investigación sobre esta solución salga de laboratorios y obtenga aplicaciones más prácticas en la vida cotidiana y donde además enfatiza el vocero que:
"[...] la virtualización también tendrá un espacio de crecimiento. Las mismas máquinas virtuales que fueron fundamentales para la evolución de la computación en la nube ahora contribuyen al entrenamiento del modelo AI/ML, con aislamiento y reproducibilidad, escalabilidad, aceleración de hardware, flexibilidad en la configuración del software y gestión y seguridad de los datos".
"Gartner señala que el 70 % de las cargas de trabajo que alimentan computadoras personales y servidores de centros de datos seguirán utilizando virtualización basada en hipervisor hasta 2027".
Por el lado de las telecomunicaciones, la apuesta está en la evolución de las redes 5G y 6G, más rápidas y fiables, que impulsarán las ciudades inteligentes, los vehículos autónomos y las tecnologías inmersivas. La preocupación por soluciones más sostenibles también irá en aumento, y las empresas buscarán reducir su huella de carbono, con innovaciones en tecnología solar, almacenamiento de baterías y centros de datos sin emisiones de carbono.
Las inversiones en ciberseguridad completan la lista, con soluciones sólidas y descentralizadas para que las organizaciones se protejan contra ataques crecientes, filtraciones de datos y ransomware.