Red Hat anuncia un acuerdo definitivo para adquirir Neural Magic
Esta compra permitirá a sus clientes ejecutar cualquier aplicación o carga de trabajo —incluida la IA— en cualquier entorno de nube híbrida, desde on-premises hasta nubes públicas y el edge. | Fotografía Créditos: Red Hat Corp.

Red Hat anuncia un acuerdo definitivo para adquirir Neural Magic

Red Hat ha anunciado un acuerdo definitivo para la adquisición de Neural Magic, empresa pionera en software y algoritmos que aceleran las cargas de trabajo de inferencia de IA generativa.

IBM revela resultados de Q3 2024....estabilidad en software y caída en infraestructura
IBM reporta un tercer trimestre mixto, con crecimiento en software, caída en infraestructura y avances en inteligencia artificial.

La experiencia de Neural Magic en ingeniería de rendimiento de inferencia y su compromiso con el código abierto se alinean con la visión de Red Hat de cargas de trabajo de IA de alto rendimiento que se adaptan directamente a los casos de uso y datos específicos del cliente, en cualquier lugar de la nube híbrida.

Si bien la promesa de la IA generativa domina gran parte del panorama tecnológico actual, los grandes modelos lingüísticos (LLM) que sustentan estos sistemas continúan aumentando de tamaño. Como resultado, construir servicios LLM rentables y confiables requiere una potencia de cálculo, recursos energéticos y habilidades operativas especializadas significativas. Estos desafíos, en la práctica, ponen los beneficios de una IA personalizada, lista para implementar y más consciente de la seguridad fuera del alcance de la mayoría de las organizaciones.

Red Hat presenta RHEL AI para facilitar la implementación de modelos de IA en la nube híbrida
Red Hat introduce herramientas de código abierto para optimizar el despliegue de modelos de IA generativa en múltiples entornos empresariales.

Red Hat pretende abordar estos desafíos haciendo que la IA generativa sea más accesible para más organizaciones a través de la innovación abierta de vLLM.

Desarrollado por la Universidad de California, Berkeley, vLLM es un proyecto de código abierto impulsado por la comunidad para open model serving (cómo los modelos de IA generativa infieren y resuelven problemas), con soporte para todas las familias de modelos clave, investigación avanzada en aceleración de inferencia y diversos backends de hardware, incluyendo GPUs AMD, AWS Neuron, TPUs de Google, Intel Gaudi, GPUs NVIDIA y CPUs x86.

El liderazgo de Neural Magic en el proyecto vLLM, combinado con la sólida cartera de tecnologías de IA para nube híbrida de Red Hat, ofrecerá a las organizaciones una vía abierta para construir estrategias de IA que satisfagan sus necesidades únicas, dondequiera que estén sus datos.

¿Cómo la innovación multigeneracional pude potenciar el crecimiento de las empresas?, por Andrés Indaverea de Red Hat.
El collage generacional en un entorno laboral es el que ayuda a encontrar un equilibrio entre la volatilidad de la juventud y la confianza de la experiencia, destaca el vocero.

Neural Magic surgió del MIT en 2018 con el objetivo de construir software de inferencia de alto rendimiento para deep learning. Con la tecnología y la experiencia en ingeniería de rendimiento de Neural Magic, Red Hat busca acelerar su visión para el futuro de la IA, impulsada por el portfolio de tecnología de IA de Red Hat.

El liderazgo en vLLM mejora Red Hat AI

Neural Magic utiliza su experiencia y conocimiento en vLLM para construir un stack de inferencia empresarial que permite a los clientes optimizar, desplegar y escalar cargas de trabajo LLM en entornos de nube híbrida con control total sobre la elección de la infraestructura, las políticas de seguridad y el ciclo de vida del modelo.

Neural Magic también desarrolla investigación de optimización de modelos, construye LLM Compressor (una biblioteca unificada para optimizar LLM con algoritmos de vanguardia de dispersión y cuantización) y mantiene un repositorio de modelos preoptimizados listos para implementar con vLLM.

Red Hat OpenStack Services on OpenShift liberada para la industria de las telecomunicaciones
El líder en open source aporta un enfoque moderno a las implementaciones de OpenStack y ayuda a las organizaciones a construir redes preparadas para el futuro a gran escala

Red Hat AI tiene como objetivo ayudar a los clientes a reducir los costos y las barreras de conocimiento de la IA con potentes tecnologías, que incluyen:

● Red Hat Enterprise Linux AI (RHEL AI): una plataforma de modelos fundacionales para desarrollar, probar y ejecutar de forma más fluida la familia IBM Granite de LLM de código abierto para aplicaciones empresariales en despliegues de servidores Linux.

● Red Hat OpenShift AI: una plataforma de IA que proporciona herramientas para desarrollar, entrenar, servir y supervisar rápidamente modelos de aprendizaje automático en entornos Kubernetes distribuidos, ya sea en las instalaciones, en la nube pública o en el edge.

● InstructLab: un proyecto comunitario de IA de código abierto accesible, creado por Red Hat e IBM, que permite a cualquiera dar forma al futuro de la IA generativa mediante la mejora colaborativa de los LLM Granite con licencia de código abierto utilizando la tecnología de ajuste de InstructLab.

Red Hat anuncia nuevo vicepresidente y gerente general para América Latina
Hasta fines de 2024, Magalhães continuará como country manager en Brasil, momento en el que se prevé anunciar al ejecutivo que asumirá ese cargo

Finalmente, el liderazgo tecnológico de Neural Magic en vLLM mejorará la capacidad de Red Hat AI para admitir despliegues de LLM en cualquier lugar de la nube híbrida con un stack de inferencia listo para usar, altamente optimizado y abierto.

Francisco Carrasco M.

Francisco Carrasco, editor general y periodista azul especializado en TI con más de 22 años en el mercado local e internacional, quien trabajo por 15 años con la destacada editorial IDG International.