A pesar de todo el bombo publicitario en torno a la inteligencia artificial (IA), muchos programas no son tan útiles como parecen. Sin embargo, Red Hat Enterprise Linux AI ofrece una solución que beneficiará tanto a administradores de sistemas como a desarrolladores.
Red Hat ha lanzado oficialmente Red Hat Enterprise Linux (RHEL) AI al público. Este no es solo otro lanzamiento de producto; es un enfoque de IA verdaderamente útil que los administradores y programadores de RHEL encontrarán especialmente beneficioso.
Antecedentes de la Plataforma de RHEL AI
La idea detrás de RHEL AI es simplificar la adopción empresarial mediante la oferta de una imagen de RHEL completamente optimizada y lista para su arranque, destinada a implementaciones de servidores en entornos cloud híbridos. Estas instancias optimizadas funcionan con los modelos Granite y las herramientas InstructLab, e incluyen bibliotecas optimizadas de PyTorch y aceleradores GPU para AMD Instinct MI300X, Intel y NVIDIA, así como frameworks NeMo.
Puede leer también | Diferencias entre Red Hat Enterprise Linux vs. SUSE Linux Enterprise
Este es el plataforma fundamental de IA de Red Hat, diseñada para simplificar el desarrollo, prueba e implementación de modelos de inteligencia artificial generativa (gen AI). La plataforma combina los modelos de lenguaje a gran escala Granite de código abierto, la metodología basada en LAB de InstructLab, y un enfoque colaborativo para el desarrollo de modelos a través del proyecto InstructLab.
Tendencias y Enfoque Innovador de RHEL AI
IBM Research ha sido pionera en la metodología LAB, que utiliza la generación de datos sintéticos y la afinación en varias fases para alinear los modelos de IA/ML sin la necesidad de costosos esfuerzos manuales. Este enfoque, perfeccionado a través de la comunidad InstructLab, permite a los desarrolladores crear y contribuir a modelos de lenguaje a gran escala (LLM) de la misma manera que lo harían con cualquier proyecto de código abierto.
Puede leer también | Diferencias entre Red Hat Enterprise Linux vs. SUSE Linux Enterprise
Con el lanzamiento de InstructLab, IBM también ha liberado algunos modelos de lenguaje y código en inglés de Granite bajo una licencia Apache, ofreciendo conjuntos de datos transparentes para el entrenamiento y contribuciones de la comunidad. El modelo de lenguaje Granite 7B ahora está integrado en InstructLab, donde los usuarios pueden mejorar sus capacidades de manera colaborativa.
RHEL AI y su Integración en OpenShift AI
RHEL AI también está integrado en OpenShift AI, la plataforma de operaciones de aprendizaje automático (MLOps) de Red Hat, lo que permite la implementación de modelos a gran escala en clústeres Kubernetes distribuidos.
Reducción de Costos en la Implementación de IA
No es un secreto que la IA no es barata. Entrenar modelos de lenguaje a gran escala (LLM) puede costar decenas de millones de dólares. RHEL AI intenta reducir esos costos astronómicos mediante el uso de Retrieval-Augmented Generation (RAG). Esta técnica permite que los LLMs accedan a conocimientos externos aprobados almacenados en bases de datos, documentos y otras fuentes de datos. Esto mejora la capacidad de RHEL AI para ofrecer respuestas más precisas y relevantes.
Puede leer también | Cómo Actualizar el Kernel en Debian, Ubuntu y Red Hat
Con RHEL AI, también es posible entrenar modelos utilizando el conocimiento de los expertos en la materia de una empresa sin necesidad de contar con un doctorado en aprendizaje automático. Esto hace que RHEL AI sea mucho más útil para resolver problemas específicos de negocio en lugar de tareas genéricas.
Flexibilidad y Compatibilidad con Infraestructuras Existentes
Según Joe Fernandes, vicepresidente de la plataforma de modelos fundacionales de Red Hat, "RHEL AI permite que los expertos en el dominio, no solo los científicos de datos, contribuyan a un modelo de IA generativa diseñado para un propósito específico en la nube híbrida, al tiempo que permite a las organizaciones de TI escalar estos modelos para producción a través de Red Hat OpenShift AI."
Puede leer también | ¿Cuándo pagar soporte en Red Hat Enterprise Linux u Optar por una Distribución Libre de pago?
Una de las grandes ventajas de RHEL AI es que no está limitado a un entorno específico. Está diseñado para funcionar donde residen los datos, ya sea en servidores locales, en el borde o en la nube pública. Esta flexibilidad es crucial para implementar estrategias de IA sin la necesidad de renovar por completo la infraestructura existente.
Disponibilidad y Colaboraciones
El programa ya está disponible en Amazon Web Services (AWS) y IBM Cloud como una oferta de suscripción BYO (Bring Your Own). En los próximos meses, estará disponible como servicio en AWS, Google Cloud Platform (GCP), IBM Cloud y Microsoft Azure. Además, Dell Technologies ha anunciado una colaboración para llevar RHEL AI a los servidores Dell PowerEdge, simplificando la implementación de IA con soluciones de hardware validadas, incluidas las tecnologías de computación acelerada por NVIDIA, optimizadas para RHEL AI.
Puede leer también | Disponible Red Hat Enterprise Linux 9.4. Novedades
Como alguien que ha cubierto el software de código abierto durante décadas y que ha experimentado con IA cuando Lisp era el estado del arte, creo que RHEL AI representa un cambio significativo en la forma en que las empresas abordan la IA. Al combinar el poder del código abierto con el soporte a nivel empresarial, Red Hat se posiciona a la vanguardia de la revolución de la IA.
La verdadera prueba, por supuesto, estará en la adopción y en las aplicaciones del mundo real. Sin embargo, si la trayectoria de Red Hat sirve de guía, RHEL AI podría ser la plataforma que lleve la IA desde los gigantes tecnológicos a las empresas de todos los tamaños.