IBM presenta el próximo capítulo de watsonx con innovaciones de código abierto, producto y ecosistema para impulsar la IA empresarial a escala

IBM anuncia en su conferencia THINK 2024 nuevas actualizaciones de watsonx y modelos de IA abiertos para empresas.

Inteligencia Artificial | 05 de junio de 2024

Mayo 21, 2024 – En su conferencia anual THINK, IBM anunció varias de las nuevas actualizaciones en su plataforma watsonx un año después de su introducción, así como las próximas capacidades de automatización y datos diseñadas para hacer que la inteligencia artificial (IA) sea más abierta, rentable y flexible para las empresas. Durante su conferencia inaugural, el CEO Arvind Krishna compartió los planes de la compañía para invertir, construir y contribuir a la comunidad de IA de código abierto como parte central de la estrategia de IBM.

"Creemos firmemente en llevar innovación abierta a la IA. Queremos usar el poder del código abierto para hacer con IA lo que se hizo exitosamente con Linux y OpenShift", dijo Krishna. "Abrir significa elección. Abrir significa más ojos en el código, más mentes en los problemas, y más manos en las soluciones. Para que cualquier tecnología gane velocidad y se vuelve omnipresente, tienes que equilibrar tres cosas: competencia, innovación y seguridad. El código abierto es una gran manera de lograr los tres".

 

IBM abre la familia de modelos IBM Granite en código abierto y lanza InstructLab, una capacidad única en su tipo, en colaboración con Red Hat

Para ampliar su compromiso con el ecosistema de IA de código abierto, IBM abrió en código abierto una de las familias de sus modelos de lenguaje y código de Granite más avanzadas y de mayor desempeño. Al abrir estos modelos, IBM está invitando a clientes, desarrolladores y expertos globales a aprovechar estas fortalezas y ampliar los límites de lo que la IA puede lograr en entornos empresariales.

Disponibles hoy bajo licencias Apache 2.0 en Hugging Face y GitHub, los modelos Granite de código abierto se destacan por su proceso de desarrollo, calidad, transparencia y eficiencia. Los modelos de código Granite van de 3B a 34B de parámetros y vienen en variantes de modelos fundacionales y de seguimiento de instrucciones, que son adecuados para tareas como la modernización de aplicaciones complejas, la generación de código, la corrección de errores, la explicación y documentación de código, el mantenimiento de repositorios y mucho más. Los modelos de código, entrenados en 116 lenguajes de programación, alcanzan consistentemente un desempeño destacado entre los LLMs de código abierto en diversas tareas relacionadas con el código:

  • Las pruebas realizadas por IBM revelaron que, entre los modelos de código abierto, los modelos de código Granite muestran en general un rendimiento muy bueno en todos los tamaños de modelo y pruebas comparativas, superando a menudo a otros modelos de código abierto que son el doble de grandes que Granite.
  • Las pruebas realizadas por IBM en benchmarks incluidos HumanEvalPack, HumanEvalPlus y la prueba comparativa de razonamiento GSM8K demostraron que los modelos de código de Granite ofrecen un gran rendimiento en la síntesis, corrección, explicación, edición y traducción de código en la mayoría de los principales lenguajes de programación, como Python, JavaScript, Java, Go, C++ y Rust.
  • El modelo de código base Granite de 20B de parámetros se utilizó para entrenar IBM watsonx Code Assistant (WCA) para dominios especializados disponibles en la actualidad. También potencia watsonx Code Assistant for Z, un producto diseñado para ayudar a las empresas a transformar aplicaciones COBOL monolíticas en servicios optimizados para IBM Z. 
  • El modelo de código base Granite de 20B de parámetros se ajustó para generar SQL a partir de preguntas en lenguaje natural con el fin de transformar datos estructurados y extraer información de dichos datos. IBM ha demostrado su liderazgo en la conversión de lenguaje natural a SQL, un importante caso de uso en el sector, según la clasificación independiente de BIRD, que clasifica los modelos en función de la Precisión de Ejecución (Execution Accuracy - EX) y la puntuación de eficiencia válida (Valid Efficiency Score - VES).

IBM y Red Hat también lanzaron recientemente InstructLab, un enfoque revolucionario para promover una verdadera innovación de código abierto en torno a los LLMs.

La metodología de InstructLab permite el desarrollo continuo de modelos base a través de contribuciones incrementales constantes, de manera muy similar a como el desarrollo de software ha funcionado en código abierto durante décadas. Con InstructLab, los desarrolladores pueden crear modelos específicos para usos comerciales o de industria con sus propios datos, de modo que puedan ver el valor directo de la IA en lugar de que solo los proveedores de modelos vean el valor. IBM planea aprovechar estas contribuciones de código abierto para aportar valor adicional a sus clientes a través de integraciones con watsonx.ai y la nueva solución Red Hat Enterprise Linux AI (RHEL AI).

RHEL AI incluye una versión de InstructLab preparada para la empresa, los modelos Granite de código abierto de IBM, y la plataforma Linux líder en el mundo empresarial para simplificar el despliegue de IA en entornos de infraestructura híbrida.

 

IBM presenta una nueva clase de asistentes de watsonx

Esta nueva ola de innovación en IA tiene el potencial de desbloquear unos beneficios económicos anuales estimados en 4 billones de dólares en todos los sectores. Sin embargo, el Global AI Adoption Index, informe que elabora anualmente IBM, ha revelado recientemente que, si bien el 42% de las empresas (> 1.000 empleados) encuestadas han implementado la IA en sus negocios, otro 40% de las empresas que están explorando o experimentando con la IA aún no ha desplegado sus modelos. Para las empresas atrapadas en el sandbox de IA, 2024 es el año en el que superarán las barreras de entrada a la IA, como la brecha de habilidades, la complejidad de los datos y, quizás lo más importante, la confianza.

Para abordar estos desafíos, IBM está anunciando varias actualizaciones y próximas mejoras a su familia de asistentes de watsonx, y una nueva funcionalidad en watsonx Orchestrate para ayudar a los clientes a construir sus propios asistentes de IA en diferentes campos.

Los nuevos asistentes de IA incluyen a watsonx Code Assistant para aplicaciones empresariales de Java (disponibilidad planeada para octubre de 2024), watsonx Assistant para Z para transformar cómo interactúan los usuarios con los sistemas para transferir rápidamente conocimientos y experiencia (disponibilidad planeada para junio de 2024), y la expansión de watsonx Code Assistant para servicios de Z, con explicación de código para ayudar a los clientes a comprender y documentar las aplicaciones a través del lenguaje natural (disponibilidad planeada para junio de 2024). 

IBM está ampliando su oferta de GPU NVIDIA para ofrecer ahora modelos de GPU NVIDIA L40S y NVIDIA L4 Tensor Core, así como soporte para Red Hat Enterprise Linux AI (RHEL AI) y OpenShift AI para ayudar a las empresas y desarrolladores a abordar las necesidades de la IA y otras cargas de trabajo de misión crítica. Además, para ayudar a los clientes a acelerar el tiempo de creación de valor para la IA, IBM está utilizando arquitecturas desplegables para watsonx para permitir un rápido despliegue de la IA, al tiempo que empodera a las empresas con capacidades de seguridad y cumplimiento para ayudarles a proteger sus datos y gestionar los requisitos de cumplimiento.

Adicionalmente, IBM anunció su nueva visión y momentum para las nuevas capacidades de datos y automatización; acelerando la infusión de IA generativa en los asistentes, automatización, infraestructura, productos de gestión de recursos y servicios de consultoría de IBM y fortalecimiento sus colaboraciones con AWS, Adobe, Meta, Microsoft, Mistral, Palo Alto Networks, SAP, Salesforce y SDAIA para ampliar las capacidades, oferta, flexibilidad y gobernanza de los modelos a través de watsonx.

Fuente: IBM (Mayo, 2024)