Home Tecnología NVIDIA emite modelos de razonamiento de Llama Nemotron AI para flujos de...

NVIDIA emite modelos de razonamiento de Llama Nemotron AI para flujos de trabajo de agente

9
0

NVIDIA lanzó una nueva familia de modelos de inteligencia synthetic (IA) el martes en su GPU Know-how Convention (GTC) 2025. Doblada Llama Nemotron, estos son los últimos modelos de idiomas (LLM) centrados en el razonamiento de la compañía que están diseñados para ofrecer una base para flujos de trabajo de AI de AIG. El gigante tecnológico con sede en Santa Clara dijo que estos modelos estaban dirigidos a desarrolladores y empresas para permitirles hacer agentes de IA avanzados que puedan trabajar de forma independiente o como equipos conectados para realizar tareas complejas. Los modelos Nemotron Llama están actualmente disponibles a través de la plataforma de Nvidia y la cara de abrazos.

Nvidia presenta nuevos modelos de IA centrados en el razonamiento

En una sala de redacción correoel gigante tecnológico detalló los nuevos modelos AI. Los modelos de razonamiento Nemotron de Llama se basan en los modelos de la serie Llama 3 de Meta, con mejoras posteriores al entrenamiento agregadas por NVIDIA. La compañía destacó que la familia de modelos de IA muestra capacidades mejoradas en matemáticas de varios pasos, codificación, razonamiento y toma de decisiones complejas.

La compañía destacó que el proceso mejoró la precisión de los modelos hasta en un 20 por ciento en comparación con los modelos basados. También se cube que la velocidad de inferencia ha mejorado cinco veces en comparación con los modelos de razonamiento de código abierto de tamaño related. Nvidia afirmó que “los modelos pueden manejar tareas de razonamiento más complejas, mejorar las capacidades de toma de decisiones y reducir los costos operativos para las empresas”. Con estos avances, el LLM se puede usar para construir y alimentar agentes de IA.

Los modelos de razonamiento de Llama Nemotron están disponibles en tres tamaños de parámetros: Nano, Tremendous y Extremely. El modelo NANO es el más adecuado para tareas basadas en el dispositivo y los bordes que requieren alta precisión. La súper variante se coloca en el medio para ofrecer alta precisión y rendimiento en una sola GPU. Finalmente, el modelo Extremely está destinado a ejecutarse en servidores multi-GPU y ofrece precisión de agente.

El post-entrenamiento de los modelos de razonamiento se realizó en la nube NVIDIA DGX utilizando datos sintéticos curados generados utilizando la plataforma Nemotron, así como otros modelos abiertos. El gigante tecnológico también está haciendo que las herramientas, los conjuntos de datos y las técnicas de optimización posterior al entrenamiento se utilicen para desarrollar los modelos Nemotron Llama disponibles para la comunidad de código abierto.

Nvidia también está trabajando con socios empresariales para llevar los modelos a desarrolladores y empresas. Se puede acceder a estos modelos de razonamiento y los microservicios NIM a través de la fundición Ai Ai de Microsoft, así como una opción a través de los servicios de agente Azure AI. SAP también está utilizando los modelos para sus soluciones de IA Enterprise y el copilot de IA denominado Joule, dijo la compañía. Otras empresas que utilizan modelos de nemotron de Llama incluyen ServiceNow, Accenture y Deloitte.

El Llama Nemotron Nano y Tremendous Fashions y los microservicios NIM están disponibles para empresas y desarrolladores como interfaz de programación de aplicaciones (API) a través de NVIDIA’s plataforma así como su cara abrazada listado. Está disponible con el Acuerdo de Licencia Modelo Open Nvidia Permissive que permite la investigación y el uso comercial.

fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here