El 21 de mayo, el CEO de NVIDIA, Jensen Huang, dijo que el lanzamiento de código abierto de DeepSeek R1 ha impulsado la adopción generalizada de la tecnología de IA de inferencia y ha acelerado la necesidad de computación. Modelos como o3 de OpenAI, DeepSeek R1 y Grok 3 de xAI demuestran cómo la IA puede pasar de modelos perceptivos y generativos a modelos de inferencia de pensamiento a largo plazo que requieren una potencia de cálculo significativamente mejorada. Estos modelos pueden resolver problemas complejos, tomar decisiones estratégicas y aplicar el razonamiento lógico, pero cada tarea requiere 100 veces más computación que la IA tradicional basada en inferencias. "La escala de la personalización del modelo y posterior al entrenamiento es enorme, y el esfuerzo computacional puede ser órdenes de magnitud más alto que antes del entrenamiento", dijo Huang. Nuestras necesidades de inferencia se están acelerando, impulsadas por la ampliación de los tiempos de prueba y los nuevos modelos de inferencia".
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
CEO de Nvidia: DeepSeek ha impulsado un aumento explosivo en la demanda de computación AI
El 21 de mayo, el CEO de NVIDIA, Jensen Huang, dijo que el lanzamiento de código abierto de DeepSeek R1 ha impulsado la adopción generalizada de la tecnología de IA de inferencia y ha acelerado la necesidad de computación. Modelos como o3 de OpenAI, DeepSeek R1 y Grok 3 de xAI demuestran cómo la IA puede pasar de modelos perceptivos y generativos a modelos de inferencia de pensamiento a largo plazo que requieren una potencia de cálculo significativamente mejorada. Estos modelos pueden resolver problemas complejos, tomar decisiones estratégicas y aplicar el razonamiento lógico, pero cada tarea requiere 100 veces más computación que la IA tradicional basada en inferencias. "La escala de la personalización del modelo y posterior al entrenamiento es enorme, y el esfuerzo computacional puede ser órdenes de magnitud más alto que antes del entrenamiento", dijo Huang. Nuestras necesidades de inferencia se están acelerando, impulsadas por la ampliación de los tiempos de prueba y los nuevos modelos de inferencia".