Resultados de la búsqueda para "QWEN"
23:03

Modelo de nivel superior de Código abierto de Hugging Face

Jin10 datos 9 de julio: en la madrugada de hoy, la famosa plataforma de modelos abiertos Hugging Face ha lanzado el modelo de pequeña escala SmolLM3. SmolLM3 tiene solo 3 mil millones de parámetros, pero su rendimiento supera en gran medida a los modelos de código abierto similares como Llama-3.2-3B y Qwen2.5-3B. Posee una ventana de contexto de 128k y soporta 6 idiomas, incluyendo inglés, francés, español y alemán. Soporta modos de razonamiento doble de pensamiento profundo y no pensamiento, permitiendo a los usuarios cambiar flexiblemente.
Más
B3.26%
10:01

Ali Baba preguntó a Thousand, ¿qué hay de nuevo

QwQ-Max está a punto de lanzar su versión oficial, bajo la licencia Apache 2.0, el Código abiertoQwQ-Max y Qwen2.5-Max, y proporcionará versiones más pequeñas como QwQ-32B, que se pueden implementar en dispositivos locales. Al mismo tiempo que se lanza oficialmente QwQ-Max, también se lanzarán las aplicaciones para Android e iOS.
Más
APP0.41%
09:02

龙芯中科: El procesador Longxin se ejecuta con éxito en el modelo DeepSeek de gran escala

Loongson Technology successfully launched the DeepSeek R1 7B model equipped with Loongson 3 CPU, achieving local deployment, outstanding performance, excellent cost, and providing users with a faster, stronger, and more cost-effective training and inference experience. Loongson is collaborating with partners such as TaiChu YuanQi, Cambricon, TensorTech, Algorithmic&AI, and openEuler to build a multi-modal inference platform for the DeepSeek series models.
Más
DEEPSEEK-1.84%
  • 1
13:10

Jingwei Hengrun: La compañía ha implementado DeepSeek y Qwen

Jingwei Hengrun utiliza grandes modelos como DeepSeek y Qwen para desarrollar aplicaciones profesionales de IA, que abarcan múltiples campos como la asistencia inteligente, el diseño, las pruebas, la optimización de productos y la inteligencia de procesos empresariales. Estas aplicaciones mejoran la eficiencia y la calidad del trabajo y reducen los costos.
Más
DEEPSEEK-1.84%
  • 3
  • 1
04:19
Golden Ten Data informó el 29 de abril que Tongyi K Man lanzó el modelo de parámetros de kning Qwen1.5-110B por primera vez, mostrando un excelente rendimiento en evaluaciones de referencia más largas como MMLU, TheoremQA y GPQA. En la actualidad, la serie Qwen 1.5 ha acumulado 10 modelos grandes de código abierto, y el número de descargas de modelos de código abierto Tongyi K ha superado los 7 millones.
23:02
Golden Finance reported that the Alibaba Qwen team officially released their latest research results - the QwQ-32B large language model, QwQ-32B, which achieves a performance leap through reinforcement learning with only about 1/21 of the parameter amount of DeepSeek-R1.
DEEPSEEK-1.84%
  • 1
  • 1
12:16

Fourth Paradigm launches large model inference edge solution ModelHub AIoT

Según los datos de Jinshi del 26 de febrero, se entiende que la cuarta forma ha lanzado la solución de extremo del modelo de inferencia de gran modelo ModelHub AIoT, que permite a los usuarios implementar fácilmente modelos de destilación de pequeño tamaño, incluidos DeepSeek R1, Qwen 2.5, Llama 2/3, etc., en el extremo y realizar la ejecución sin conexión. Los usuarios pueden cambiar fácilmente entre varios modelos, lo que equilibra la compresión del modelo y el rendimiento de inferencia, y resuelve la complejidad de la implementación y la optimización. La empresa afirma que esta solución no solo puede satisfacer la demanda de los usuarios de privacidad y tiempo real, sino que también reduce significativamente el costo de inferencia de gran modelo de IA.
Más
DEEPSEEK-1.84%
09:58

Cuarta paradigma lanza la solución integrada de modelo grande de inferencia SageOne IA

El paradigma cuarto lanza SageOneIA, una estación integrada de inferencia de modelos grandes, que reduce el costo de inferencia de modelos grandes. La tecnología de potencia computacional inteligente se integra en la solución de la estación, que admite varios modelos grandes líderes. Las empresas pueden alternar entre la versión completa y los modelos destilados, lo que aumenta la utilización de la GPU en más del 30% y mejora el rendimiento de la inferencia de 5 a 10 veces.
Más
11:29

AliExpress International integrates DeepSeek's large model

Los datos de Jinshi del 12 de febrero informan que la estación internacional de Ali ha incorporado modelos grandes como DeepSeek, que se aplicarán de manera integral en varios aspectos clave del negocio de comercio exterior. Después de la incorporación, cuando la IA atienda automáticamente a los clientes en el extranjero, podrá considerar de manera más integral la intención de las preguntas de los compradores, y luego combinará la profundidad de las observaciones de mercado en la estación internacional de Ali, la experiencia en comercio exterior y la situación de los productos de los comerciantes. Además, se informa que la estación internacional de Ali también está probando la pregunta de equivalencia Qwen.
Más
DEEPSEEK-1.84%
23:46

Marco de innovación de Microsoft: puede convertir DeepSeek en un agente de IA

Microsoft ha lanzado la última versión V2.0 de OmniParser, mejorando la eficiencia y precisión del Agente de IA en el uso de computadoras, especialmente en la detección de elementos de UI pequeños y la mejora de la velocidad de razonamiento. Esta versión también ha mejorado significativamente el rendimiento en la prueba de Agente de Indicador de referencia de alta resolución, alcanzando una sorprendente precisión del 39.6%. Además, Microsoft también ha abierto el código de la herramienta clave omnitool para convertir grandes modelos en Agent.
Más
DEEPSEEK-1.84%
AGENT2.34%
GPT-12.64%
  • 2
  • 4

Temas de actualidad

Más

Calendario cripto

Más
Próximas actividades
El GOAT Network Global Tour se llevará a cabo el 31 de julio a las 14:00 en Chengdu con el tema "Buscando un camino sostenible para los ingresos nativos de BTC" en un evento presencial.
2025-07-31
Actualizaciones de gobernanza para la Temporada 8
Optimism ha revelado los próximos cambios de gobernanza para la Temporada 8, que entrarán en vigencia el 1 de agosto. Los ajustes se basan en principios de la ciencia política y la gobernanza corporativa, perfeccionados a través de tres años de experimentación en el ecosistema. El objetivo es construir una Supercadena más resistente e inclusiva. Los componentes clave incluyen la Token House, la Citizens' House, los mecanismos de Aprobación Optimista y la introducción de un proceso de Veto Dinámico.
2025-07-31
Wafebox Detiene el Servicio
"La plataforma multisig Wafebox en ETHW se cerrará oficialmente... a las 12PM PDT."
2025-07-31
Campaña GameJam
Phantasma ha anunciado el inicio de su próximo GameJam, programado para comenzar el 1 de agosto. El evento está abierto tanto a desarrolladores solitarios como a gremios, fomentando la innovación en los juegos de blockchain. El premio supera los 100,000 SOUL; se revelarán más detalles pronto.
2025-07-31
Fecha límite para la migración de OMI a Base a través de StackR
ECOMI ha anunciado que los holders de OMI deben migrar sus tokens de las billeteras VeVe en IMX a las billeteras StackR en Base antes del 1 de agosto. Después de la fecha límite, los tokens no migrados ya no serán elegibles para recompensas diarias y estacionales. Los usuarios migrados se beneficiarán de la custodia total, recompensas automáticas, patrocinio de tarifas de gas por parte de StackR y la posibilidad de comprar coleccionables de VeVe en el mercado de StackR.
2025-07-31
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)