TNG Technology Consulting ha presentado DeepSeek-TNG R1T2 Quimera, un modelo de Asamblea de Expertos (AoE) de vanguardia que combina velocidad e inteligencia mediante técnicas innovadoras de integración de modelos. Este nuevo lanzamiento incorpora elementos de tres modelos parentales eficientes: R1-0528, R1 y V3-0324, para mejorar el rendimiento de los modelos de lenguaje grande (LLM). DeepSeek R1T2 demuestra ser altamente eficiente, superando a sus predecesores con un aumento de velocidad del 200% en comparación con R1-0528 y un notable incremento del 20% en rendimiento en comparación con el original R1.
Los procesos tradicionales de LLM, conocidos por su alta demanda de recursos durante el entrenamiento y ajuste fino, han sido reimaginados por el enfoque AoE de TNG. Al fusionar tensores de peso en el nivel base de modelos grandes de Mixture-of-Experts (MoE), TNG ahorra recursos computacionales, creando modelos escalables y de alto rendimiento sin necesidad de reentrenamiento. La arquitectura de R1T2 destaca por una combinación estratégica de diferentes tensores de expertos, optimizando el rendimiento mientras se mantiene la calidad del razonamiento y una tokenización eficiente de salida, características críticas para las aplicaciones de IA modernas.
Las pruebas de referencia revelan que R1T2 no solo acelera el rendimiento, sino que también mantiene una alta calidad de razonamiento, aunque queda ligeramente rezagada en inteligencia bruta en comparación con R1-0528. Sin embargo, sobresale en pruebas detalladas como GPQA Diamond y AIME-2024/2025, superando en gran medida al R1. El diseño inteligente del modelo incluye consistencias de comportamiento cruciales para las aplicaciones que requieren secuencias de razonamiento metódico.
La disponibilidad pública de R1T2 bajo la Licencia MIT en Hugging Face lo posiciona como una herramienta accesible para los desarrolladores, apoyando los esfuerzos de ajuste fino y adaptación de toda la comunidad. Su impacto en el mundo real significa una eficiencia significativa en entornos que demandan una funcionalidad de IA rápida, y TNG ya informa estar procesando cerca de 5 mil millones de tokens diariamente a través de este modelo mediante su plataforma sin servidor Chutes.
De cara al futuro, el desarrollo de R1T2 allana el camino para futuros experimentos en interpolación de espacios de parámetros y construcción modular de LLM, transformando potencialmente la escalabilidad y adaptabilidad de los modelos de IA. Su lanzamiento bajo una licencia de código abierto asegura una adaptabilidad amplia, fomentando la innovación y el desarrollo continuo en tecnologías de IA. A medida que crece el interés por modelos de IA más eficientes, abiertos y personalizables, es probable que la arquitectura y el rendimiento de R1T2 inspiren mayores avances en el campo.