La startup estadounidense Arcee AI desafía el liderazgo de China en IA de código abierto con nuevos modelos Trinity

10
La startup estadounidense Arcee AI desafía el liderazgo de China en IA de código abierto con nuevos modelos Trinity

Durante gran parte de 2025, China ha dominado el desarrollo de modelos lingüísticos abiertos y de vanguardia. Laboratorios como Qwen, DeepSeek y Baidu de Alibaba han avanzado rápidamente en modelos de Mezcla de Expertos (MoE), a menudo con licencias permisivas y un rendimiento superior. Ahora, una empresa estadounidense, Arcee AI, está lanzando un desafío directo a esta tendencia con su nueva familia “Trinity” de modelos de peso abierto.

El auge de la IA abierta en China

Los laboratorios de investigación chinos han tomado la iniciativa en el desarrollo de modelos MoE abiertos a gran escala debido a sus licencias permisivas y su rendimiento de referencia. OpenAI lanzó un LLM de código abierto, pero su adopción ha sido lenta debido a alternativas de mejor rendimiento. Esta tendencia plantea interrogantes sobre la capacidad de Estados Unidos para competir en IA de código abierto y por qué los avances más significativos se están produciendo en el extranjero.

Modelos Trinity de Arcee AI: una alternativa construida en EE. UU.

Hoy, Arcee AI anunció el lanzamiento de Trinity Mini y Trinity Nano Preview, los dos primeros modelos de su nueva familia “Trinity”. Estos modelos están completamente entrenados en los Estados Unidos bajo una licencia Apache 2.0 empresarial. Los usuarios pueden probar Mini en un chatbot en chat.arcee.ai y los desarrolladores pueden descargar el código de Hugging Face para modificarlo y ajustarlo.

Si bien son más pequeños que los modelos más grandes, estos lanzamientos representan el primer intento de los EE. UU. de construir modelos abiertos de extremo a extremo a escala, entrenados desde cero en la infraestructura estadounidense con un conjunto de datos seleccionados en los EE. UU. Según Lucas Atkins, CTO de Arcee, “Estoy experimentando una combinación de orgullo extremo por mi equipo y agotamiento paralizante, por lo que me cuesta expresar con palabras lo emocionado que estoy de tener estos modelos”.

Un tercer modelo, Trinity Large, ya está en entrenamiento: un modelo de 420 mil millones de parámetros con 13 mil millones de parámetros activos por token, cuyo lanzamiento está previsto para enero de 2026.

La ventaja técnica de Trinity: arquitectura AFMoE

Los modelos Trinity de Arcee utilizan una nueva arquitectura de Mezcla de Expertos de Atención Primero (AFMoE). Este diseño combina escasez global, atención local/global y técnicas de atención cerrada para mejorar la estabilidad y la eficiencia a escala.

AFMoE se diferencia de los modelos tradicionales de MoE al utilizar un enrutamiento sigmoideo más fluido en lugar de clasificaciones simples al decidir a qué “experto” consultar, lo que permite una combinación más elegante de múltiples perspectivas. El enfoque de “atención primero” significa que el modelo se centra en gran medida en cómo presta atención a las diferentes partes de la conversación, lo que mejora el razonamiento de contexto prolongado.

Trinity Mini es un modelo de parámetros de 26B con 3B activos por token, diseñado para razonamiento, llamada de funciones y uso de herramientas de alto rendimiento. Trinity Nano Preview es un modelo de parámetros de 6B con aproximadamente 800M de parámetros activos no integrados: un modelo más experimental, centrado en el chat, con una personalidad más fuerte, pero menor solidez de razonamiento.

Rendimiento y acceso

Trinity Mini se desempeña de manera competitiva con modelos más grandes en tareas de razonamiento, incluido el rendimiento superior de gpt-oss en el punto de referencia SimpleQA, MMLU y BFCL V3:

  • MMLU (tiro cero): 84,95
  • Matemáticas-500: 92,10
  • GPQA-Diamante: 58,55
  • BFCL V3: 59,67

El modelo logra un rendimiento de más de 200 tokens por segundo con una latencia E2E inferior a tres segundos, lo que lo hace viable para aplicaciones interactivas. Ambos modelos se lanzan bajo la licencia Apache 2.0 y están disponibles a través de Hugging Face, OpenRouter y el sitio web de Arcee. El precio de API para Trinity Mini a través de OpenRouter es de $0,045 por millón de tokens de entrada y $0,15 por millón de tokens de salida.

Asociaciones para datos e infraestructura

El éxito de Arcee depende de asociaciones estratégicas. DatologyAI, una startup de curación de datos, garantiza datos de capacitación de alta calidad al filtrar, deduplicar y mejorar conjuntos de datos para evitar problemas legales y sesgos. DatologyAI ha creado un plan de estudios de 10 billones de tokens para Trinity, que incluye datos generales, texto de alta calidad y material con mucho contenido STEM.

Prime Intellect proporciona la infraestructura, con 512 GPU H200 en un canal bf16 personalizado para entrenar Trinity Mini y Nano. También albergan el clúster de GPU 2048 B300 para el próximo Trinity Large.

El futuro de la IA de EE. UU.: modelo de soberanía

El impulso de Arcee hacia una capacitación previa completa refleja una estrategia más amplia: poseer todo el ciclo de capacitación para el cumplimiento y el control, especialmente a medida que los sistemas de inteligencia artificial se vuelven más autónomos. La compañía sostiene que controlar los pesos y el proceso de entrenamiento es crucial para crear productos de IA confiables y adaptables.

Trinity Large, un modelo MoE con parámetros de 420B, está programado para su lanzamiento en enero de 2026. Si tiene éxito, sería uno de los únicos modelos a escala fronteriza totalmente abiertos y entrenados en los EE. UU., lo que posicionaría a Arcee como un actor clave en el ecosistema abierto.

El lanzamiento de Trinity de Arcee señala un esfuerzo renovado para recuperar terreno para el desarrollo de modelos transparentes y controlados por Estados Unidos, lo que demuestra que las empresas más pequeñas aún pueden traspasar los límites de manera abierta.