Pendant une grande partie de 2025, la Chine a dominé le développement de modèles linguistiques de pointe à poids ouvert. Des laboratoires comme Qwen, DeepSeek et Baidu d’Alibaba ont rapidement fait progresser les modèles de mélange d’experts (MoE), souvent avec des licences permissives et des performances supérieures. Aujourd’hui, une société américaine, Arcee AI, lance un défi direct à cette tendance avec sa nouvelle famille de modèles à poids ouvert « Trinity ».
L’essor de l’IA ouverte en Chine
Les laboratoires de recherche chinois ont pris les devants dans le développement de modèles MoE ouverts à grande échelle en raison de leurs licences permissives et de leurs performances de référence. OpenAI a publié un LLM open source, mais son adoption a été lente en raison d’alternatives plus performantes. Cette tendance soulève des questions sur la capacité des États-Unis à être compétitifs dans le domaine de l’IA open source et sur la raison pour laquelle les avancées les plus significatives se produisent à l’étranger.
Modèles Trinity d’Arcee AI : une alternative construite aux États-Unis
Aujourd’hui, Arcee AI a annoncé la sortie de Trinity Mini et Trinity Nano Preview, les deux premiers modèles de sa nouvelle famille « Trinity ». Ces modèles sont entièrement formés aux États-Unis sous une licence Apache 2.0 adaptée aux entreprises. Les utilisateurs peuvent tester Mini dans un chatbot sur chat.arcee.ai et les développeurs peuvent télécharger le code depuis Hugging Face pour le modifier et l’affiner.
Bien que plus petites que les plus grands modèles, ces versions représentent la première tentative américaine de créer des modèles ouverts de bout en bout à grande échelle, formés à partir de zéro sur une infrastructure américaine avec un ensemble de données organisé aux États-Unis. Selon Lucas Atkins, CTO d’Arcee, “je ressens une combinaison d’une extrême fierté envers mon équipe et d’un épuisement paralysant, j’ai donc du mal à exprimer à quel point je suis excité de voir ces modèles sortir.”
Un troisième modèle, Trinity Large, est déjà en formation : un modèle à 420 milliards de paramètres avec 13 milliards de paramètres actifs par jeton, dont le lancement est prévu en janvier 2026.
L’avantage technique de Trinity : l’architecture AFMoE
Les modèles Trinity d’Arcee utilisent une nouvelle architecture Attention-First Mixture-of-Experts (AFMoE). Cette conception combine des techniques de parcimonie globale, d’attention locale/mondiale et d’attention contrôlée pour améliorer la stabilité et l’efficacité à grande échelle.
L’AFMoE diffère des modèles MoE traditionnels en utilisant un routage sigmoïde plus fluide plutôt que de simples classements pour décider quel « expert » consulter, permettant un mélange plus gracieux de plusieurs perspectives. L’approche « attention d’abord » signifie que le modèle se concentre fortement sur la manière dont il prête attention aux différentes parties de la conversation, améliorant ainsi le raisonnement en contexte long.
Trinity Mini est un modèle de paramètres 26B avec 3B actifs par jeton, conçu pour le raisonnement à haut débit, l’appel de fonctions et l’utilisation d’outils. Trinity Nano Preview est un modèle de paramètres 6B avec environ 800 millions de paramètres actifs non intégrés : un modèle plus expérimental, axé sur le chat, avec une personnalité plus forte, mais une robustesse de raisonnement inférieure.
Performances et accès
Trinity Mini est compétitif avec des modèles plus grands dans les tâches de raisonnement, notamment en surpassant gpt-oss sur le benchmark SimpleQA, MMLU et BFCL V3 :
- MMLU (zéro-shot) : 84,95
- Math-500 : 92,10
- GPQA-Diamant : 58,55
-BFCL V3 : 59,67
Le modèle atteint un débit de plus de 200 jetons par seconde avec une latence E2E inférieure à trois secondes, ce qui le rend viable pour les applications interactives. Les deux modèles sont publiés sous la licence Apache 2.0 et disponibles via Hugging Face, OpenRouter et le site Web d’Arcee. Le prix de l’API pour Trinity Mini via OpenRouter est de 0,045 $ par million de jetons d’entrée et de 0,15 $ par million de jetons de sortie.
Partenariats pour les données et les infrastructures
Le succès d’Arcee repose sur des partenariats stratégiques. DatologyAI, une startup de curation de données, garantit des données de formation de haute qualité en filtrant, dédupliquant et améliorant les ensembles de données pour éviter les problèmes juridiques et les préjugés. DatologyAI a construit un programme de 10 000 milliards de jetons pour Trinity, comprenant des données générales, des textes de haute qualité et du matériel à forte teneur en STEM.
Prime Intellect fournit l’infrastructure, avec 512 GPU H200 dans un pipeline bf16 personnalisé pour la formation des Trinity Mini et Nano. Ils hébergent également le cluster GPU 2048 B300 pour le prochain Trinity Large.
L’avenir de l’IA américaine : modèle de souveraineté
La volonté d’Arcee de se lancer dans la préformation complète reflète une stratégie plus large : s’approprier l’intégralité de la boucle de formation pour la conformité et le contrôle, d’autant plus que les systèmes d’IA deviennent plus autonomes. La société affirme que le contrôle des poids et du pipeline d’entraînement est crucial pour créer des produits d’IA fiables et adaptables.
Trinity Large, un modèle MoE à paramètre 420B, devrait être lancé en janvier 2026. En cas de succès, il serait l’un des seuls modèles à l’échelle frontière entièrement ouverts et formés aux États-Unis, positionnant Arcee comme un acteur clé de l’écosystème ouvert.
Le lancement de Trinity par Arcee marque un effort renouvelé pour regagner du terrain pour un développement de modèles transparent et contrôlé par les États-Unis, montrant que les petites entreprises peuvent encore repousser les limites de manière ouverte.

































