La startup statunitense Arcee AI sfida la leadership cinese nell’intelligenza artificiale open source con i nuovi modelli Trinity

15
La startup statunitense Arcee AI sfida la leadership cinese nell’intelligenza artificiale open source con i nuovi modelli Trinity

Per gran parte del 2025, la Cina ha dominato lo sviluppo di modelli linguistici all’avanguardia e a peso aperto. Laboratori come Qwen, DeepSeek e Baidu di Alibaba hanno rapidamente avanzato modelli Mixture-of-Experts (MoE), spesso con licenze permissive e prestazioni superiori. Ora, una società statunitense, Arcee AI, sta lanciando una sfida diretta a questa tendenza con la sua nuova famiglia “Trinity” di modelli a peso aperto.

L’ascesa dell’IA aperta in Cina

I laboratori di ricerca cinesi hanno preso l’iniziativa nello sviluppo di modelli MoE aperti su larga scala grazie alle loro licenze permissive e alle prestazioni di riferimento. OpenAI ha rilasciato un LLM open source, ma la sua adozione è stata lenta a causa di alternative con prestazioni migliori. Questa tendenza solleva interrogativi sulla capacità degli Stati Uniti di competere nell’intelligenza artificiale open source e sul perché i progressi più significativi si stanno verificando all’estero.

Modelli Trinity di Arcee AI: un’alternativa costruita negli Stati Uniti

Oggi, Arcee AI ha annunciato il rilascio di Trinity Mini e Trinity Nano Preview, i primi due modelli della sua nuova famiglia “Trinity”. Questi modelli sono completamente addestrati negli Stati Uniti con una licenza Apache 2.0 di facile utilizzo. Gli utenti possono testare Mini in un chatbot su chat.arcee.ai e gli sviluppatori possono scaricare il codice da Hugging Face per modifiche e perfezionamenti.

Sebbene più piccoli dei modelli più grandi, questi rilasci rappresentano il primo tentativo degli Stati Uniti di costruire modelli open-weight end-to-end su larga scala, addestrati da zero sull’infrastruttura americana con un set di dati curato dagli Stati Uniti. Secondo il CTO di Arcee Lucas Atkins, “Sto sperimentando una combinazione di estremo orgoglio per la mia squadra e paralizzante stanchezza, quindi faccio fatica a esprimere a parole quanto sono entusiasta di far uscire questi modelli”.

Un terzo modello, Trinity Large, è già in fase di formazione: un modello di parametri da 420 miliardi con 13 miliardi di parametri attivi per token, il cui lancio è previsto per gennaio 2026.

Il vantaggio tecnico di Trinity: l’architettura AFMoE

I modelli Trinity di Arcee utilizzano una nuova architettura AFMoE (Attention-First Mixture-of-Experts). Questo progetto combina tecniche di scarsità globale, attenzione locale/globale e attenzione controllata per migliorare la stabilità e l’efficienza su larga scala.

AFMoE differisce dai tradizionali modelli MoE poiché utilizza un percorso sigmoideo più fluido anziché semplici classifiche quando si decide quale “esperto” consultare, consentendo una fusione più aggraziata di più prospettive. L’approccio “attenzione-prima” significa che il modello si concentra fortemente sul modo in cui presta attenzione alle diverse parti della conversazione, migliorando il ragionamento sul contesto lungo.

Trinity Mini è un modello di parametri da 26B con 3B attivi per token, progettato per ragionamento ad alto rendimento, chiamata di funzioni e utilizzo di strumenti. Trinity Nano Preview è un modello di parametri 6B con circa 800 milioni di parametri attivi non incorporati: un modello più sperimentale, incentrato sulla chat con una personalità più forte, ma una minore robustezza del ragionamento.

Prestazioni e accesso

Trinity Mini funziona in modo competitivo con modelli più grandi in attività di ragionamento, superando anche gpt-oss sul benchmark SimpleQA, MMLU e BFCL V3:

  • MMLU (colpo zero): 84,95
  • Matematica-500: 92.10
  • GPQA-Diamante: 58,55
  • BFCL V3: 59,67

Il modello raggiunge un throughput di oltre 200 token al secondo con una latenza E2E inferiore a tre secondi, rendendolo utilizzabile per applicazioni interattive. Entrambi i modelli sono rilasciati sotto la licenza Apache 2.0 e disponibili tramite Hugging Face, OpenRouter e il sito web di Arcee. Il prezzo API per Trinity Mini tramite OpenRouter è di 0,045 dollari per milione di token di input e 0,15 dollari per milione di token di output.

Partnership per dati e infrastrutture

Il successo di Arcee si basa su partnership strategiche. DatologyAI, una startup di data curation, garantisce dati di formazione di alta qualità filtrando, deduplicando e migliorando i set di dati per evitare problemi legali e pregiudizi. DatologyAI ha costruito un curriculum da 10 trilioni di token per Trinity, inclusi dati generali, testo di alta qualità e materiale ad alto contenuto STEM.

Prime Intellect fornisce l’infrastruttura, con 512 GPU H200 in una pipeline bf16 personalizzata per l’addestramento di Trinity Mini e Nano. Ospitano anche il cluster GPU 2048 B300 per il prossimo Trinity Large.

Il futuro dell’IA statunitense: modello di sovranità

La spinta di Arcee verso una pre-formazione completa riflette una strategia più ampia: possedere l’intero ciclo di formazione per la conformità e il controllo, soprattutto quando i sistemi di intelligenza artificiale diventano più autonomi. L’azienda sostiene che il controllo dei pesi e del processo di formazione è fondamentale per costruire prodotti di intelligenza artificiale affidabili e adattabili.

Il lancio di Trinity Large, un modello MoE con parametri 420B, è previsto per gennaio 2026. In caso di successo, sarebbe uno dei pochi modelli su scala di frontiera completamente a peso aperto, addestrati negli Stati Uniti, posizionando Arcee come attore chiave nell’ecosistema aperto.

Il lancio di Trinity di Arcee segnala un rinnovato sforzo per recuperare terreno per uno sviluppo di modelli trasparenti e controllati dagli Stati Uniti, dimostrando che le aziende più piccole possono ancora superare i confini in modo aperto.