A startup norte-americana Arcee AI desafia a liderança da China em IA de código aberto com novos modelos Trinity

25

Durante grande parte de 2025, a China dominou o desenvolvimento de modelos linguísticos abertos e de ponta. Laboratórios como Qwen, DeepSeek e Baidu da Alibaba desenvolveram rapidamente modelos de mistura de especialistas (MoE), muitas vezes com licenças permissivas e desempenho superior. Agora, uma empresa norte-americana, Arcee AI, está a lançar um desafio direto a esta tendência com a sua nova família “Trinity” de modelos de peso aberto.

A ascensão da IA aberta na China

Os laboratórios de pesquisa chineses assumiram a liderança no desenvolvimento de modelos MoE abertos e em grande escala devido ao seu licenciamento permissivo e desempenho de referência. A OpenAI lançou um LLM de código aberto, mas sua adoção tem sido lenta devido a alternativas de melhor desempenho. Esta tendência levanta questões sobre a capacidade dos EUA de competir em IA de código aberto e por que razão os avanços mais significativos estão a acontecer no estrangeiro.

Modelos Trinity da Arcee AI: uma alternativa construída nos EUA

Hoje, Arcee AI anunciou o lançamento do Trinity Mini e Trinity Nano Preview, os dois primeiros modelos de sua nova família “Trinity”. Esses modelos são totalmente treinados nos Estados Unidos sob uma licença Apache 2.0 empresarial. Os usuários podem testar o Mini em um chatbot em chat.arcee.ai e os desenvolvedores podem baixar o código do Hugging Face para modificação e ajuste fino.

Embora menores do que os modelos maiores, esses lançamentos representam a primeira tentativa dos EUA de construir modelos de peso aberto ponta a ponta em escala, treinados do zero na infraestrutura americana com um conjunto de dados com curadoria dos EUA. De acordo com Lucas Atkins, CTO da Arcee, “estou experimentando uma combinação de extremo orgulho em minha equipe e exaustão paralisante, então estou lutando para colocar em palavras o quão animado estou por ter esses modelos lançados”.

Um terceiro modelo, Trinity Large, já está em treinamento: um modelo de parâmetros de 420B com 13B de parâmetros ativos por token, com lançamento previsto para janeiro de 2026.

Vantagem Técnica do Trinity: Arquitetura AFMoE

Os modelos Trinity da Arcee utilizam uma nova arquitetura Attention-First Mixture-of-Experts (AFMoE). Este projeto combina dispersão global, atenção local/global e técnicas de atenção fechada para melhorar a estabilidade e a eficiência em escala.

AFMoE difere dos modelos MoE tradicionais por usar roteamento sigmóide mais suave em vez de classificações simples ao decidir qual “especialista” consultar, permitindo uma combinação mais elegante de múltiplas perspectivas. A abordagem “atenção em primeiro lugar” significa que o modelo se concentra fortemente em como presta atenção às diferentes partes da conversa, melhorando o raciocínio de longo contexto.

Trinity Mini é um modelo de parâmetros de 26B com 3B ativos por token, projetado para raciocínio de alto rendimento, chamada de função e uso de ferramentas. Trinity Nano Preview é um modelo de parâmetros de 6B com aproximadamente 800 milhões de parâmetros ativos não incorporados – um modelo mais experimental, focado em bate-papo, com uma personalidade mais forte, mas com menor robustez de raciocínio.

Desempenho e acesso

Trinity Mini tem desempenho competitivo com modelos maiores em tarefas de raciocínio, incluindo desempenho superior ao gpt-oss no benchmark SimpleQA, MMLU e BFCL V3:

  • MMLU (disparo zero): 84,95
  • Matemática-500: 92,10
  • GPQA-Diamante: 58,55
  • BFCL V3: 59,67

O modelo atinge mais de 200 tokens por segundo de rendimento com latência E2E inferior a três segundos, tornando-o viável para aplicativos interativos. Ambos os modelos são lançados sob a licença Apache 2.0 e estão disponíveis via Hugging Face, OpenRouter e site da Arcee. O preço da API para Trinity Mini via OpenRouter é de US$ 0,045 por milhão de tokens de entrada e US$ 0,15 por milhão de tokens de saída.

Parcerias para Dados e Infraestrutura

O sucesso da Arcee depende de parcerias estratégicas. DatologyAI, uma startup de curadoria de dados, garante dados de treinamento de alta qualidade, filtrando, desduplicando e aprimorando conjuntos de dados para evitar problemas legais e preconceitos. DatologyAI construiu um currículo de tokens de 10 trilhões para Trinity, incluindo dados gerais, texto de alta qualidade e material pesado em STEM.

Prime Intellect fornece a infraestrutura, com 512 GPUs H200 em um pipeline bf16 personalizado para treinar Trinity Mini e Nano. Eles também estão hospedando o cluster de GPU 2048 B300 para o próximo Trinity Large.

O futuro da IA dos EUA: modelo de soberania

O impulso da Arcee para o pré-treinamento completo reflete uma estratégia mais ampla: possuir todo o ciclo de treinamento para conformidade e controle, especialmente à medida que os sistemas de IA se tornam mais autônomos. A empresa argumenta que controlar os pesos e o pipeline de treinamento é crucial para a construção de produtos de IA confiáveis ​​e adaptáveis.

Trinity Large, um modelo MoE de parâmetro 420B, está programado para lançamento em janeiro de 2026. Se for bem-sucedido, seria um dos únicos modelos em escala de fronteira totalmente abertos e treinados nos EUA, posicionando Arcee como um ator-chave no ecossistema aberto.

O lançamento do Trinity da Arcee sinaliza um esforço renovado para recuperar terreno para o desenvolvimento de um modelo transparente e controlado pelos EUA, mostrando que as empresas menores ainda podem ultrapassar limites de forma aberta.

попередня статтяOs argumentos a favor do crescimento: por que a expansão económica é agora mais importante do que nunca
наступна статтяGoverno dos EUA assume participação na startup de chips xLight, sinalizando mudança no financiamento de tecnologia