Американский Стартап Arcee AI Бросает Вызов Доминированию Китая в Open-Source AI с Новыми Моделями Trinity

4

На протяжении большей части 2025 года Китай удерживал лидерство в разработке передовых языковых моделей с открытыми весами. Лаборатории, такие как Qwen от Alibaba, DeepSeek и Baidu, стремительно продвигали модели Mixture-of-Experts (MoE) с разрешительными лицензиями и превосходной производительностью. Теперь американская компания Arcee AI бросает прямой вызов этой тенденции, представляя свое новое семейство открытых моделей «Trinity».

Подъем Open AI в Китае

Китайские исследовательские лаборатории лидируют в разработке крупных, открытых MoE-моделей благодаря их разрешительным лицензиям и эталонной производительности. OpenAI выпустила модель LLM с открытым исходным кодом, но ее внедрение было медленным из-за наличия более эффективных альтернатив. Эта тенденция ставит под вопрос способность США конкурировать в open-source AI и объясняет, почему наиболее значимые достижения происходят за рубежом.

Trinity от Arcee AI: Альтернатива, Созданная в США

Сегодня Arcee AI объявила о выпуске Trinity Mini и Trinity Nano Preview, первых двух моделей из нового семейства «Trinity». Эти модели полностью обучены в США под лицензией Apache 2.0, дружественной к предприятиям. Пользователи могут протестировать Mini в чат-боте на chat.arcee.ai, а разработчики могут загрузить код с Hugging Face для модификации и дообучения.

Несмотря на меньший размер по сравнению с крупнейшими моделями, эти релизы представляют собой первую попытку США создать сквозные открытые модели с весами, обученные с нуля на американской инфраструктуре с использованием американского набора данных. По словам технического директора Arcee Lucas Atkins, «Я испытываю одновременно огромное чувство гордости за свою команду и изнуряющую усталость, поэтому мне сложно выразить словами, насколько я рад, что эти модели выпущены».

Третья модель, Trinity Large, уже находится в стадии обучения: 420B-параметровая модель с 13B активными параметрами на токен, запланированная к запуску в январе 2026 года.

Техническое Преимущество Trinity: Архитектура AFMoE

Модели Trinity от Arcee используют новую архитектуру Attention-First Mixture-of-Experts (AFMoE). Этот дизайн сочетает глобальную разреженность, локальное/глобальное внимание и методы gated attention для повышения стабильности и эффективности в масштабе.

AFMoE отличается от традиционных MoE-моделей более плавным сигмоидным маршрутизатором вместо простых рейтингов при выборе, к какому «эксперту» обратиться, что позволяет более органично объединять различные точки зрения. «Attention-first» подход означает, что модель уделяет повышенное внимание тому, как она фокусируется на разных частях разговора, улучшая долгосрочное рассуждение.

Trinity Mini — это 26B-параметровая модель с 3B активными параметрами на токен, предназначенная для высокопроизводительного рассуждения, вызова функций и использования инструментов. Trinity Nano Preview — это 6B-параметровая модель с примерно 800M активными параметрами, не относящимися к встраиваниям — более экспериментальная, ориентированная на чат-модель с более выраженной личностью, но меньшей надежностью рассуждений.

Производительность и Доступ

Trinity Mini демонстрирует конкурентоспособные результаты по сравнению с более крупными моделями в задачах рассуждения, включая превосходство над gpt-oss в бенчмарке SimpleQA, MMLU и BFCL V3:

  • MMLU (zero-shot): 84,95
  • Math-500: 92,10
  • GPQA-Diamond: 58,55
  • BFCL V3: 59,67

Модель обеспечивает пропускную способность более 200 токенов в секунду с задержкой E2E менее трех секунд, что делает ее пригодной для интерактивных приложений. Обе модели выпущены под лицензией Apache 2.0 и доступны через Hugging Face, OpenRouter и веб-сайт Arcee. Цены API для Trinity Mini через OpenRouter составляют 0,045 доллара за миллион входных токенов и 0,15 доллара за миллион выходных токенов.

Партнерства для Данных и Инфраструктуры

Успех Arcee зависит от стратегических партнерств. DatologyAI, стартап по курации данных, обеспечивает высококачественные обучающие данные путем фильтрации, дедупликации и улучшения наборов данных, чтобы избежать юридических проблем и предвзятости. DatologyAI разработала учебную программу на 10 триллионов токенов для Trinity, включающую общие данные, высококачественный текст и материалы STEM.

Prime Intellect предоставляет инфраструктуру с 512 графическими процессорами H200 в пользовательском конвейере bf16 для обучения Trinity Mini и Nano. Они также размещают кластер из 2048 графических процессоров B300 для предстоящей Trinity Large.

Будущее AI в США: Суверенитет Моделей

Стремление Arcee к полному предварительному обучению отражает более широкую стратегию: владение всем циклом обучения для соответствия требованиям и контроля, особенно по мере того, как AI-системы становятся более автономными. Компания утверждает, что контроль над весами и конвейером обучения имеет решающее значение для создания надежных и адаптируемых AI-продуктов.

Trinity Large, 420B-параметровая MoE-модель, запланирована к запуску в январе 2026 года. В случае успеха это будет одна из немногих полностью открытых моделей, обученных в США в масштабе, что позиционирует Arcee как ключевого игрока в открытой экосистеме.

Запуск Trinity от Arcee сигнализирует о возобновленных усилиях по возвращению позиций в прозрачной разработке AI под контролем США, демонстрируя, что небольшие компании все еще могут расширять границы в открытом формате.

Попередня статтяЗачем нужен экономический рост: Почему расширение экономики важнее, чем когда-либо
Наступна статтяПравительство США Инвестирует в Стартап xLight, Обозначая Смену в Финансировании Технологий