Amerikaanse startup Arcee AI daagt China’s leidende positie op het gebied van open-source AI uit met nieuwe Trinity-modellen

7

Een groot deel van 2025 heeft China de ontwikkeling van geavanceerde, open taalmodellen gedomineerd. Labs als Qwen, DeepSeek en Baidu van Alibaba beschikken over snel geavanceerde Mixture-of-Experts (MoE)-modellen, vaak met soepele licenties en superieure prestaties. Nu lanceert een Amerikaans bedrijf, Arcee AI, een directe uitdaging voor deze trend met zijn nieuwe “Trinity”-familie van open-gewicht modellen.

De opkomst van open AI in China

Chinese onderzoekslaboratoria hebben het voortouw genomen bij de ontwikkeling van grootschalige, open MoE-modellen vanwege hun tolerante licentieverlening en benchmarkprestaties. OpenAI heeft een open source LLM uitgebracht, maar de acceptatie ervan verliep traag vanwege beter presterende alternatieven. Deze trend roept vragen op over het vermogen van de VS om te concurreren op het gebied van open-source AI, en waarom de belangrijkste vooruitgang in het buitenland plaatsvindt.

Trinity-modellen van Arcee AI: een in de VS gebouwd alternatief

Vandaag heeft Arcee AI de release aangekondigd van Trinity Mini en Trinity Nano Preview, de eerste twee modellen in zijn nieuwe ‘Trinity’-familie. Deze modellen zijn volledig getraind in de Verenigde Staten onder een ondernemingsvriendelijke Apache 2.0-licentie. Gebruikers kunnen Mini testen in een chatbot op chat.arcee.ai en ontwikkelaars kunnen de code downloaden van Hugging Face voor aanpassing en verfijning.

Hoewel kleiner dan de grootste modellen, vertegenwoordigen deze releases de eerste Amerikaanse poging om end-to-end open-weight-modellen op schaal te bouwen, helemaal opnieuw getraind op de Amerikaanse infrastructuur met een door de VS samengestelde dataset. Volgens Lucas Atkins, CTO van Arcee, “ervaar ik een combinatie van extreme trots op mijn team en verlammende uitputting, dus ik heb moeite om onder woorden te brengen hoe opgewonden ik ben om deze modellen uit te brengen.”

Een derde model, Trinity Large, is al in training: een 420B-parametermodel met 13B actieve parameters per token, gepland voor lancering in januari 2026.

De technische voorsprong van Trinity: AFMoE-architectuur

De Trinity-modellen van Arcee maken gebruik van een nieuwe Attention-First Mixture-of-Experts (AFMoE)-architectuur. Dit ontwerp combineert mondiale spaarzaamheid, lokale/mondiale aandacht en gated aandachtstechnieken om de stabiliteit en efficiëntie op schaal te verbeteren.

AFMoE verschilt van traditionele MoE-modellen door gebruik te maken van soepelere sigmoid-routering in plaats van eenvoudige ranglijsten bij het beslissen welke “expert” moet worden geraadpleegd, waardoor een sierlijkere vermenging van meerdere perspectieven mogelijk is. De ‘aandacht eerst’-benadering betekent dat het model zich sterk richt op de manier waarop het aandacht besteedt aan verschillende delen van het gesprek, waardoor het redeneren in de lange context wordt verbeterd.

Trinity Mini is een 26B-parametermodel met 3B actief per token, ontworpen voor redeneren met hoge doorvoer, functieaanroepen en toolgebruik. Trinity Nano Preview is een 6B-parametermodel met ongeveer 800 miljoen actieve niet-inbeddingsparameters: een meer experimenteel, op chat gericht model met een sterkere persoonlijkheid, maar een lagere redeneringsrobuustheid.

Prestaties en toegang

Trinity Mini presteert concurrerend met grotere modellen op het gebied van redeneertaken, waaronder betere prestaties dan gpt-oss op de SimpleQA-benchmark, MMLU en BFCL V3:

  • MMLU (nulschot): 84,95
  • Wiskunde-500: 92.10
  • GPQA-diamant: 58,55
  • BFCL V3: 59,67

Het model bereikt een doorvoersnelheid van meer dan 200 tokens per seconde met een E2E-latentie van minder dan drie seconden, waardoor het haalbaar is voor interactieve toepassingen. Beide modellen zijn uitgebracht onder de Apache 2.0-licentie en beschikbaar via Hugging Face, OpenRouter en de website van Arcee. API-prijzen voor Trinity Mini via OpenRouter bedragen $0,045 per miljoen inputtokens en $0,15 per miljoen outputtokens.

Partnerschappen voor data en infrastructuur

Het succes van Arcee is afhankelijk van strategische partnerschappen. DatologyAI, een startup voor databeheer, zorgt voor trainingsgegevens van hoge kwaliteit door datasets te filteren, te ontdubbelen en te verbeteren om juridische problemen en vooringenomenheid te voorkomen. DatologyAI heeft een curriculum van 10 biljoen tokens voor Trinity samengesteld, inclusief algemene gegevens, tekst van hoge kwaliteit en STEM-zwaar materiaal.

Prime Intellect levert de infrastructuur, met 512 H200 GPU’s in een aangepaste bf16-pijplijn voor het trainen van Trinity Mini en Nano. Ze hosten ook het 2048 B300 GPU-cluster voor de komende Trinity Large.

De toekomst van Amerikaanse AI: modelsoevereiniteit

Arcee’s streven naar volledige voortraining weerspiegelt een bredere strategie: het bezitten van de volledige trainingscyclus voor compliance en controle, vooral naarmate AI-systemen autonomer worden. Het bedrijf stelt dat het beheersen van de gewichten- en trainingspijplijn cruciaal is voor het bouwen van betrouwbare, aanpasbare AI-producten.

Trinity Large, een MoE-model met 420B-parameters, staat gepland voor lancering in januari 2026. Als het succesvol is, zou het een van de weinige volledig open-gewicht, in de VS getrainde modellen op grensschaal zijn, waarmee Arcee als een belangrijke speler in het open ecosysteem wordt gepositioneerd.

De lancering van Arcee in Trinity markeert een hernieuwde poging om terrein terug te winnen voor transparante, door de VS gecontroleerde modelontwikkeling, waaruit blijkt dat kleinere bedrijven nog steeds op een open manier grenzen kunnen verleggen.

Попередня статтяHet pleidooi voor groei: waarom economische expansie nu belangrijker is dan ooit
Наступна статтяAmerikaanse overheid neemt belang in Chip Startup xLight, wat een verschuiving in de technologiefinanciering aangeeft