Antrópico e o Pentágono: um impasse sobre o controle da IA

11

O Departamento de Defesa dos EUA (DoD) e a Anthropic, um importante desenvolvedor de IA, estão envolvidos em uma disputa de alto risco sobre como a inteligência artificial pode ser usada em aplicações militares. A questão central não é se a IA será implementada, mas quem define as regras: as empresas que desenvolvem a tecnologia ou o governo que a implementa.

O Conflito: Limites no Uso de IA

A Anthropic, liderada pelo CEO Dario Amodei, recusa-se a permitir que os seus modelos de IA sejam utilizados para dois propósitos principais: vigilância em massa de cidadãos dos EUA e sistemas de armas totalmente autónomos que tomam decisões letais sem supervisão humana. Esta posição desafia directamente a posição do DoD, expressa pelo secretário Pete Hegseth, de que qualquer “uso legal” da tecnologia deveria ser permitido.

O DoD argumenta que não deveria ser restringido pelas políticas de um fornecedor, especialmente quando a segurança nacional está em jogo. Num ultimato contundente, o Pentágono ameaçou designar a Antrópico como um “risco da cadeia de abastecimento” – efetivamente cortando-os dos contratos governamentais – a menos que cumpram até sexta-feira.

Por que isso é importante: o futuro da guerra automatizada

Esta disputa não é apenas sobre um único contrato. Reflete uma tensão fundamental na rápida evolução da IA. As forças armadas dos EUA já empregam sistemas altamente automatizados, alguns capazes de força letal. Os regulamentos atuais permitem que a IA selecione e envolva alvos sem intervenção humana direta, desde que os altos funcionários aprovem. A Antrópica teme que, se os seus modelos forem utilizados pelos militares sem salvaguardas suficientes, as consequências possam ser catastróficas.

Especificamente, a empresa está preocupada com:

  • Decisões letais não confiáveis: Colocar uma IA menos capaz no controle das armas pode levar à identificação incorreta de alvos, escalada não intencional ou erros irreversíveis.
  • Vigilância sobrecarregada: A IA pode aumentar drasticamente a escala e a eficácia da vigilância doméstica, aumentando as preocupações com a privacidade e as liberdades civis.
  • Falta de transparência: A tecnologia militar é frequentemente classificada, o que significa que toda a extensão do desenvolvimento de armas autônomas pode permanecer oculta até que esteja operacional.

A posição do Pentágono: Pragmatismo vs. Princípios

O DoD insiste que o seu único objetivo é aproveitar a IA para fins legais e que as restrições da Antrópica são desnecessárias. As autoridades afirmam que não têm intenção de realizar vigilância doméstica em massa ou de utilizar armas autónomas não controladas. No entanto, a retórica do secretário Hegseth desviou-se para o território cultural, criticando a “IA desperta” e enfatizando a necessidade de sistemas “prontos para a guerra”, e não de “chatbots para uma sala de professores da Ivy League”.

O Pentágono tem autoridade para forçar o cumprimento através da Lei de Produção de Defesa (DPA), que permite ao governo obrigar as empresas a satisfazer as suas necessidades. Declarar que a Antrópica é um risco para a cadeia de abastecimento os colocaria efetivamente na lista negra de futuros trabalhos governamentais.

Conclusão: um ponto de decisão crítico

O impasse apresenta uma escolha difícil para ambos os lados. Se a Antrópico se recusar a ceder, corre o risco de perder um importante fluxo de receitas e potencialmente prejudicar a sua viabilidade a longo prazo. Se o DoD avançar sem a Anthropic, poderá enfrentar um atraso de seis a 12 meses enquanto outros desenvolvedores de IA o alcançam – uma vulnerabilidade significativa num cenário geopolítico em rápida evolução. O resultado moldará não apenas o futuro da IA ​​na guerra, mas também o equilíbrio de poder entre as empresas de tecnologia e o governo dos EUA.

Попередня статтяBBC enfrenta críticas sobre transmissão não filtrada de calúnia racista nos BAFTAs
Наступна статтяNYT Strands #639: dicas, respostas e tema explicado