Anthropic et le Pentagone : une impasse sur le contrôle de l’IA

5

Le ministère américain de la Défense (DoD) et Anthropic, l’un des principaux développeurs d’IA, sont engagés dans un différend aux enjeux importants sur la manière dont l’intelligence artificielle peut être utilisée dans des applications militaires. La question centrale n’est pas de savoir si l’IA sera déployée, mais de savoir qui fixe les règles : les entreprises qui construisent la technologie ou le gouvernement qui la déploie.

Le conflit : limites à l’utilisation de l’IA

Anthropic, dirigé par son PDG Dario Amodei, refuse que ses modèles d’IA soient utilisés à deux fins principales : la surveillance de masse des citoyens américains et des systèmes d’armes entièrement autonomes qui prennent des décisions mortelles sans surveillance humaine. Cette position remet directement en question la position du DoD, telle qu’exprimée par le secrétaire Pete Hegseth, selon laquelle toute « utilisation légale » de la technologie devrait être autorisée.

Le DoD affirme qu’il ne devrait pas être limité par les politiques d’un fournisseur, en particulier lorsque la sécurité nationale est en jeu. Dans un ultimatum brutal, le Pentagone a menacé de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement » – les privant ainsi des contrats gouvernementaux – à moins qu’ils ne s’y conforment d’ici vendredi.

Pourquoi c’est important : l’avenir de la guerre automatisée

Ce différend ne concerne pas simplement un seul contrat. Cela reflète une tension fondamentale dans l’évolution rapide de l’IA. L’armée américaine utilise déjà des systèmes hautement automatisés, certains capables d’exercer une force meurtrière. La réglementation actuelle permet à l’IA de sélectionner et d’engager des cibles sans intervention humaine directe, à condition que les hauts responsables l’approuvent. Anthropic craint que si ses modèles sont utilisés par les militaires sans garanties suffisantes, les conséquences pourraient être catastrophiques.

Plus précisément, l’entreprise s’inquiète de :

  • Décisions mortelles peu fiables : Placer une IA moins performante aux commandes des armes pourrait conduire à une mauvaise identification des cibles, à une escalade involontaire ou à des erreurs irréversibles.
  • Surveillance suralimentée : L’IA peut considérablement améliorer l’ampleur et l’efficacité de la surveillance nationale, soulevant ainsi des préoccupations en matière de vie privée et de libertés civiles.
  • Manque de transparence : La technologie militaire est souvent classifiée, ce qui signifie que l’intégralité du développement d’armes autonomes peut rester cachée jusqu’à ce qu’elle soit opérationnelle.

La position du Pentagone : pragmatisme contre principes

Le DoD insiste sur le fait que son seul objectif est d’exploiter l’IA à des fins licites et que les restrictions d’Anthropic sont inutiles. Les responsables affirment qu’ils n’ont pas l’intention de mener une surveillance intérieure massive ou de déployer des armes autonomes sans contrôle. Cependant, la rhétorique du secrétaire Hegseth a viré au territoire culturel, critiquant « l’IA éveillée » et soulignant la nécessité de systèmes « prêts à la guerre », et non de « chatbots pour un salon universitaire de l’Ivy League ».

Le Pentagone a le pouvoir d’imposer le respect des règles par le biais de la loi sur la production de défense (DPA), qui permet au gouvernement d’obliger les entreprises à répondre à ses besoins. Déclarer Anthropic comme un risque pour la chaîne d’approvisionnement les mettrait effectivement sur une liste noire des futurs travaux gouvernementaux.

L’essentiel : un point de décision critique

Cette impasse représente un choix difficile pour les deux parties. Si Anthropic refuse de céder, elle risque de perdre une source de revenus importante et potentiellement d’entraver sa viabilité à long terme. Si le DoD avance sans Anthropic, il pourrait être confronté à un retard de six à 12 mois, le temps que d’autres développeurs d’IA rattrapent leur retard – une vulnérabilité importante dans un paysage géopolitique en évolution rapide. Le résultat façonnera non seulement l’avenir de l’IA dans la guerre, mais également l’équilibre des pouvoirs entre les entreprises technologiques et le gouvernement américain.

Попередня статтяLa BBC fait face à des critiques concernant la diffusion non filtrée d’insultes racistes des BAFTA
Наступна статтяNYT Strands #639 : indices, réponses et thème expliqué