Les dirigeants financiers américains sont confrontés à une nouvelle frontière numérique du risque. Lors d’une réunion de haut niveau à Washington, D.C., de hauts responsables gouvernementaux ont averti les dirigeants des plus grandes banques du pays qu’une percée dans le domaine de l’intelligence artificielle pourrait, par inadvertance, ouvrir la porte à des cyberattaques sophistiquées.
Un briefing à enjeux élevés
Mardi, le secrétaire au Trésor Scott Bessent a convoqué une réunion urgente avec un groupe sélectionné de directeurs généraux, parmi lesquels des dirigeants de Bank of America, Citi et Wells Fargo. La principale préoccupation concerne l’intégration de modèles d’IA avancés dans les systèmes bancaires internes.
Le président de la Réserve fédérale, Jerome H. Powell, a récemment souligné la vulnérabilité croissante de l’infrastructure financière mondiale aux cybermenaces. Le consensus parmi les responsables était clair : même si l’IA offre un immense potentiel, sa trajectoire actuelle constitue une menace directe pour les données sensibles des clients et la sécurité institutionnelle.
Le dilemme du « mythe de Claude »
Le cœur de l’avertissement se concentre sur un nouveau modèle de renseignement développé par Anthropic connu sous le nom de Claude Mythos Preview.
Contrairement à l’IA standard, ce modèle est spécifiquement conçu pour identifier les vulnérabilités logicielles. Anthropic a noté que les capacités du modèle sont si avancées qu’il peut détecter des failles de sécurité que les développeurs humains – et même les outils automatisés traditionnels – manquent souvent.
Cela crée un scénario « à double tranchant » pour le secteur bancaire :
– L’avantage : Les banques pourraient utiliser ce modèle pour détecter et corriger leurs propres faiblesses avant les criminels.
– Le risque : Si cette technologie est intégrée aux systèmes internes, elle pourrait devenir une feuille de route pour les attaquants. Si des pirates informatiques ou des « acteurs tiers malveillants » avaient accès aux résultats du modèle, ils posséderaient un guide parfait sur les failles de sécurité les plus critiques de la banque.
Libération contrôlée et “Projet Glasswing”
Le danger potentiel est suffisamment important pour qu’Anthropic ait choisi de ne pas diffuser le modèle auprès du grand public. Au lieu de cela, l’entreprise gère le risque grâce à une initiative restreinte appelée ** « Projet Glasswing ».**
Actuellement, l’accès au modèle est limité à une coalition spécialisée de 40 entreprises. Cette stratégie de confinement reflète une tendance croissante dans l’industrie de l’IA : à mesure que les modèles deviennent plus capables de « raisonner » à travers des problèmes de sécurité complexes, l’industrie s’oriente vers des environnements hautement contrôlés et fermés pour empêcher une exploitation généralisée.
L’essentiel : L’émergence d’une IA spécialisée comme Claude Mythos met en évidence un nouveau paradoxe en matière de cybersécurité : les outils mêmes conçus pour détecter les vulnérabilités peuvent devenir les armes les plus puissantes pour ceux qui cherchent à les exploiter.





















