Os líderes financeiros dos EUA enfrentam uma nova fronteira digital de risco. Numa reunião de alto nível em Washington, D.C., altos funcionários do governo alertaram os executivos dos maiores bancos do país que um avanço na inteligência artificial poderia inadvertidamente abrir a porta a ataques cibernéticos sofisticados.
Um briefing de alto risco
Na terça-feira, o Secretário do Tesouro Scott Bessent convocou uma reunião urgente com um seleto grupo de executivos-chefes, incluindo líderes do Bank of America, Citi e Wells Fargo. A principal preocupação envolve a integração de modelos avançados de IA em sistemas bancários internos.
Participando da discussão estava o presidente do Federal Reserve, Jerome H. Powell, que recentemente enfatizou a crescente vulnerabilidade da infraestrutura financeira global às ameaças cibernéticas. O consenso entre os responsáveis foi claro: embora a IA ofereça um imenso potencial, a sua trajetória atual representa uma ameaça direta aos dados sensíveis dos clientes e à segurança institucional.
O dilema de “Claude Mythos”
O núcleo do alerta centra-se em um novo modelo de inteligência desenvolvido pela Anthropic conhecido como Claude Mythos Preview.
Ao contrário da IA padrão, este modelo é projetado especificamente para identificar vulnerabilidades de software. A Anthropic observou que os recursos do modelo são tão avançados que podem detectar falhas de segurança que os desenvolvedores humanos – e até mesmo as ferramentas automatizadas tradicionais – frequentemente não percebem.
Isto cria um cenário de “faca de dois gumes” para o setor bancário:
– O benefício: Os bancos poderiam usar o modelo para encontrar e corrigir seus próprios pontos fracos antes que os criminosos o façam.
– O risco: Se esta tecnologia for integrada em sistemas internos, poderá se tornar um roteiro para invasores. Se hackers ou “terceiros malfeitores” obtiverem acesso às descobertas do modelo, eles terão um guia perfeito para as lacunas de segurança mais críticas do banco.
Liberação Controlada e “Projeto Glasswing”
O perigo potencial é significativo o suficiente para que a Anthropic tenha optado por não divulgar o modelo ao público em geral. Em vez disso, a empresa está gerenciando o risco por meio de uma iniciativa restrita chamada “Projeto Glasswing”.
Atualmente, o acesso ao modelo está limitado a uma coalizão especializada de 40 empresas. Esta estratégia de contenção reflecte uma tendência crescente na indústria da IA: à medida que os modelos se tornam mais capazes de “raciocinar” através de problemas de segurança complexos, a indústria está a mudar para ambientes fechados e altamente controlados para evitar a exploração generalizada.
Conclusão: O surgimento de IA especializada como Claude Mythos destaca um novo paradoxo na segurança cibernética: as próprias ferramentas projetadas para encontrar vulnerabilidades podem se tornar as armas mais poderosas para aqueles que procuram explorá-las.





















