Los líderes financieros estadounidenses se enfrentan a una nueva frontera de riesgo digital. En una reunión de alto nivel en Washington, D.C., altos funcionarios gubernamentales advirtieron a los ejecutivos de los bancos más grandes del país que un avance en inteligencia artificial podría abrir inadvertidamente la puerta a sofisticados ataques cibernéticos.
Una sesión informativa de alto riesgo
El martes, el Secretario del Tesoro, Scott Bessent, convocó una reunión urgente con un grupo selecto de directores ejecutivos, incluidos líderes de Bank of America, Citi y Wells Fargo. La principal preocupación es la integración de modelos avanzados de IA en los sistemas bancarios internos.
Se unió al debate el presidente de la Reserva Federal, Jerome H. Powell, quien recientemente enfatizó la creciente vulnerabilidad de la infraestructura financiera global a las amenazas cibernéticas. El consenso entre los funcionarios fue claro: si bien la IA ofrece un inmenso potencial, su trayectoria actual plantea una amenaza directa a los datos confidenciales de los clientes y la seguridad institucional.
El dilema de los “mitos de Claude”
El núcleo de la advertencia se centra en un nuevo modelo de inteligencia desarrollado por Anthropic conocido como Claude Mythos Preview.
A diferencia de la IA estándar, este modelo está diseñado específicamente para identificar vulnerabilidades de software. Anthropic ha observado que las capacidades del modelo son tan avanzadas que puede detectar fallas de seguridad que los desarrolladores humanos (e incluso las herramientas automatizadas tradicionales) frecuentemente pasan por alto.
Esto crea un escenario de “arma de doble filo” para el sector bancario:
– El beneficio: Los bancos podrían usar el modelo para encontrar y reparar sus propias debilidades antes de que lo hagan los delincuentes.
– El riesgo: Si esta tecnología se integra en los sistemas internos, podría convertirse en una hoja de ruta para los atacantes. Si los piratas informáticos o “terceros malos actores” obtienen acceso a los hallazgos del modelo, tendrían una guía perfecta para conocer las brechas de seguridad más críticas del banco.
Liberación controlada y “Proyecto Glasswing”
El peligro potencial es lo suficientemente importante como para que Anthropic haya optado por no publicar el modelo en general. En cambio, la empresa está gestionando el riesgo a través de una iniciativa restringida llamada “Proyecto Glasswing”.
Actualmente, el acceso al modelo está limitado a una coalición especializada de 40 empresas. Esta estrategia de contención refleja una tendencia creciente en la industria de la IA: a medida que los modelos se vuelven más capaces de “razonar” a través de problemas de seguridad complejos, la industria está cambiando hacia entornos cerrados y altamente controlados para evitar una explotación generalizada.
Conclusión: El surgimiento de IA especializada como Claude Mythos pone de relieve una nueva paradoja en la ciberseguridad: las mismas herramientas diseñadas para encontrar vulnerabilidades pueden convertirse en las armas más poderosas para quienes buscan explotarlas.





















