Durante años, la protesta pública en torno a la Inteligencia Artificial se ha centrado en un conjunto predecible de daños sociales: desplazamiento laboral, deshonestidad académica, costos ambientales y difusión de información errónea. Ha habido un llamado persistente por parte de especialistas en ética y reguladores para “reducir la velocidad” y construir barreras de seguridad más sólidas antes de que la tecnología se arraigue demasiado en nuestro tejido social.
Sin embargo, una decisión reciente del desarrollador de IA Anthropic sugiere que el peligro más apremiante puede no ser social o ético, sino puramente técnico y estructural.
El retraso de los “mitos”
Anthropic ha anunciado que retrasará el lanzamiento de su último modelo, conocido internamente como Mythos. Esta decisión no fue motivada por preocupaciones sobre deepfakes o desinformación, sino por un descubrimiento sorprendente durante la fase de prueba: el modelo demostró ser un hacker excepcionalmente talentoso.
Durante las pruebas de prototipo, Mythos demostró una capacidad sin precedentes para identificar vulnerabilidades de software. Según la compañía, el modelo descubrió con éxito miles de debilidades, incluidas fallas críticas dentro de todos los principales sistemas operativos y navegadores web actualmente en uso.
Por qué esto importa: la amenaza del “robohacking”
Este desarrollo pone de relieve un cambio en el panorama de riesgos de la IA. Si bien gran parte del debate se centra en cómo la IA podría cambiar lo que hacemos, los hallazgos de Anthropic se centran en cómo la IA podría cambiar cómo funciona nuestra infraestructura.
La capacidad de un modelo único para mapear las vulnerabilidades en todo el ecosistema digital presenta un riesgo de seguridad enorme:
- Explotación automatizada: Si una IA puede encontrar miles de errores en segundos, en teoría puede usarse para automatizar ciberataques a una escala y velocidad imposibles para los piratas informáticos humanos.
- Fragilidad sistémica: El hecho de que Mythos haya encontrado fallas en todos los principales navegadores y sistemas operativos sugiere que nuestra arquitectura digital fundamental es más vulnerable al descubrimiento impulsado por la IA de lo que se pensaba anteriormente.
- La carrera armamentista: Esto crea un dilema del “doble uso”. La misma inteligencia utilizada para reparar los agujeros de seguridad se puede utilizar para explotarlos, lo que lleva a una carrera de alto riesgo entre la defensa impulsada por la IA y la ofensiva impulsada por la IA.
Una nueva prioridad para la seguridad de la IA
La decisión de Anthropic de “pisar el freno” marca un giro en la conversación sobre la seguridad de la IA. Sugiere que la “amenaza existencial” más inmediata podría no ser una superinteligencia deshonesta o un colapso social, sino la desestabilización repentina y generalizada del software del que dependemos todos los días.
Al priorizar la contención





















