El nuevo generador de vídeo de IA de OpenAI, Sora 2, se ha visto envuelto en una controversia pocos días después de su lanzamiento. Si bien se promociona como un posible punto de inflexión para las plataformas de redes sociales centradas en videos como TikTok o Reels, la notable capacidad de la herramienta para crear videos increíblemente realistas rápidamente se salió de control.
Los usuarios no perdieron el tiempo explotando las capacidades de Sora 2, inundando la plataforma con inquietantes deepfakes de celebridades, contenido con carga política e incluso personajes con derechos de autor. Este torrente de material generado por usuarios ha generado preocupaciones inmediatas sobre las implicaciones éticas y el posible uso indebido de una tecnología tan poderosa.
A pesar de contar con salvaguardias supuestamente más fuertes que competidores como Grok, incluidos mecanismos de denuncia específicos para contenido dañino como explotación sexual, violencia, acoso y puesta en peligro de niños, la característica de seguridad central de Sora 2 parece insuficiente. La aplicación tiene como objetivo evitar los deepfakes impidiendo que los usuarios carguen vídeos con caras reconocibles. Sin embargo, esta solución aparentemente sencilla pasa por alto un defecto importante: la propia función “Cameos” de OpenAI complica considerablemente las cosas.
Los cameos son esencialmente avatares digitales modelados a partir de los usuarios en función del audio y vídeo que suben. Los usuarios supuestamente tienen control sobre cómo se usa su Cameo, otorgando distintos niveles de acceso a su imagen digital: solo ellos mismos, personas aprobadas, amigos o toda la plataforma. Sin embargo, este sistema ha demostrado ser vulnerable. Anteriormente, si un usuario optaba por el acceso de “todos”, su Cameo podía reutilizarse en cualquier escenario imaginable sin consentimiento adicional, lo que permitía efectivamente que cualquiera usara la imagen de otra persona de manera potencialmente dañina o explotadora.
Este riesgo inherente provocó una reacción inmediata de los usuarios preocupados por el posible uso indebido de su yo digital. OpenAI respondió introduciendo controles de contenido más estrictos para Cameos, reconociendo los problemas de seguridad asociados con el acceso sin restricciones a la imagen digital de una persona.
Nuevos controles para tu doble digital
Bill Peebles, director de Sora, describió la nueva configuración en una publicación X, dirigiendo a los usuarios a un hilo detallado del personal técnico de OpenAI, Thomas Dimson. Los controles Cameo actualizados brindan a los usuarios un control granular sobre sus avatares digitales a través de indicaciones de texto y restricciones. Estas configuraciones permiten a los usuarios especificar lo que su Cameo puede y no puede hacer o decir.
Por ejemplo, los usuarios podrían estipular que su Cameo no debería incluirse en videos que hablen de política o abstenerse de pronunciar palabras específicas que se consideren inapropiadas. Una mayor personalización permite a los usuarios imponer parámetros visuales, asegurando que su Cameo aparezca consistentemente con las prendas o accesorios definidos.
Los usuarios que deseen la privacidad más estricta pueden seleccionar “solo yo” dentro de la sección “Reglas de Cameo”, evitando efectivamente que alguien más utilice su imagen. Es importante destacar que OpenAI también ofrece una opción de exclusión voluntaria durante el proceso de registro para aquellos que no estén dispuestos a crear un Cameo en primer lugar.
Peebles enfatizó que Sora 2 aún está en proceso de perfeccionamiento y pronto contará con una marca de agua más distintiva para combatir posibles quejas de “moderación excesiva”. Subrayó el enfoque cauteloso de OpenAI y afirmó: “Creemos que es importante ser conservadores mientras el mundo todavía se está adaptando a esta nueva tecnología”.
La rápida proliferación de poderosas herramientas de inteligencia artificial como Sora 2 resalta la necesidad urgente de un diálogo continuo y el desarrollo de pautas éticas sólidas dentro de la industria tecnológica. Lograr un equilibrio entre fomentar la innovación y mitigar los daños potenciales seguirá siendo un desafío crítico a medida que estas tecnologías continúen evolucionando a un ritmo asombroso.






































