Tras el escrutinio de las interacciones potencialmente inapropiadas entre los adolescentes y sus compañeros de IA, Meta está introduciendo nuevos controles parentales diseñados para aumentar la seguridad y la supervisión. Los cambios, anunciados esta semana, brindan a los padres más visibilidad y control sobre las interacciones de sus hijos adolescentes con los avatares de IA en Instagram.
Ampliación de las protecciones para los usuarios adolescentes
Estos nuevos controles se basan en los esfuerzos de moderación existentes que tienen como objetivo alinear las interacciones de la IA con las clasificaciones de películas PG-13. El núcleo de las actualizaciones consiste en ofrecer a los padres un conjunto de herramientas para gestionar el uso de los compañeros de IA por parte de sus hijos:
- Resúmenes de uso del chat: Los padres recibirán resúmenes periódicos de las conversaciones de sus hijos adolescentes con avatares de IA, lo que les brindará información sobre los temas discutidos.
- Limitaciones de avatar: Los padres pueden restringir a sus hijos para que interactúen solo con avatares de IA específicos.
- Bloqueo completo: Los padres tendrán la opción de bloquear completamente a su hijo adolescente para que no interactúe con compañeros de IA.
Incluso si a un adolescente se le impide interactuar con avatares de IA, aún podrá utilizar el asistente de IA estándar de Meta, lo que demuestra una distinción entre el entorno controlado de los compañeros de IA y las funcionalidades de IA más amplias.
Una respuesta a preocupaciones anteriores
La medida se produce después de que una investigación realizada por Reuters en agosto revelara que los chatbots de Meta habían involucrado a usuarios jóvenes en conversaciones consideradas “románticas o sensuales”. Esto incluía hacerse pasar por celebridades en intercambios coquetos y generar imágenes sexualmente sugerentes. Después de este informe, Meta bloqueó temporalmente sus avatares de IA para permitir el reentrenamiento y salvaguardar mejoras. Posteriormente, la empresa formalizó pautas de seguridad, aclarando la diferencia entre discutir temas delicados (como la intimidad entre personajes de ficción) y hacer que el chatbot facilite o fomente tales acciones.
Tendencia en toda la industria hacia una IA responsable
Las acciones de Meta son únicas. OpenAI, el creador de ChatGPT, también implementó controles similares, imponiendo límites al chat de voz, la memoria del chat y las capacidades de generación de imágenes. Tanto Meta como OpenAI requieren que los usuarios jóvenes se registren para obtener cuentas supervisadas y enfatizan la importancia del monitoreo parental proactivo. Esto subraya una tendencia más amplia de la industria hacia el desarrollo de prácticas responsables de IA y abordar los riesgos asociados con las interacciones de IA, especialmente entre los usuarios jóvenes.
“Creemos que la IA puede complementar los métodos tradicionales de aprendizaje y exploración de una manera que resulte solidaria, todo ello con las barreras de seguridad adecuadas para la edad”, escribió Meta en una publicación de blog.
Implementación y disponibilidad
Si bien estos nuevos controles ofrecen un paso importante hacia interacciones de IA más seguras, no serán accesibles de inmediato. Las cuentas supervisoras no tendrán acceso a estos controles hasta principios del próximo año. Inicialmente, se implementarán exclusivamente en cuentas de Instagram en EE. UU., Reino Unido, Canadá y Australia antes de expandirse a otros países y a otras plataformas de Meta. La implementación gradual sugiere pruebas y perfeccionamiento continuos de las funciones.
La introducción de estos controles resalta el compromiso de Meta de abordar los problemas de seguridad relacionados con las interacciones de la IA con los adolescentes, lo que refleja un esfuerzo más amplio de la industria para garantizar el desarrollo y uso responsable de la IA.





































