OpenAI renforce les règles de sécurité pour les adolescents pour ChatGPT au milieu de la pression réglementaire

4

OpenAI a mis à jour ses directives pour ChatGPT afin de mieux protéger les jeunes utilisateurs, répondant aux préoccupations croissantes concernant l’impact de l’IA sur le bien-être des adolescents et à la pression croissante des législateurs. La société a également publié de nouvelles ressources pédagogiques visant à permettre aux adolescents et aux parents de mieux comprendre les connaissances en IA.

Pourquoi est-ce important : Cette décision intervient alors que plusieurs adolescents se seraient suicidés après des interactions prolongées avec des chatbots IA, ce qui a suscité un examen minutieux de l’industrie technologique et des appels à des réglementations plus strictes. L’incident met en évidence les dangers potentiels d’un engagement incontrôlé de l’IA, en particulier pour les populations vulnérables.

Contrôle accru de la part des décideurs politiques

Quarante-deux procureurs généraux d’État ont récemment exhorté les Big Tech à mettre en œuvre des garanties plus strictes pour les enfants interagissant avec l’IA. Simultanément, les législateurs débattent des normes fédérales en matière de réglementation de l’IA, y compris des propositions telles que le projet de loi du sénateur Josh Hawley visant à interdire complètement aux mineurs d’utiliser les chatbots IA. La mise à jour d’OpenAI semble être une mesure préventive visant à répondre à ces préoccupations avant la promulgation d’une législation plus stricte.

Nouvelles directives : règles plus strictes pour les utilisateurs adolescents

Le « Model Spec » révisé d’OpenAI s’appuie sur les restrictions existantes contre la génération de contenu inapproprié ou l’encouragement de comportements nuisibles. Les nouvelles directives introduisent des règles plus strictes pour les utilisateurs adolescents, interdisant les jeux de rôle immersifs impliquant de l’intimité ou de la violence, même dans des scénarios hypothétiques. L’IA donnera également la priorité à la sécurité plutôt qu’à l’autonomie lorsqu’un préjudice est impliqué et évitera d’aider les adolescents à cacher leurs comportements à risque aux soignants.

Changements clés :

  • Les modèles auront pour instruction d’éviter les jeux de rôle romantiques ou sexuels avec des mineurs.
  • Une prudence particulière sera appliquée aux discussions sur l’image corporelle et les troubles de l’alimentation.
  • L’IA rappellera explicitement aux adolescents qu’il n’est pas un humain lors d’interactions prolongées.

Préoccupations en matière de transparence et de responsabilité

Alors qu’OpenAI met l’accent sur la transparence en publiant ses lignes directrices, les experts préviennent que le comportement réel est ce qui compte vraiment. L’entreprise a toujours eu du mal à appliquer ses propres politiques de manière cohérente, comme en témoignent les cas où ChatGPT s’est engagé dans des interactions trop agréables, voire nuisibles.

Robbie Torney de Common Sense Media souligne que la spécification du modèle contient des conflits potentiels, certaines sections donnant la priorité à l’engagement plutôt qu’à la sécurité. Des tests précédents ont révélé que ChatGPT reflète souvent le comportement des utilisateurs, entraînant parfois des réponses inappropriées.

Le cas d’Adam Raine, un adolescent qui s’est suicidé après avoir interagi avec ChatGPT, souligne ces échecs. Malgré le signalement de plus de 1 000 cas de contenu lié au suicide, les systèmes de modération d’OpenAI n’ont pas réussi à empêcher son engagement continu avec le chatbot.

Conformité proactive et responsabilité parentale

La mise à jour d’OpenAI s’aligne sur la législation émergente comme le SB 243 de Californie, qui établit des normes pour les chatbots compagnons de l’IA. L’approche de l’entreprise reflète l’évolution de la Silicon Valley vers une plus grande implication des parents dans la surveillance de l’utilisation de l’IA. OpenAI propose désormais des ressources pour aider les parents à discuter de l’IA avec leurs enfants, à fixer des limites et à aborder les sujets sensibles.

Vue d’ensemble : L’industrie évolue rapidement d’un environnement de « Far West » à un environnement soumis à une surveillance réglementaire accrue. Les actions d’OpenAI peuvent créer un précédent pour d’autres, obligeant les entreprises technologiques à donner la priorité à la sécurité des utilisateurs et à la transparence, sous peine de répercussions juridiques.

En fin de compte, les derniers changements d’OpenAI constituent une étape vers le développement responsable de l’IA, mais leur efficacité dépendra d’une application cohérente et d’une adaptation continue aux risques évolutifs de cette puissante technologie.

Попередня статтяTop 5 des sites de bingo au Royaume-Uni : classés et examinés