OpenAI apporte des modifications à son chatbot IA populaire, ChatGPT, dans le but de promouvoir des expériences utilisateur plus saines et plus équilibrées. Dans un article de blog présentant un aperçu de l’annonce attendue de GPT-5, la société a présenté de nouvelles fonctionnalités conçues pour répondre aux préoccupations concernant l’engagement excessif des chatbots et les impacts négatifs potentiels sur le bien-être mental.
Un changement clé consiste à interrompre les conversations prolongées avec des invites douces encourageant les utilisateurs à se déconnecter. Cette fonctionnalité s’attaque directement au problème de la dépendance excessive à l’égard de l’IA pour la compagnie, particulièrement pertinent étant donné les rapports d’individus développant des attachements malsains à ChatGPT. OpenAI prévoit également d’affiner ses algorithmes pour minimiser la tendance du chatbot à être trop agréable, ce qui pourrait auparavant conduire à des réponses inutiles, voire trompeuses, déguisées en platitudes agréables.
Peut-être plus important encore, OpenAI restructure la façon dont ChatGPT gère les requêtes personnelles et chargées d’émotion. Au lieu de fournir des réponses directes à des questions potentiellement déterminantes, le chatbot guidera désormais les utilisateurs à travers un processus de réflexion approfondie. Il encouragera les utilisateurs à peser le pour et le contre, à solliciter des commentaires sur les solutions proposées et, à terme, à leur permettre de prendre des décisions plus éclairées de manière indépendante. Cette approche s’aligne sur le « mode étude » récemment lancé par OpenAI, qui met l’accent sur la réflexion critique sur des réponses simples en imitant un format de dialogue socratique.
OpenAI reconnaît les lacunes passées dans la lutte contre les comportements potentiellement dangereux des utilisateurs. Plus tôt cette année, une mise à jour a par inadvertance rendu le chatbot trop agréable, donnant la priorité aux réponses agréables plutôt qu’aux réponses véritablement utiles. Cela a entraîné des réactions négatives et a incité OpenAI à réévaluer son approche des mécanismes de retour d’information et à donner la priorité à l’utilité à long terme plutôt qu’à la satisfaction immédiate des utilisateurs.
Ces développements surviennent dans le cadre d’une surveillance croissante de l’impact psychologique potentiel des chatbots IA. Des inquiétudes ont été soulevées quant à leur capacité à exacerber les problèmes de santé mentale existants, en particulier chez les adolescents susceptibles de nouer des attachements malsains ou de remplacer l’IA par l’interaction humaine. Les législateurs envisagent de plus en plus de réglementations visant à freiner la commercialisation des chatbots en tant que systèmes de soutien émotionnel ou substituts thérapeutiques.
En mettant en œuvre ces nouvelles fonctionnalités, OpenAI vise à instaurer la confiance et à démontrer son engagement en faveur d’un développement responsable de l’IA. L’entreprise souligne que son objectif ultime n’est pas simplement de maintenir l’engagement des utilisateurs, mais de leur permettre d’utiliser la technologie de manière saine et bénéfique. Comme l’a déclaré OpenAI : « Parvenir à un « oui » sans équivoque [serions-nous rassurés si quelqu’un que nous aimons utilisait ChatGPT] est notre travail. »
