Mico de Microsoft : une nouvelle approche de la personnalité de l’IA après l’échec de Clippy

14

Microsoft tente d’injecter de la personnalité dans son assistant IA, Copilot, avec un nouveau personnage appelé Mico. Ce visage flottant ressemblant à un emoji représente une décision calculée de la part du géant du logiciel alors qu’il navigue dans un paysage complexe de la manière dont les entreprises technologiques présentent l’IA aux consommateurs. L’introduction de Mico intervient des décennies après que le tristement célèbre trombone animé, Clippy, se soit révélé impopulaire auprès des utilisateurs de Microsoft Office.

La quête d’une IA pertinente

Le nouveau personnage de Copilot est une réponse à un carrefour critique dans le développement de l’IA. Les entreprises technologiques se demandent comment donner aux chatbots des personnalités attrayantes sans causer de préjudice ni provoquer de réactions négatives. Certains développeurs ont opté pour des symboles sans visage, tandis que d’autres, comme xAI d’Elon Musk, recherchent des avatars très humains. Microsoft vise un juste milieu : convivial et utile sans être trop familier ou manipulateur.

“Lorsque vous parlez de quelque chose de triste, vous pouvez voir le visage de Mico changer. Vous pouvez le voir danser et bouger à mesure qu’il s’excite avec vous”, a expliqué Jacob Andreou, vice-président des produits et de la croissance de Microsoft AI. “C’est dans cet effort pour vraiment faire atterrir ce compagnon IA que vous pouvez vraiment ressentir.”

Apprendre du passé : l’héritage de Clippy

La conception de Mico contraste fortement avec Clippy, un conseiller persistant et non sollicité qui tourmentait les utilisateurs de Microsoft Office à la fin des années 1990. “Il n’était pas bien adapté aux besoins des utilisateurs à l’époque”, a déclaré Bryan Reimer, chercheur scientifique au Massachusetts Institute of Technology, réfléchissant à l’échec de Clippy. Heureusement, la conception de Mico permet une désactivation facile, une amélioration significative par rapport à la nature intrusive de Clippy.

Équilibrer personnalité et utilité

Reimer, co-auteur de « Comment rendre l’IA utile », note que le niveau de personnalité approprié d’un assistant IA dépend de l’utilisateur. Ceux qui sont à l’aise avec les outils d’IA avancés préféreront peut-être une interaction plus semblable à celle d’une machine, tandis que ceux qui sont moins familiers avec la technologie bénéficieront d’une sensation plus humaine. L’approche de Microsoft prend en compte ces différents besoins des utilisateurs.

Une structure d’incitation différente

Contrairement à certains de ses concurrents qui s’appuient fortement sur la publicité numérique, Microsoft, fournisseur d’outils de productivité au travail, est moins incité à créer un compagnon IA trop engageant. Cela protège Microsoft des inconvénients potentiels de l’engagement basé sur l’IA, tels que l’isolement social, la diffusion de fausses informations et même, dans les cas extrêmes, les suicides.

Éviter les pièges de la sursollicitation

Andreou a déclaré que Microsoft évite consciemment les extrêmes consistant à donner à l’IA « toute sorte d’incarnation » ou à la concevoir de manière à être trop validatrice – en disant aux utilisateurs ce qu’ils veulent entendre ou en monopolisant leur temps. « Être flagorneur – à court terme, peut-être – amène un utilisateur à réagir plus favorablement, mais à long terme, cela ne rapproche pas cette personne de ses objectifs.

Collaboration, pas trolling

L’intégration de Copilot par Microsoft dans les discussions de groupe, similaire à la présence de l’IA sur des plateformes comme Snapchat et WhatsApp de Meta, vise une collaboration intense plutôt qu’une pêche à la traîne légère. La société a également introduit une fonctionnalité permettant de transformer Copilot en un tuteur socratique à commande vocale pour les étudiants, reflétant la concurrence de longue date de Microsoft avec Google et d’autres entreprises technologiques dans le domaine de l’éducation.

Protéger les enfants à l’ère de l’IA

Le nombre croissant d’enfants utilisant des chatbots IA pour l’aide aux devoirs, les conseils personnels et le soutien émotionnel a soulevé des inquiétudes quant aux préjudices potentiels. La Federal Trade Commission des États-Unis a récemment lancé une enquête sur plusieurs sociétés de médias sociaux et d’IA – mais pas sur Microsoft – concernant ces risques. Des rapports ont montré que des chatbots donnaient des conseils dangereux sur des sujets tels que les drogues, l’alcool et les troubles de l’alimentation, et s’engageaient dans des conversations inappropriées avec des enfants. Des familles d’adolescents décédés par suicide après avoir interagi avec des chatbots ont intenté des poursuites contre Character.AI et OpenAI.

Réponse d’OpenAI aux préoccupations

Le PDG d’OpenAI, Sam Altman, a promis une nouvelle version de ChatGPT qui restaure une partie de la personnalité perdue, répondant ainsi aux préoccupations concernant les problèmes de santé mentale qui ont conduit à un changement de comportement antérieur. Altman a également indiqué que ChatGPT proposera à terme « de l’érotisme pour les adultes vérifiés ».

L’approche de Microsoft en matière de personnalité de l’IA reflète un exercice d’équilibre minutieux : proposer des interactions engageantes sans sacrifier l’utilité, la sécurité ou l’autonomie de l’utilisateur, une leçon tirée des échecs du passé et des défis changeants du présent.

Попередня статтяVivez une expérience cinématographique : économisez 852 $ sur un téléviseur Hisense QLED de 100 pouces
Наступна статтяAbonnements abandonnés : Microsoft Office 2024 est désormais un achat à vie