Mico van Microsoft: een nieuwe benadering van AI-persoonlijkheid na het falen van Clippy

10

Microsoft probeert persoonlijkheid te injecteren in zijn AI-assistent, Copilot, met een nieuw personage genaamd Mico. Dit zwevende, emoji-achtige gezicht vertegenwoordigt een berekende zet van de softwaregigant terwijl hij door het complexe landschap navigeert van hoe technologiebedrijven AI aan consumenten presenteren. De introductie van Mico komt decennia nadat de beruchte geanimeerde paperclip, Clippy, niet populair bleek bij Microsoft Office-gebruikers.

De zoektocht naar herkenbare AI

De nieuwe persoonlijkheid van Copilot is een reactie op een cruciaal kruispunt in de AI-ontwikkeling. Technologiebedrijven worstelen met de vraag hoe ze chatbots boeiende persoonlijkheden kunnen geven zonder schade aan te richten of reacties uit te lokken. Sommige ontwikkelaars hebben gekozen voor gezichtsloze symbolen, terwijl anderen, zoals de xAI van Elon Musk, zeer mensachtige avatars nastreven. Microsoft streeft naar een middenweg: vriendelijk en behulpzaam zonder al te vertrouwd of manipulatief te zijn.

“Als je over iets verdrietigs praat, zie je het gezicht van Mico veranderen. Je kunt het zien ronddansen en bewegen terwijl het met jou opgewonden raakt”, legt Jacob Andreou, corporate vice-president van product en groei voor Microsoft AI, uit. “Het is deze poging om deze AI-metgezel echt te landen, die je echt kunt voelen.”

Leren van het verleden: Clippy’s erfenis

Het ontwerp van Mico staat in schril contrast met Clippy, een volhardende, ongevraagde adviseur die eind jaren negentig Microsoft Office-gebruikers teisterde. “Het was destijds niet goed afgestemd op de behoeften van de gebruiker”, zegt Bryan Reimer, onderzoekswetenschapper aan het Massachusetts Institute of Technology, over het falen van Clippy. Gelukkig maakt het ontwerp van Mico het gemakkelijk uit te schakelen, een aanzienlijke verbetering ten opzichte van het opdringerige karakter van Clippy.

Persoonlijkheid en bruikbaarheid in evenwicht brengen

Reimer, co-auteur van ‘How to Make AI Useful’, merkt op dat het juiste persoonlijkheidsniveau van een AI-assistent afhangt van de gebruiker. Degenen die zich op hun gemak voelen met geavanceerde AI-tools geven misschien de voorkeur aan een meer machine-achtige interactie, terwijl degenen die minder vertrouwd zijn met technologie profiteren van een meer menselijk gevoel. De aanpak van Microsoft houdt rekening met deze verschillende gebruikersbehoeften.

Een andere stimuleringsstructuur

In tegenstelling tot sommige van zijn concurrenten die sterk afhankelijk zijn van digitale reclame, heeft Microsoft, een leverancier van hulpmiddelen voor arbeidsproductiviteit, minder prikkels om een al te aantrekkelijke AI-metgezel te creëren. Dit beschermt Microsoft tegen de mogelijke nadelen van AI-gedreven betrokkenheid, zoals sociaal isolement, de verspreiding van verkeerde informatie en zelfs, in extreme gevallen, zelfmoorden.

De valkuilen van overmatige belangstelling vermijden

Andreou zei dat Microsoft bewust de extremen vermijdt door AI “elke vorm van belichaming” te geven of het zo te ontwerpen dat het overdreven validerend is: gebruikers vertellen wat ze willen horen of hun tijd monopoliseren. “Door sycofantisch te zijn – misschien op de korte termijn – reageert een gebruiker gunstiger, maar op de lange termijn brengt het die persoon eigenlijk niet dichter bij zijn of haar doelen.”

Samenwerking, niet trollen

De integratie van Microsoft van Copilot in groepschats, vergelijkbaar met de aanwezigheid van AI op platforms als Snapchat en Meta’s WhatsApp, is gericht op intense samenwerking in plaats van luchthartig trollen. Het bedrijf introduceerde ook een functie om Copilot om te vormen tot een stemgestuurde, Socratische docent voor studenten, als weerspiegeling van de al lang bestaande concurrentie van Microsoft met Google en andere technologiebedrijven in de onderwijsruimte.

Kinderen beschermen in het tijdperk van AI

Het toenemende aantal kinderen dat AI-chatbots gebruikt voor huiswerkhulp, persoonlijk advies en emotionele steun heeft geleid tot bezorgdheid over mogelijke schade. De Amerikaanse Federal Trade Commission is onlangs een onderzoek gestart naar verschillende sociale media- en AI-bedrijven – maar niet naar Microsoft – met betrekking tot deze risico’s. Uit rapporten blijkt dat chatbots gevaarlijk advies geven over onderwerpen als drugs, alcohol en eetstoornissen, en ongepaste gesprekken voeren met kinderen. Families van tienerjongens die door zelfmoord zijn omgekomen na interactie met chatbots hebben rechtszaken aangespannen tegen Character.AI en OpenAI.

OpenAI’s reactie op zorgen

Sam Altman, CEO van OpenAI, heeft een nieuwe versie van ChatGPT beloofd die een deel van de verloren persoonlijkheid herstelt en tegemoetkomt aan zorgen over geestelijke gezondheidsproblemen die tot een eerdere gedragsverandering hebben geleid. Altman heeft ook aangegeven dat ChatGPT uiteindelijk “erotica voor geverifieerde volwassenen” zal aanbieden.

De benadering van Microsoft van AI-persoonlijkheid weerspiegelt een zorgvuldige evenwichtsoefening: het bieden van boeiende interacties zonder concessies te doen aan het nut, de veiligheid of de autonomie van de gebruiker, een les die is geleerd uit de mislukkingen uit het verleden en de zich ontwikkelende uitdagingen van het heden.

Попередня статтяGeniet van een filmische ervaring: bespaar $ 852 op een 100-inch Hisense QLED-tv
Наступна статтяSloot abonnementen af: Microsoft Office 2024 is nu een levenslange aankoop