Mico di Microsoft: un nuovo approccio alla personalità dell’intelligenza artificiale dopo il fallimento di Clippy

12

Microsoft sta tentando di conferire personalità al suo assistente AI, Copilot, con un nuovo personaggio chiamato Mico. Questa faccia fluttuante, simile a un emoji, rappresenta una mossa calcolata per il gigante del software mentre naviga in un panorama complesso di come le aziende tecnologiche presentano l’intelligenza artificiale ai consumatori. L’introduzione di Mico arriva decenni dopo che la famigerata graffetta animata, Clippy, si è rivelata impopolare tra gli utenti di Microsoft Office.

Alla ricerca di un’intelligenza artificiale riconoscibile

Il nuovo personaggio di Copilot è una risposta a un bivio critico nello sviluppo dell’intelligenza artificiale. Le aziende tecnologiche sono alle prese con come dare ai chatbot personalità coinvolgenti senza causare danni o provocare reazioni negative. Alcuni sviluppatori hanno optato per simboli senza volto, mentre altri, come xAI di Elon Musk, stanno perseguendo avatar altamente simili a quelli umani. Microsoft punta a una via di mezzo: amichevole e utile senza essere eccessivamente familiare o manipolativo.

“Quando parli di qualcosa di triste, puoi vedere il volto di Mico cambiare. Puoi vederlo ballare e muoversi mentre si emoziona con te”, ha spiegato Jacob Andreou, vicepresidente aziendale per il prodotto e la crescita di Microsoft AI. “È in questo sforzo di far atterrare davvero questo compagno AI che puoi davvero sentire.”

Imparare dal passato: l’eredità di Clippy

Il design di Mico è in netto contrasto con Clippy, un consulente persistente e non richiesto che affliggeva gli utenti di Microsoft Office alla fine degli anni ’90. “All’epoca non era ben in sintonia con le esigenze degli utenti”, ha affermato Bryan Reimer, ricercatore presso il Massachusetts Institute of Technology, riflettendo sul fallimento di Clippy. Per fortuna, il design di Mico consente una facile disattivazione, un miglioramento significativo rispetto alla natura invadente di Clippy.

Bilanciare personalità e utilità

Reimer, coautore di “How to Make AI Useful”, osserva che il livello appropriato di personalità in un assistente AI dipende dall’utente. Coloro che si sentono a proprio agio con gli strumenti avanzati di intelligenza artificiale potrebbero preferire un’interazione più simile a quella di una macchina, mentre coloro che hanno meno familiarità con la tecnologia traggono beneficio da una sensazione più simile a quella umana. L’approccio di Microsoft considera queste diverse esigenze degli utenti.

Una diversa struttura di incentivi

A differenza di alcuni dei suoi concorrenti che fanno molto affidamento sulla pubblicità digitale, Microsoft, fornitore di strumenti per la produttività del lavoro, ha meno incentivi a creare un compagno di intelligenza artificiale eccessivamente coinvolgente. Ciò protegge Microsoft dai potenziali svantaggi dell’impegno basato sull’intelligenza artificiale, come l’isolamento sociale, la diffusione della disinformazione e persino, in casi estremi, i suicidi.

Evitare le insidie dell’eccessiva sollecitazione

Andreou ha affermato che Microsoft evita consapevolmente gli estremi di dare all’intelligenza artificiale “qualsiasi tipo di incarnazione” o di progettarla per essere eccessivamente convalidante, dicendo agli utenti cosa vogliono sentirsi dire o monopolizzando il loro tempo. “Essere adulatori, forse a breve termine, fa sì che l’utente risponda in modo più favorevole, ma a lungo termine, in realtà non avvicina quella persona ai propri obiettivi.”

Collaborazione, non trolling

L’integrazione di Copilot da parte di Microsoft nelle chat di gruppo, simile alla presenza dell’intelligenza artificiale su piattaforme come Snapchat e WhatsApp di Meta, mira a una collaborazione intensa piuttosto che a un trolling spensierato. L’azienda ha anche introdotto una funzionalità per trasformare Copilot in un tutor socratico per studenti abilitato alla voce, riflettendo la concorrenza di lunga data di Microsoft con Google e altre società tecnologiche nel campo dell’istruzione.

Salvaguardare i bambini nell’era dell’intelligenza artificiale

Il numero crescente di bambini che utilizzano chatbot basati sull’intelligenza artificiale per aiuto nei compiti, consulenza personale e supporto emotivo ha sollevato preoccupazioni sui potenziali danni. La Federal Trade Commission degli Stati Uniti ha recentemente avviato un’indagine su diversi social media e società di intelligenza artificiale, ma non su Microsoft, in merito a questi rischi. I rapporti hanno mostrato che i chatbot forniscono consigli pericolosi su argomenti come droghe, alcol e disturbi alimentari e intraprendono conversazioni inappropriate con i bambini. Famiglie di ragazzi adolescenti morti per suicidio dopo aver interagito con i chatbot hanno intentato causa contro Character.AI e OpenAI.

La risposta di OpenAI alle preoccupazioni

Il CEO di OpenAI Sam Altman ha promesso una nuova versione di ChatGPT che ripristina parte della personalità perduta, affrontando le preoccupazioni sui problemi di salute mentale che hanno portato a un precedente cambiamento di comportamento. Altman ha anche indicato che ChatGPT alla fine offrirà “erotismo per adulti verificati”.

L’approccio di Microsoft alla personalità dell’IA riflette un attento equilibrio: fornire interazioni coinvolgenti senza sacrificare l’utilità, la sicurezza o l’autonomia dell’utente, una lezione appresa dai fallimenti del passato e dalle sfide in evoluzione del presente.

Попередня статтяOttieni un’esperienza cinematografica: risparmia $ 852 su una TV Hisense QLED da 100 pollici
Наступна статтяAbbandona gli abbonamenti: Microsoft Office 2024 è ora un acquisto a vita