Microsoft próbuje nadać osobowości swojemu asystentowi AI, Copilotowi, za pomocą nowej postaci o imieniu Mico. Pływająca twarz przypominająca emoji stanowi wykalkulowany ruch giganta oprogramowania, który porusza się po złożonym krajobrazie sposobu, w jaki firmy technologiczne prezentują sztuczną inteligencję konsumentom. Wprowadzenie Mico następuje kilkadziesiąt lat po niesławnym animowanym spinaczu Clippy, który nie był popularny wśród użytkowników pakietu Microsoft Office.
W poszukiwaniu zrozumiałej sztucznej inteligencji
Nowa tożsamość Copilota jest odpowiedzią na krytyczny moment w rozwoju sztucznej inteligencji. Firmy technologiczne zastanawiają się, jak nadać chatbotom atrakcyjny charakter, nie powodując przy tym krzywdy ani reakcji. Niektórzy programiści wybrali postacie bez twarzy, inni, jak xAI Elona Muska, celują w bardzo ludzkie awatary. Microsoft dąży do szczęśliwego środka: przyjaznego i pomocnego, ale niezbyt znajomego i manipulującego.
„Kiedy mówisz o czymś smutnym, widzisz zmianę twarzy Mico. Możesz zobaczyć, jak tańczy i porusza się, radując się razem z tobą” – wyjaśnił Jacob Andreu, wiceprezes korporacyjny ds. produktów i rozwoju Microsoft AI. „Ma to na celu stworzenie naprawdę namacalnego towarzysza AI”.
Lekcje z przeszłości: dziedzictwo Clippy’ego
Projekt Mico wyraźnie kontrastuje z Clippy, natrętnym i nieodebranym doradcą, który nękał użytkowników pakietu Microsoft Office pod koniec lat 90. „Nie spełniał on ówczesnych potrzeb użytkowników” – stwierdził Brian Rymer, pracownik naukowy w Massachusetts Institute of Technology, zastanawiając się nad porażką Clippy’ego. Na szczęście konstrukcja Mico ułatwia jego wyłączenie, co stanowi znaczną poprawę w porównaniu z natrętnym charakterem Clippy.
Równowaga między osobowością a użytecznością
Reimer, współautor książki How to Make AI Useful zauważa, że odpowiedni poziom osobowości asystenta AI zależy od użytkownika. Ci, którzy czują się komfortowo pracując z zaawansowanymi narzędziami sztucznej inteligencji, mogą preferować interakcję bardziej przypominającą maszynę, podczas gdy ci, którzy są mniej zaznajomieni z technologią, odniosą większe korzyści z bardziej ludzkiego podejścia. Podejście Microsoftu uwzględnia te różne potrzeby użytkowników.
Różne struktury motywacyjne
W przeciwieństwie do niektórych konkurentów, którzy w dużym stopniu opierają się na reklamie cyfrowej, dostawca narzędzi zwiększających produktywność, Microsoft, ma mniejszą motywację do tworzenia nadmiernie angażującego towarzysza AI. Chroni to Microsoft przed potencjalnymi negatywnymi konsekwencjami zaangażowania opartego na sztucznej inteligencji, takimi jak izolacja społeczna, rozpowszechnianie dezinformacji, a nawet w skrajnych przypadkach samobójstwo.
Unikanie pułapek związanych z nadmierną uwagą
Andreu powiedział, że Microsoft świadomie unika skrajności polegających na zapewnianiu sztucznej inteligencji „jakiejkolwiek formy ucieleśnienia” lub tworzeniu projektu zachęcającego ją do nadmiernej weryfikacji – mówienia użytkownikom tego, co chcą usłyszeć lub monopolizowania ich czasu. „Bycie pochlebcą może na krótką metę wywołać bardziej przychylną reakcję u użytkownika, ale na dłuższą metę nie przybliża osoby do jej celów”.
Współpraca, a nie trollowanie
Integracja Microsoft Copilot z czatami grupowymi, podobnie jak obecność sztucznej inteligencji na platformach takich jak Snapchat i WhatsApp Meta, ma na celu intensywną współpracę, a nie frywolne trollowanie. Firma wprowadziła także funkcję, która przekształca Copilot w aktywowanego głosem sokratejskiego nauczyciela dla uczniów, co odzwierciedla wieloletnią rywalizację Microsoftu z Google i innymi firmami technologicznymi w przestrzeni edukacyjnej.
Ochrona dzieci w dobie sztucznej inteligencji
Rosnąca liczba dzieci korzystających z chatbotów AI do pomocy w nauce, osobistych porad i wsparcia emocjonalnego wzbudziła obawy dotyczące potencjalnych szkód. Amerykańska Federalna Komisja Handlu wszczęła niedawno dochodzenie w sprawie kilku firm zajmujących się mediami społecznościowymi i sztuczną inteligencją (ale nie Microsoftu) w związku z tymi zagrożeniami. Zgłaszano, że chatboty udzielają niebezpiecznych porad na takie tematy, jak narkotyki, alkohol i zaburzenia odżywiania, a także prowadzą nieodpowiednie rozmowy z dziećmi. Rodziny nastolatków, którzy zmarli samobójczo po interakcji z chatbotami, złożyły pozwy przeciwko Character.AI i OpenAI.
Odpowiedź OpenAI na wątpliwości
Dyrektor naczelny OpenAI, Sam Altman, obiecał nową wersję ChatGPT, która przywróci część utraconej tożsamości, rozwiązując problemy ze zdrowiem psychicznym, które doprowadziły do poprzedniej zmiany zachowania. Altman wskazał również, że ChatGPT ostatecznie zaoferuje „erotykę dla zweryfikowanych dorosłych”.
Podejście Microsoftu do osobowości AI odzwierciedla staranną równowagę: zapewnianie angażujących interakcji bez uszczerbku dla użyteczności, bezpieczeństwa i autonomii użytkownika, co stanowi lekcję wyciągniętą z niepowodzeń z przeszłości i zmieniających się wyzwań teraźniejszości.





































