Micosoft від Microsoft: новий підхід до особистості ШІ після провалу Clippy

5

Корпорація Майкрософт намагається додати трохи індивідуальності своєму помічнику зі штучним інтелектом, Copilot, за допомогою нового персонажа під назвою Міко. Плаваюче обличчя, схоже на емодзі, є продуманим кроком для програмного гіганта, оскільки він орієнтується в складному ландшафті того, як технологічні компанії представляють ШІ споживачам. Представлення Mico відбулося через десятиліття після сумнозвісної анімованої скріпки Clippy, яка не була популярною серед користувачів Microsoft Office.

У пошуках зрозумілого ШІ

Нова ідентичність Copilot є відповіддю на критичний перехрестя в розвитку штучного інтелекту. Технічні компанії з’ясовують, як надати чат-ботам привабливих особистостей, не завдаючи шкоди та не викликаючи негативної реакції. Деякі розробники вибрали безликих персонажів, інші, як-от xAI Ілона Маска, прагнуть створити дуже людські аватари. Корпорація Майкрософт прагне до щасливого середовища: доброзичливого та корисного, але не надто фамільярного чи маніпулятивного.

“Коли ви говорите про щось сумне, ви бачите, як змінюється обличчя Міко. Ви можете бачити, як він танцює і рухається, коли він радіє разом з вами”, – пояснив Джейкоб Андреу, корпоративний віце-президент із продуктів і розвитку Microsoft AI. «Це спроба створити справді відчутний компаньйон ШІ».

Уроки минулого: Спадщина Кліппі

Дизайн Mico різко контрастує з Clippy, настирливим і незатребуваним порадником, який мучив користувачів Microsoft Office наприкінці 1990-х років. «Це не відповідало потребам користувачів у той час», — сказав Браян Раймер, науковий співробітник Массачусетського технологічного інституту, розмірковуючи про невдачу Clippy. На щастя, дизайн Mico дозволяє легко вимкнути його, що є значним покращенням у порівнянні з нав’язливим характером Clippy.

Баланс між особистістю та корисністю

Реймер, співавтор книги «Як зробити штучний інтелект корисним», зазначає, що відповідний рівень особистості помічника ШІ залежить від користувача. Ті, кому зручно працювати з передовими інструментами штучного інтелекту, можуть віддати перевагу взаємодії, схожій на машину, тоді як ті, хто менше знайомий із технологіями, отримають більше переваг від більш людського підходу. Підхід Microsoft враховує ці різні потреби користувачів.

Різні структури заохочення

На відміну від деяких конкурентів, які значною мірою покладаються на цифрову рекламу, постачальник інструментів продуктивності Microsoft має менше стимулів створювати надто привабливий компаньйон AI. Це захищає Microsoft від потенційних негативних наслідків залучення штучного інтелекту, таких як соціальна ізоляція, поширення дезінформації та навіть, у крайніх випадках, самогубство.

Уникнення пасток надмірної уваги

Андреу сказав, що Microsoft свідомо уникає крайнощів надання ШІ «будь-якої форми втілення» або створення дизайну, який заохочує його до надмірної перевірки — говорити користувачам те, що вони хочуть почути, або монополізувати їхній час. «Леститель може в короткостроковій перспективі викликати більш сприятливу реакцію користувача, але в довгостроковій перспективі це не наближає людину до її цілей».

Співпраця, а не тролінг

Інтеграція Microsoft Copilot у групові чати, подібно до присутності штучного інтелекту на таких платформах, як Snapchat і WhatsApp Meta, націлена на інтенсивну співпрацю, а не на легковажний тролінг. Компанія також представила функцію, яка перетворює Copilot на голосового вчителя Сократа для студентів, що відображає давнє суперництво Microsoft з Google та іншими технологічними компаніями в освітньому просторі.

Захист дітей в епоху ШІ

Зростаюча кількість дітей, які використовують чат-боти штучного інтелекту для навчання, особистої поради та емоційної підтримки, викликає занепокоєння щодо потенційної шкоди. Федеральна торгова комісія США нещодавно розпочала розслідування щодо кількох соціальних медіа та компаній ШІ (хоча не Microsoft) щодо цих ризиків. Повідомлялося, що чат-боти надають небезпечні поради на такі теми, як наркотики, алкоголь і розлади харчування, а також вступають у неприйнятні розмови з дітьми. Сім’ї підлітків, які покінчили життя самогубством після взаємодії з чат-ботами, подали позови проти Character.AI і OpenAI.

Відповідь OpenAI на занепокоєння

Виконавчий директор OpenAI Сем Альтман пообіцяв нову версію ChatGPT, яка відновить частину втраченої особистості шляхом вирішення проблем психічного здоров’я, які призвели до попередньої зміни поведінки. Альтман також зазначив, що ChatGPT з часом запропонує «еротику для перевірених дорослих».

Підхід Microsoft до особистості штучного інтелекту відображає ретельний баланс: забезпечення захоплюючої взаємодії без шкоди для користі, безпеки чи автономності, урок, отриманий з невдач минулого та мінливих викликів сьогодення.

Попередня статтяНасолоджуйтесь кінематографічною якістю: заощадьте 852 долари на 100-дюймовому QLED-телевізорі Hisense