Microsoft пытается привнести некоторую индивидуальность в своего AI-ассистента, Copilot, с помощью нового персонажа под названием Mico. Плавающее лицо, похожее на эмодзи, представляет собой расчетный шаг для программного гиганта, поскольку он ориентируется в сложном ландшафте того, как технологические компании представляют ИИ потребителям. Введение Mico происходит спустя десятилетия после печально известтого анимированного скрепки Clippy, который не пришелся по вкусу пользователям Microsoft Office.
В поисках понятного ИИ
Новая личность Copilot — это ответ на критический перекресток в развитии ИИ. Технологические компании решают, как наделить чат-ботов привлекательными личностями, не причиняя вреда и не вызывая негативную реакцию. Некоторые разработчики выбрали безликие символы, другие, как xAI Илона Маска, стремятся к высокочеловеческим аватарам. Microsoft стремится к золотой середине: дружелюбный и полезный, но не чрезмерно знакомый или манипулятивный.
«Когда вы говорите о чем-то грустном, вы можете видеть, как меняется лицо Mico. Вы можете видеть, как оно танцует и двигается, когда радуется вместе с вами», — объяснил Джейкоб Андреу, корпоративный вице-президент по продуктам и развитию Microsoft AI. «Это в усилиях по созданию действительно ощутимого AI-компаньона».
Уроки прошлого: Наследие Clippy
Дизайн Mico резко контрастирует с Clippy, навязчивого и невостребованного советчика, который мучил пользователей Microsoft Office в конце 1990-х годов. «В то время он не соответствовал потребностям пользователей», — сказал Брайан Раймер, научный сотрудник Массачусетского технологического института, размышляя о неудаче Clippy. К счастью, дизайн Mico позволяет легко отключать его, что является значительным улучшением по сравнению с навязчивой природой Clippy.
Баланс между личностью и полезностью
Раймер, соавтор книги «Как сделать ИИ полезным», отмечает, что подходящий уровень личности в AI-ассистенте зависит от пользователя. Те, кто комфортно работает с продвинутыми AI-инструментами, могут предпочесть более машинное взаимодействие, в то время как те, кто менее знаком с технологиями, получат больше пользы от более человечного подхода. Подход Microsoft учитывает эти различные потребности пользователей.
Различная структура стимулирования
В отличие от некоторых конкурентов, которые в значительной степени полагаются на цифровую рекламу, Microsoft, поставщик инструментов для повышения производительности работы, имеет меньше стимулов для создания чрезмерно вовлекающего AI-компаньона. Это ограждает Microsoft от потенциальных негативных последствий вовлечения на базе ИИ, таких как социальная изоляция, распространение дезинформации и даже, в крайних случаях, самоубийства.
Избежание ловушек чрезмерного внимания
Андреу сказал, что Microsoft сознательно избегает крайностей, заключающихся в предоставлении ИИ «какой-либо формы воплощения» или в создании дизайна, побуждающего его чрезмерно подтверждать — говорить пользователям то, что они хотят слышать, или монополизировать их время. «Быть льстецом — в краткосрочной перспективе, возможно — вызывает у пользователя более благоприятную реакцию, но в долгосрочной перспективе это не приближает человека к его целям».
Сотрудничество, а не троллинг
Интеграция Microsoft Copilot в групповые чаты, подобная присутствию ИИ на таких платформах, как Snapchat и WhatsApp Meta, направлена на интенсивное сотрудничество, а не на легкомысленный троллинг. Компания также представила функцию преобразования Copilot в голосового, сократовского учителя для студентов, отражая давнюю конкуренцию Microsoft с Google и другими технологическими компаниями в сфере образования.
Защита детей в эпоху ИИ
Растущее число детей, использующих чат-боты ИИ для помощи в учебе, личных советов и эмоциональной поддержки, вызвало опасения по поводу потенциального вреда. Федеральная торговая комиссия США недавно начала расследование в отношении нескольких социальных сетей и компаний, занимающихся ИИ (хотя и не Microsoft) в связи с этими рисками. Сообщается, что чат-боты предоставляют опасные советы по таким темам, как наркотики, алкоголь и расстройства пищевого поведения, и участвуют в неуместных разговорах с детьми. Семьи подростков, которые умерли от самоубийства после общения с чат-ботами, подали иски против Character.AI и OpenAI.
Ответ OpenAI на опасения
Исполнительный директор OpenAI Сэм Альтман пообещал новую версию ChatGPT, которая восстанавливает часть утерянной личности, решая проблемы с психическим здоровьем, которые привели к предыдущему изменению поведения. Альтман также указал, что ChatGPT со временем предложит «эротику для проверенных взрослых».
Подход Microsoft к личности ИИ отражает тщательный баланс: предоставление привлекательных взаимодействий без ущерба для полезности, безопасности или автономии пользователя, урок, извлеченный из неудач прошлого и меняющихся вызовов настоящего.




















