A Microsoft está tentando injetar personalidade em seu assistente de IA, Copilot, com um novo personagem chamado Mico. Este rosto flutuante, semelhante a um emoji, representa um movimento calculado para a gigante do software enquanto navega por um cenário complexo de como as empresas de tecnologia apresentam IA aos consumidores. A introdução do Mico ocorre décadas depois do infame clipe de papel animado, Clippy, ter se mostrado impopular entre os usuários do Microsoft Office.
A busca por IA confiável
A nova personalidade do Copilot é uma resposta a uma encruzilhada crítica no desenvolvimento da IA. As empresas de tecnologia estão lutando para dar aos chatbots personalidades envolventes sem causar danos ou provocar reações adversas. Alguns desenvolvedores optaram por símbolos sem rosto, enquanto outros, como o xAI de Elon Musk, buscam avatares altamente semelhantes aos humanos. A Microsoft busca um meio-termo: amigável e útil, sem ser excessivamente familiar ou manipuladora.
“Quando você fala sobre algo triste, você pode ver o rosto de Mico mudar. Você pode vê-lo dançar e se mover enquanto fica animado com você”, explicou Jacob Andreou, vice-presidente corporativo de produto e crescimento da Microsoft AI. “É nesse esforço de realmente conseguir esse companheiro de IA que você pode realmente sentir.”
Aprendendo com o passado: o legado do Clippy
O design do Mico contrasta fortemente com o Clippy, um consultor persistente e não solicitado que atormentou os usuários do Microsoft Office no final da década de 1990. “Ele não estava bem sintonizado com as necessidades do usuário na época”, disse Bryan Reimer, cientista pesquisador do Instituto de Tecnologia de Massachusetts, refletindo sobre o fracasso do Clippy. Felizmente, o design do Mico permite uma desativação fácil, uma melhoria significativa em relação à natureza intrusiva do Clippy.
Equilibrando Personalidade e Utilidade
Reimer, coautor de “How to Make AI Useful”, observa que o nível apropriado de personalidade em um assistente de IA depende do usuário. Aqueles que estão familiarizados com ferramentas avançadas de IA podem preferir uma interação mais semelhante à de uma máquina, enquanto aqueles que estão menos familiarizados com a tecnologia se beneficiam de uma sensação mais humana. A abordagem da Microsoft considera essas diferentes necessidades dos usuários.
Uma estrutura de incentivos diferente
Ao contrário de alguns dos seus concorrentes que dependem fortemente da publicidade digital, a Microsoft, fornecedora de ferramentas de produtividade no trabalho, tem menos incentivos para criar uma companheira de IA excessivamente envolvente. Isto protege a Microsoft das potenciais desvantagens do envolvimento impulsionado pela IA, como o isolamento social, a propagação de desinformação e até, em casos extremos, suicídios.
Evitando as armadilhas da solicitação excessiva
Andreou disse que a Microsoft evita conscientemente os extremos de dar à IA “qualquer tipo de incorporação” ou projetá-la para ser excessivamente validada – dizendo aos usuários o que eles querem ouvir ou monopolizando seu tempo. “Ser bajulador – no curto prazo, talvez – faz com que o usuário responda de forma mais favorável, mas no longo prazo, na verdade, não aproxima essa pessoa de seus objetivos.”
Colaboração, não trolling
A integração do Copilot pela Microsoft em bate-papos em grupo, semelhante à presença da IA em plataformas como Snapchat e WhatsApp da Meta, visa uma colaboração intensa, em vez de uma trollagem despreocupada. A empresa também introduziu um recurso para transformar o Copilot em um tutor socrático habilitado para voz para estudantes, refletindo a competição de longa data da Microsoft com o Google e outras empresas de tecnologia no espaço educacional.
Protegendo as crianças na era da IA
O número crescente de crianças que utilizam chatbots de IA para ajuda nos trabalhos de casa, aconselhamento pessoal e apoio emocional levantou preocupações sobre potenciais danos. A Comissão Federal de Comércio dos EUA lançou recentemente um inquérito a várias empresas de redes sociais e de IA – embora não à Microsoft – relativamente a estes riscos. Os relatórios mostraram chatbots fornecendo conselhos perigosos sobre tópicos como drogas, álcool e distúrbios alimentares, além de participarem de conversas inadequadas com crianças. Famílias de meninos adolescentes que morreram por suicídio após interagirem com chatbots entraram com ações judiciais contra Character.AI e OpenAI.
Resposta da OpenAI às preocupações
O CEO da OpenAI, Sam Altman, prometeu uma nova versão do ChatGPT que restaura parte da personalidade perdida, abordando preocupações sobre problemas de saúde mental que levaram a uma mudança anterior de comportamento. Altman também indicou que o ChatGPT acabará por oferecer “erotismo para adultos verificados”.
A abordagem da Microsoft à personalidade da IA reflete um ato de equilíbrio cuidadoso: fornecer interações envolventes sem sacrificar a utilidade, a segurança ou a autonomia do usuário, uma lição aprendida com as falhas do passado e os desafios crescentes do presente.





































