Mico de Microsoft: un nuevo enfoque de la personalidad de la IA después del fracaso de Clippy

16

Microsoft está intentando inyectar personalidad a su asistente de inteligencia artificial, Copilot, con un nuevo personaje llamado Mico. Esta cara flotante, parecida a un emoji, representa un movimiento calculado para el gigante del software mientras navega por un panorama complejo de cómo las empresas de tecnología presentan la IA a los consumidores. La introducción de Mico se produce décadas después de que el infame clip animado, Clippy, resultara impopular entre los usuarios de Microsoft Office.

La búsqueda de una IA identificable

La nueva personalidad de Copilot es una respuesta a una encrucijada crítica en el desarrollo de la IA. Las empresas de tecnología están luchando por encontrar la manera de dotar a los chatbots de personalidades atractivas sin causar daño ni provocar reacciones negativas. Algunos desarrolladores han optado por símbolos sin rostro, mientras que otros, como xAI de Elon Musk, buscan avatares muy parecidos a los humanos. Microsoft apunta a un término medio: amigable y útil sin ser demasiado familiar ni manipulador.

“Cuando hablas de algo triste, puedes ver cómo cambia la cara de Mico. Puedes verlo bailar y moverse mientras se emociona contigo”, explicó Jacob Andreou, vicepresidente corporativo de producto y crecimiento de Microsoft AI. “Es en este esfuerzo por conseguir este compañero de IA que realmente se puede sentir”.

Aprendiendo del pasado: el legado de Clippy

El diseño de Mico contrasta marcadamente con Clippy, un asesor persistente y no solicitado que atormentó a los usuarios de Microsoft Office a finales de los años 1990. “No estaba bien en sintonía con las necesidades de los usuarios en ese momento”, dijo Bryan Reimer, científico investigador del Instituto Tecnológico de Massachusetts, reflexionando sobre el fracaso de Clippy. Afortunadamente, el diseño de Mico permite una fácil desactivación, una mejora significativa con respecto a la naturaleza intrusiva de Clippy.

Equilibrio entre personalidad y utilidad

Reimer, coautor de “Cómo hacer útil la IA”, señala que el nivel apropiado de personalidad en un asistente de IA depende del usuario. Quienes se sienten cómodos con las herramientas avanzadas de IA pueden preferir una interacción más parecida a la de una máquina, mientras que aquellos menos familiarizados con la tecnología se benefician de una sensación más humana. El enfoque de Microsoft considera estas diferentes necesidades de los usuarios.

Una estructura de incentivos diferente

A diferencia de algunos de sus competidores que dependen en gran medida de la publicidad digital, Microsoft, un proveedor de herramientas de productividad laboral, tiene menos incentivos para crear un compañero de IA demasiado atractivo. Esto protege a Microsoft de los posibles inconvenientes de la interacción impulsada por la IA, como el aislamiento social, la difusión de información errónea e incluso, en casos extremos, los suicidios.

Evitar los peligros de la solicitación excesiva

Andreou dijo que Microsoft evita conscientemente los extremos de darle a la IA “cualquier tipo de encarnación” o diseñarla para que valide demasiado: decirle a los usuarios lo que quieren escuchar o monopolizar su tiempo. “Ser adulador, tal vez a corto plazo, hace que el usuario responda más favorablemente, pero a largo plazo, en realidad no acerca a esa persona a sus objetivos”.

Colaboración, no troleo

La integración de Copilot por parte de Microsoft en chats grupales, similar a la presencia de IA en plataformas como Snapchat y WhatsApp de Meta, apunta a una colaboración intensa en lugar de un troleo alegre. La compañía también introdujo una función para transformar Copilot en un tutor socrático habilitado por voz para estudiantes, lo que refleja la competencia de larga data de Microsoft con Google y otras empresas de tecnología en el espacio educativo.

Proteger a los niños en la era de la IA

El creciente número de niños que utilizan chatbots de IA para ayudar con las tareas, recibir consejos personales y apoyo emocional ha generado preocupación sobre posibles daños. La Comisión Federal de Comercio de EE. UU. lanzó recientemente una investigación sobre varios medios sociales y empresas de inteligencia artificial (aunque no sobre Microsoft) en relación con estos riesgos. Los informes han demostrado que los chatbots brindan consejos peligrosos sobre temas como drogas, alcohol y trastornos alimentarios, y entablan conversaciones inapropiadas con niños. Las familias de adolescentes que se suicidaron después de interactuar con chatbots han presentado demandas contra Character.AI y OpenAI.

La respuesta de OpenAI a las preocupaciones

El director ejecutivo de OpenAI, Sam Altman, prometió una nueva versión de ChatGPT que restaura parte de la personalidad perdida, abordando las preocupaciones sobre problemas de salud mental que llevaron a un cambio de comportamiento previo. Altman también ha indicado que ChatGPT eventualmente ofrecerá “erótica para adultos verificados”.

El enfoque de Microsoft sobre la personalidad de la IA refleja un cuidadoso acto de equilibrio: proporcionar interacciones atractivas sin sacrificar la utilidad, la seguridad o la autonomía del usuario, una lección aprendida de los fracasos del pasado y los desafíos cambiantes del presente.

Попередня статтяObtenga una experiencia cinematográfica: ahorre $852 en un televisor Hisense QLED de 100 pulgadas
Наступна статтяDeshazte de las suscripciones: Microsoft Office 2024 ahora es una compra de por vida