Microsofts Mico: Ein neuer Ansatz zur KI-Persönlichkeit nach dem Scheitern von Clippy

7

Microsoft versucht, seinem KI-Assistenten Copilot mit einem neuen Charakter namens Mico Persönlichkeit zu verleihen. Dieses schwebende, Emoji-ähnliche Gesicht stellt einen kalkulierten Schachzug des Softwareriesen dar, der sich durch eine komplexe Landschaft bewegt, in der Technologieunternehmen den Verbrauchern KI präsentieren. Die Einführung von Mico erfolgt Jahrzehnte, nachdem sich die berüchtigte animierte Büroklammer Clippy bei Microsoft Office-Benutzern als unbeliebt erwiesen hat.

Die Suche nach zuordenbarer KI

Die neue Persönlichkeit von Copilot ist eine Reaktion auf einen kritischen Scheideweg in der KI-Entwicklung. Technologieunternehmen setzen sich mit der Frage auseinander, wie sie Chatbots ansprechende Persönlichkeiten verleihen können, ohne Schaden anzurichten oder Gegenreaktionen zu provozieren. Einige Entwickler haben sich für gesichtslose Symbole entschieden, während andere, wie Elon Musks xAI, stark menschenähnliche Avatare anstreben. Microsoft strebt einen Mittelweg an: freundlich und hilfsbereit, ohne übermäßig vertraut oder manipulativ zu wirken.

„Wenn Sie über etwas Trauriges sprechen, können Sie sehen, wie sich Micos Gesicht verändert. Sie können sehen, wie es herumtanzt und sich bewegt, während es mit Ihnen in Aufregung gerät“, erklärte Jacob Andreou, Corporate Vice President für Produkt und Wachstum bei Microsoft AI. „Es ist das Bemühen, diesen KI-Begleiter wirklich zu landen, den man wirklich spüren kann.“

Aus der Vergangenheit lernen: Clippys Vermächtnis

Micos Design steht in krassem Gegensatz zu Clippy, einem hartnäckigen, unaufgeforderten Ratgeber, der Microsoft Office-Benutzer Ende der 1990er Jahre plagte. „Es war damals nicht gut auf die Benutzerbedürfnisse abgestimmt“, sagte Bryan Reimer, Forscher am Massachusetts Institute of Technology, über das Scheitern von Clippy. Glücklicherweise ermöglicht das Design von Mico eine einfache Deaktivierung, eine deutliche Verbesserung gegenüber der aufdringlichen Natur von Clippy.

Balance zwischen Persönlichkeit und Nutzen

Reimer, Co-Autor von „How to Make AI Useful“, weist darauf hin, dass das angemessene Maß an Persönlichkeit eines KI-Assistenten vom Benutzer abhängt. Diejenigen, die mit fortschrittlichen KI-Tools vertraut sind, bevorzugen möglicherweise eine eher maschinenähnliche Interaktion, während diejenigen, die mit Technologie weniger vertraut sind, von einem eher menschenähnlichen Gefühl profitieren. Der Ansatz von Microsoft berücksichtigt diese unterschiedlichen Benutzerbedürfnisse.

Eine andere Anreizstruktur

Im Gegensatz zu einigen seiner Konkurrenten, die stark auf digitale Werbung angewiesen sind, hat Microsoft, ein Anbieter von Arbeitsproduktivitätstools, weniger Anreize, einen übermäßig ansprechenden KI-Begleiter zu entwickeln. Dies schützt Microsoft vor den potenziellen Nachteilen des KI-gesteuerten Engagements wie sozialer Isolation, der Verbreitung von Fehlinformationen und in extremen Fällen sogar Selbstmorden.

Die Fallstricke übermäßiger Werbung vermeiden

Andreou sagte, Microsoft vermeide bewusst die Extreme, der KI „jede Art von Verkörperung“ zu geben oder sie übermäßig validierend zu gestalten – den Benutzern zu sagen, was sie hören wollen, oder ihre Zeit zu monopolisieren. „Wenn ein Benutzer kriecherisch ist – vielleicht kurzfristig –, reagiert er positiver, aber auf lange Sicht bringt es ihn seinen Zielen tatsächlich nicht näher.“

Zusammenarbeit, kein Trolling

Microsofts Integration von Copilot in Gruppenchats zielt, ähnlich wie die Präsenz von KI auf Plattformen wie Snapchat und Metas WhatsApp, eher auf intensive Zusammenarbeit als auf unbeschwertes Trollen. Das Unternehmen führte außerdem eine Funktion ein, um Copilot in einen sprachgesteuerten, sokratischen Tutor für Studenten zu verwandeln, was den langjährigen Wettbewerb von Microsoft mit Google und anderen Technologieunternehmen im Bildungsbereich widerspiegelt.

Schutz von Kindern im Zeitalter der KI

Die zunehmende Zahl von Kindern, die KI-Chatbots zur Hausaufgabenhilfe, persönlichen Beratung und emotionalen Unterstützung nutzen, hat Bedenken hinsichtlich möglicher Schäden geweckt. Die US-amerikanische Federal Trade Commission hat kürzlich eine Untersuchung gegen mehrere Social-Media- und KI-Unternehmen – jedoch nicht gegen Microsoft – hinsichtlich dieser Risiken eingeleitet. Berichten zufolge geben Chatbots gefährliche Ratschläge zu Themen wie Drogen, Alkohol und Essstörungen und führen unangemessene Gespräche mit Kindern. Familien von Teenagern, die nach der Interaktion mit Chatbots durch Selbstmord gestorben sind, haben Klagen gegen Character.AI und OpenAI eingereicht.

OpenAIs Antwort auf Bedenken

Sam Altman, CEO von OpenAI, hat eine neue Version von ChatGPT versprochen, die einen Teil der verlorenen Persönlichkeit wiederherstellt und Bedenken hinsichtlich psychischer Probleme ausräumt, die zu einer früheren Verhaltensänderung geführt haben. Altman hat auch angedeutet, dass ChatGPT irgendwann „Erotik für verifizierte Erwachsene“ anbieten wird.

Der Ansatz von Microsoft zur KI-Persönlichkeit spiegelt einen sorgfältigen Balanceakt wider: Bereitstellung ansprechender Interaktionen ohne Einbußen bei Nutzen, Sicherheit oder Benutzerautonomie – eine Lektion, die aus den Fehlern der Vergangenheit und den sich entwickelnden Herausforderungen der Gegenwart gelernt wurde.

Попередня статтяHolen Sie sich ein Kinoerlebnis: Sparen Sie 852 $ beim Kauf eines 100-Zoll-QLED-Fernsehers von Hisense
Наступна статтяSchluss mit Abonnements: Microsoft Office 2024 ist jetzt ein lebenslanger Kauf