Microsoft mencoba memasukkan kepribadian ke dalam asisten AI-nya, Copilot, dengan karakter baru bernama Mico. Wajah mengambang seperti emoji ini mewakili langkah yang diperhitungkan oleh raksasa perangkat lunak ini dalam menavigasi lanskap kompleks tentang bagaimana perusahaan teknologi menghadirkan AI kepada konsumen. Pengenalan Mico terjadi beberapa dekade setelah klip kertas animasi terkenal, Clippy, terbukti tidak populer di kalangan pengguna Microsoft Office.
Pencarian AI yang Terkait
Persona baru Copilot adalah respons terhadap persimpangan kritis dalam pengembangan AI. Perusahaan-perusahaan teknologi sedang bergulat dengan cara memberikan chatbots kepribadian yang menarik tanpa menimbulkan kerugian atau menimbulkan reaksi balik. Beberapa pengembang telah memilih simbol tanpa wajah, sementara yang lain, seperti xAI milik Elon Musk, mengejar avatar yang sangat mirip manusia. Microsoft bertujuan untuk jalan tengah: ramah dan membantu tanpa terlalu akrab atau manipulatif.
“Saat Anda berbicara tentang sesuatu yang menyedihkan, Anda dapat melihat wajah Mico berubah. Anda dapat melihatnya menari dan bergerak seiring dengan kegembiraannya terhadap Anda,” jelas Jacob Andreou, wakil presiden perusahaan untuk produk dan pertumbuhan Microsoft AI. “Dalam upaya untuk benar-benar mendapatkan pendamping AI inilah yang benar-benar dapat Anda rasakan.”
Belajar dari Masa Lalu: Warisan Clippy
Desain Mico sangat kontras dengan Clippy, penasihat yang gigih dan tidak diminta yang menjangkiti pengguna Microsoft Office di akhir tahun 1990an. “Clippy tidak sesuai dengan kebutuhan pengguna pada saat itu,” kata Bryan Reimer, ilmuwan riset di Massachusetts Institute of Technology, yang merefleksikan kegagalan Clippy. Untungnya, desain Mico memungkinkan penonaktifan yang mudah, peningkatan yang signifikan dibandingkan sifat Clippy yang mengganggu.
Menyeimbangkan Kepribadian dan Utilitas
Reimer, salah satu penulis “Bagaimana Membuat AI Berguna,” mencatat bahwa tingkat kepribadian yang tepat dalam asisten AI bergantung pada penggunanya. Mereka yang terbiasa dengan alat AI yang canggih mungkin lebih menyukai interaksi yang lebih mirip mesin, sementara mereka yang kurang akrab dengan teknologi mendapatkan manfaat dari interaksi yang lebih mirip manusia. Pendekatan Microsoft mempertimbangkan kebutuhan pengguna yang berbeda-beda.
Struktur Insentif yang Berbeda
Berbeda dengan beberapa pesaingnya yang sangat bergantung pada periklanan digital, Microsoft, penyedia alat produktivitas kerja, memiliki lebih sedikit insentif untuk menciptakan pendamping AI yang terlalu menarik. Hal ini melindungi Microsoft dari potensi kerugian dari keterlibatan yang didorong oleh AI, seperti isolasi sosial, penyebaran informasi yang salah, dan bahkan, dalam kasus yang ekstrim, bunuh diri.
Menghindari Jebakan Permintaan Berlebihan
Andreou mengatakan Microsoft secara sadar menghindari tindakan ekstrem dalam memberikan AI “perwujudan apa pun” atau merancangnya agar terlalu memvalidasi—memberi tahu pengguna apa yang ingin mereka dengar atau memonopoli waktu mereka. “Menjadi penjilat—mungkin dalam jangka pendek—memiliki respons pengguna yang lebih baik, tetapi dalam jangka panjang, hal itu sebenarnya tidak membuat orang tersebut lebih dekat dengan tujuannya.”
Kolaborasi, Bukan Trolling
Integrasi Copilot yang dilakukan Microsoft ke dalam obrolan grup, mirip dengan kehadiran AI pada platform seperti Snapchat dan WhatsApp Meta, bertujuan untuk kolaborasi yang intens daripada trolling ringan. Perusahaan ini juga memperkenalkan fitur untuk mengubah Copilot menjadi tutor Socrates yang dilengkapi suara untuk siswa, yang mencerminkan persaingan lama Microsoft dengan Google dan perusahaan teknologi lainnya di bidang pendidikan.
Melindungi Anak-Anak di Era AI
Meningkatnya jumlah anak-anak yang menggunakan chatbot AI untuk membantu pekerjaan rumah, nasihat pribadi, dan dukungan emosional telah menimbulkan kekhawatiran akan potensi bahayanya. Komisi Perdagangan Federal AS baru-baru ini meluncurkan penyelidikan terhadap beberapa perusahaan media sosial dan AI—meskipun bukan Microsoft—mengenai risiko ini. Laporan menunjukkan bahwa chatbot memberikan nasihat berbahaya tentang topik seperti narkoba, alkohol, dan gangguan makan, serta terlibat dalam percakapan yang tidak pantas dengan anak-anak. Keluarga remaja laki-laki yang meninggal karena bunuh diri setelah berinteraksi dengan chatbot telah mengajukan tuntutan hukum terhadap Character.AI dan OpenAI.
Tanggapan OpenAI terhadap Kekhawatiran
CEO OpenAI Sam Altman telah menjanjikan versi baru ChatGPT yang mengembalikan beberapa kepribadian yang hilang, mengatasi kekhawatiran tentang masalah kesehatan mental yang menyebabkan perubahan perilaku sebelumnya. Altman juga mengindikasikan bahwa ChatGPT pada akhirnya akan menawarkan “erotika untuk orang dewasa yang terverifikasi.”
Pendekatan Microsoft terhadap kepribadian AI mencerminkan tindakan penyeimbangan yang cermat: menyediakan interaksi yang menarik tanpa mengorbankan utilitas, keamanan, atau otonomi pengguna, sebuah pembelajaran dari kegagalan di masa lalu dan tantangan yang terus berkembang di masa kini.





































