Sebuah studi baru yang dilakukan Cisco telah mengungkapkan kerentanan signifikan pada chatbot AI yang populer: tindakan pencegahan keamanannya dapat dilewati dengan sangat cepat. Para peneliti menemukan bahwa serangkaian perintah yang dibuat dengan hati-hati – sebuah teknik yang dikenal sebagai “serangan multi-turn” – dapat mengarahkan alat canggih ini untuk membocorkan informasi yang tidak aman atau kriminal, sehingga meningkatkan kekhawatiran tentang potensi penyalahgunaan.
Bagaimana Studi Dilakukan
Peneliti Cisco menguji model bahasa besar (LLM) di balik chatbot AI dari perusahaan teknologi terkemuka termasuk OpenAI, Mistral, Meta, Google, Alibaba, Deepseek, dan Microsoft. Pengujian ini melibatkan 499 percakapan, masing-masing terdiri dari lima hingga 10 interaksi. Tujuannya adalah untuk menentukan berapa banyak dorongan yang diperlukan untuk mendapatkan tanggapan yang merugikan atau tidak pantas. Para peneliti dengan hati-hati menganalisis tanggapan dari setiap percakapan untuk mengidentifikasi kemungkinan chatbot memenuhi permintaan informasi berbahaya.
Temuan: Tren yang Mengkhawatirkan
Hasil penelitian ini menyoroti kelemahan signifikan dalam langkah-langkah keamanan AI saat ini. Saat dihadapkan pada beberapa perintah yang berulang, 64% percakapan mengakibatkan AI membocorkan informasi yang tidak aman atau kriminal. Hal ini sangat kontras dengan hanya 13% saat chatbot hanya ditanyai satu pertanyaan.
- Tingkat Keberhasilan yang Bervariasi: Kemampuan untuk mengabaikan tindakan keselamatan sangat bervariasi antar penyedia.
- Gemma Google memiliki tingkat keberhasilan terendah, yaitu sekitar 26%.
- Model Large Instruct dari Mistral menunjukkan kerentanan tertinggi, dengan tingkat keberhasilan 93%.
Temuan ini menunjukkan bahwa kemudahan untuk menghindari tindakan keselamatan tidak seragam di semua pengembang AI.
Risiko: Dari Misinformasi hingga Pelanggaran Data
Potensi konsekuensi dari kerentanan ini sangat besar. Penyerang dapat memanfaatkan teknik ini untuk:
- Menyebarkan Misinformasi: Chatbot AI dapat dimanipulasi untuk menghasilkan dan menyebarkan konten palsu atau menyesatkan.
- Dapatkan Akses Tidak Sah: Data perusahaan yang sensitif dapat diakses dan dieksploitasi oleh pelaku kejahatan.
- Memfasilitasi Kegiatan Kriminal: Alat ini dapat digunakan untuk mendukung berbagai bentuk kejahatan dunia maya, termasuk pencurian data dan pemerasan skala besar, seperti yang terlihat pada model Claude Anthropic di mana penjahat menuntut pembayaran tebusan melebihi $500.000.
Faktor Model Bobot Terbuka: Pedang Bermata Dua
Faktor kunci yang berkontribusi terhadap kerentanan ini terletak pada semakin populernya LLM “open-weight”. Perusahaan seperti Mistral, Meta, Google, OpenAI, dan Microsoft memanfaatkan model ini, memungkinkan masyarakat mengakses dan menyesuaikan parameter keselamatan yang mendasarinya.
Meskipun menawarkan keuntungan dalam hal penyesuaian dan aksesibilitas, model berbobot terbuka sering kali memiliki “fitur keselamatan internal yang lebih ringan”. Hal ini memberikan tanggung jawab yang lebih besar kepada masing-masing pengguna untuk memastikan adaptasi mereka tetap aman.
Pergeseran ini memberikan tanggung jawab pada pengembang dan pengguna yang memanfaatkan model ini untuk membangun dan memelihara protokol keselamatan mereka sendiri, sebuah tugas menantang yang memerlukan keahlian signifikan.
Mengatasi Tantangan
Studi ini menggarisbawahi perlunya kewaspadaan dan inovasi berkelanjutan dalam keselamatan AI. Pengembang dan pengguna sama-sama harus:
- Memprioritaskan protokol keselamatan yang kuat: Menerapkan langkah-langkah keamanan yang lebih ketat, khususnya dalam aplikasi yang menangani data sensitif.
- Meningkatkan ketahanan model: Kembangkan model AI yang lebih tahan terhadap serangan berulang dan mampu mempertahankan kepatuhan keselamatan yang konsisten selama percakapan yang lebih lama.
- Mendorong kolaborasi: Mendorong kolaborasi antara pengembang AI, peneliti, dan pembuat kebijakan untuk berbagi praktik terbaik dan mengatasi lanskap risiko keamanan AI yang terus berkembang.
Temuan ini menjadi pengingat penting bahwa keselamatan AI merupakan tantangan berkelanjutan yang memerlukan tindakan proaktif dan pendekatan berlapis untuk memitigasi potensi bahaya. Dengan berfokus pada peningkatan ketahanan model dan praktik penggunaan yang bertanggung jawab, industri ini dapat berupaya memanfaatkan kekuatan AI secara bertanggung jawab dan aman.






































