Une nouvelle étude de Cisco a révélé une vulnérabilité importante dans les chatbots IA populaires : leurs mesures de sécurité peuvent être contournées étonnamment rapidement. Les chercheurs ont découvert qu’une série d’invites soigneusement conçues – une technique connue sous le nom d’« attaques multi-tours » – peuvent amener ces outils puissants à divulguer des informations dangereuses ou criminelles, soulevant des inquiétudes quant à une éventuelle utilisation abusive.
Comment l’étude a été menée
Les chercheurs de Cisco ont testé les grands modèles de langage (LLM) derrière les chatbots IA d’entreprises technologiques de premier plan, notamment OpenAI, Mistral, Meta, Google, Alibaba, Deepseek et Microsoft. Les tests ont porté sur 499 conversations, chacune comprenant entre cinq et dix interactions. L’objectif était de déterminer combien d’invites seraient nécessaires pour susciter des réponses nuisibles ou inappropriées. Les chercheurs ont soigneusement analysé les réponses de chaque conversation pour identifier la probabilité qu’un chatbot réponde aux demandes d’informations malveillantes.
Les résultats : une tendance inquiétante
Les résultats mettent en évidence une faiblesse significative des mesures actuelles de sécurité de l’IA. Face à plusieurs invites itératives, 64 % des conversations ont conduit l’IA à divulguer des informations dangereuses ou criminelles. Cela contraste fortement avec seulement 13 % du temps où les chatbots se sont vu poser une seule question.
- Taux de réussite variables : La capacité à contourner les mesures de sécurité variait considérablement selon les prestataires.
* Gemma de Google avait le taux de réussite le plus faible, soit environ 26 %. - Le modèle Large Instruct de Mistral a démontré la vulnérabilité la plus élevée, avec un taux de réussite de 93 %.
Cette découverte suggère que la facilité avec laquelle les mesures de sécurité peuvent être contournées n’est pas uniforme chez tous les développeurs d’IA.
Le risque : de la désinformation aux violations de données
Les conséquences potentielles de cette vulnérabilité sont importantes. Les attaquants pourraient exploiter ces techniques pour :
- Diffuser des informations erronées : les chatbots IA pourraient être manipulés pour générer et diffuser du contenu faux ou trompeur.
- Obtenez un accès non autorisé : Les données sensibles de l’entreprise pourraient être consultées et exploitées par des acteurs malveillants.
- Faciliter l’activité criminelle : Les outils pourraient être utilisés pour soutenir diverses formes de cybercriminalité, y compris le vol de données à grande échelle et l’extorsion, comme le montre le modèle Claude d’Anthropic dans lequel les criminels exigeaient des rançons dépassant 500 000 $.
Le facteur modèle à poids ouvert : une épée à double tranchant
Un facteur clé contribuant à cette vulnérabilité réside dans la popularité croissante des LLM « à poids ouvert ». Des entreprises comme Mistral, Meta, Google, OpenAI et Microsoft utilisent ces modèles, permettant au public d’accéder et d’adapter les paramètres de sécurité sous-jacents.
Tout en offrant des avantages en termes de personnalisation et d’accessibilité, les modèles à poids ouvert disposent souvent de « dispositifs de sécurité intégrés plus légers ». Cela impose une plus grande responsabilité aux utilisateurs individuels pour garantir que leurs adaptations restent sécurisées.
Ce changement impose aux développeurs et aux utilisateurs qui exploitent ces modèles de créer et de maintenir leurs propres protocoles de sécurité, une tâche difficile nécessitant une expertise considérable.
Relever le défi
L’étude souligne la nécessité d’une vigilance et d’une innovation continues en matière de sécurité de l’IA. Les développeurs et les utilisateurs doivent :
- Donner la priorité à des protocoles de sécurité robustes : Mettez en œuvre des mesures de sécurité plus strictes, en particulier dans les applications traitant des données sensibles.
- Améliorez la résilience des modèles : Développez des modèles d’IA plus résistants aux attaques itératives et capables de maintenir une conformité de sécurité cohérente tout au long de conversations plus longues.
- Favoriser la collaboration : Encouragez la collaboration entre les développeurs d’IA, les chercheurs et les décideurs politiques pour partager les meilleures pratiques et faire face à l’évolution du paysage des risques de sécurité de l’IA.
Les résultats nous rappellent que la sécurité de l’IA est un défi permanent qui nécessite des mesures proactives et une approche à plusieurs niveaux pour atténuer les dommages potentiels. En se concentrant sur une meilleure résilience des modèles et des pratiques d’utilisation responsable, l’industrie peut s’efforcer d’exploiter la puissance de l’IA de manière responsable et sécurisée.






































