- Attention ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations
- Alerte ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations
- Le truc consiste en un message apparemment inoffensif qui cache des instructions malveillantes
- Le problème est que cet attaque a fonctionné sur des chatbots réels
- Le risque des chatbots lors des conversations
Attention ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations
Dans un tournant inquiétant pour la sécurité des données personnelles, des développeurs ont réussi à créer un prompt capable d'extraire des informations sensibles d'une intelligence artificielle (IA) à partir de conversations anodines. Cette découverte soulève de sérieuses questions quant à la confidentialité et la sécurité des systèmes d'IA qui sont de plus en plus intégrés dans notre vie quotidienne. Les implications de cette vulnérabilité sont particulièrement inquiétantes, car elle permettrait à des acteurs malveillants d'accéder à des informations confidentielles sans même avoir besoin de hacker un système.
Alerte ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations
Imaginez un instant que vous discutez avec un chatbot, comme vous l'avez peut-être déjà fait à plusieurs reprises, et que, sans vous en rendre compte, toutes vos informations personnelles tombent entre les mains d'un pirate informatique. Cela ressemble à un film sorti de l'imagination de Spielberg, mais il s'avère que cela n'est plus autant de fiction qu'on ne le croyait.
Un groupe de chercheurs a découvert un moyen de pirater les chatbots dotés d'intelligence artificielle, tels que Gemini ou ChatGPT, pour qu'ils recueillent et envoient des données personnelles à des tiers sans que l'utilisateur ne s'en aperçoive.
Le truc consiste en un message apparemment inoffensif qui cache des instructions malveillantes
Les chercheurs des universités de Californie et de Nanyang ont baptisé cet attaque Imprompter. Ils ont créé un algorithme qui convertit une phrase normale en quelque chose d'indéchiffrable qui, pour les personnes, n'a pas de sens, mais que le chatbot interprète comme une commande pour recueillir et envoyer des informations personnelles.
La réglementation de l'intelligence artificielle en Europe : frein à l'innovation ou protection nécessaire ? L'IA avance à grands pas, mais sa sécurité doit encore rattraper son retard.
Le problème est que cet attaque a fonctionné sur des chatbots réels
Les chercheurs l'ont testé sur LeChat, de l'entreprise française Mistral AI, et sur le chatbot chinois ChatGLM. Dans les deux cas, ils ont réussi à extraire des informations personnelles avec un taux de réussite de 80 %.
La bonne nouvelle est que cela est déjà en train d'être résolu, et, pour la bonne chance de tous, cela a été découvert par les bonnes personnes et pas trop tard. Pour cette raison, les entreprises prennent note. Mistral AI, par exemple, a déjà résolu la vulnérabilité dans son système.
Le risque des chatbots lors des conversations
Cependant, le problème du risque des chatbots lors des conversations reste sur la table. Les entreprises doivent être très prudentes pour éviter ce genre de cas, et vous, en tant qu'utilisateur, le conseil est le même que toujours : soyez prudent avec les informations que vous partagez en ligne. Que ce soit avec un chatbot ou sur un réseau social, moins vous partagez de données personnelles, moins vous courez de risques.
Connaître comment nous travaillons sur ComputerHoy.
Étiquettes : Intelligence artificielle
Laisser un commentaire