Attention ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations

Index

Attention ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations

Dans un tournant inquiétant pour la sécurité des données personnelles, des développeurs ont réussi à créer un prompt capable d'extraire des informations sensibles d'une intelligence artificielle (IA) à partir de conversations anodines. Cette découverte soulève de sérieuses questions quant à la confidentialité et la sécurité des systèmes d'IA qui sont de plus en plus intégrés dans notre vie quotidienne. Les implications de cette vulnérabilité sont particulièrement inquiétantes, car elle permettrait à des acteurs malveillants d'accéder à des informations confidentielles sans même avoir besoin de hacker un système.

Alerte ! Les développeurs créent un prompt qui fait extraire les données personnelles d'une IA à partir de conversations

Imaginez un instant que vous discutez avec un chatbot, comme vous l'avez peut-être déjà fait à plusieurs reprises, et que, sans vous en rendre compte, toutes vos informations personnelles tombent entre les mains d'un pirate informatique. Cela ressemble à un film sorti de l'imagination de Spielberg, mais il s'avère que cela n'est plus autant de fiction qu'on ne le croyait.

Un groupe de chercheurs a découvert un moyen de pirater les chatbots dotés d'intelligence artificielle, tels que Gemini ou ChatGPT, pour qu'ils recueillent et envoient des données personnelles à des tiers sans que l'utilisateur ne s'en aperçoive.

Le truc consiste en un message apparemment inoffensif qui cache des instructions malveillantes

Le truc consiste en un message apparemment inoffensif qui cache des instructions malveillantes

Les chercheurs des universités de Californie et de Nanyang ont baptisé cet attaque Imprompter. Ils ont créé un algorithme qui convertit une phrase normale en quelque chose d'indéchiffrable qui, pour les personnes, n'a pas de sens, mais que le chatbot interprète comme une commande pour recueillir et envoyer des informations personnelles.

La réglementation de l'intelligence artificielle en Europe : frein à l'innovation ou protection nécessaire ? L'IA avance à grands pas, mais sa sécurité doit encore rattraper son retard.

Le problème est que cet attaque a fonctionné sur des chatbots réels

Les chercheurs l'ont testé sur LeChat, de l'entreprise française Mistral AI, et sur le chatbot chinois ChatGLM. Dans les deux cas, ils ont réussi à extraire des informations personnelles avec un taux de réussite de 80 %.

La bonne nouvelle est que cela est déjà en train d'être résolu, et, pour la bonne chance de tous, cela a été découvert par les bonnes personnes et pas trop tard. Pour cette raison, les entreprises prennent note. Mistral AI, par exemple, a déjà résolu la vulnérabilité dans son système.

Le risque des chatbots lors des conversations

Cependant, le problème du risque des chatbots lors des conversations reste sur la table. Les entreprises doivent être très prudentes pour éviter ce genre de cas, et vous, en tant qu'utilisateur, le conseil est le même que toujours : soyez prudent avec les informations que vous partagez en ligne. Que ce soit avec un chatbot ou sur un réseau social, moins vous partagez de données personnelles, moins vous courez de risques.

Connaître comment nous travaillons sur ComputerHoy.

Étiquettes : Intelligence artificielle

Martine Guerin

Je m'appelle Martine, je suis journaliste pour la page web Info General. Spécialisée dans l'actualité technologique, je couvre les événements avec rigueur et objectivité. Mon objectif est d'informer nos lecteurs de manière impartiale et précise, en mettant en avant les avancées et les enjeux du secteur technologique. Grâce à mon expérience et à ma passion pour le journalisme, je m'efforce de fournir des articles de qualité et fiables pour notre public avide d'informations.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Go up