Instagram a récemment été au cœur d'une controverse suite à la diffusion de publicités pour des applications d'intelligence artificielle permettant de créer des nus non consentis. Cette pratique soulève de graves questions concernant la protection de la vie privée et le respect des droits des individus sur les réseaux sociaux. Les utilisateurs sont légitimement préoccupés par le fait que leurs images puissent être exploitées de manière inappropriée, sans leur consentement. Cette affaire met en lumière les risques liés à l'utilisation croissante de la technologie d'intelligence artificielle dans le domaine de la création de contenu. Les autorités compétentes doivent agir rapidement pour réguler ces pratiques et garantir la sécurité et l'intégrité des utilisateurs d'Instagram.
Instagram sous le feu des critiques pour la diffusion d'annonces incitant à créer des nus non consentis
Instagram a commencé à afficher plusieurs annonces invitant les utilisateurs à créer des images de personnes à l'aide d'outils d'intelligence artificielle. Cependant, le problème ne s'arrête pas là, car ces annonces incitent à créer des nus non consentis grâce à la génération d'IA. Cette pratique va à l'encontre des politiques de Meta, la société propriétaire d'Instagram.
Les publicités d'applications d'IA pour générer des images non consenties scandalisent Instagram
Les publicités pour des applications utilisant l'IA pour créer des images non consenties ont scandalisé Instagram. Ces outils sont promus activement par la plateforme, malgré le fait qu'elles vont à l'encontre des normes éthiques et des politiques de Meta.
Meta a retiré plusieurs annonces incitant explicitement à la création de nus non consentis, mais certaines restent actives sur sa plateforme. Ces publicités redirigent les utilisateurs vers des applications payantes qui permettent de déshabiller des personnes en quelques secondes.
Les annonces modifient légèrement leur esthétique pour éviter d'être détectées par Meta, ce qui soulève des questions sur la régulation du contenu publicitaire en ligne. Google Play Store mène une campagne pour éliminer les applications capables de créer de la pornographie deepfake non consentie via l'IA, soulignant les risques de chantage et d'exploitation des images.
Ces pratiques publicitaires inquiétantes soulignent les failles dans la réglementation des plateformes en ligne et la nécessité d'une surveillance plus stricte pour protéger les utilisateurs contre l'exploitation et la violation de leur consentement.
Laisser un commentaire