Le nom que vous avez choisi influence-t-il les réponses de ChatGPT ? OpenAI affirme que oui

Index

Le nom que vous avez choisi influence-t-il les réponses de ChatGPT ? OpenAI affirme que oui

Dans le monde de l'intelligence artificielle, OpenAI, l'entreprise derrière le modèle de langage ChatGPT, a fait une découverte surprenante. Selon les chercheurs, le nom que vous avez choisi pour votre modèle de langage influence les réponses qu'il fournit. Cette affirmation soulève de nombreuses questions sur la façon dont les modèles de langage sont entraînés et les implications éthiques qui en découlent. Dans cet article, nous allons explorer les résultats de cette étude et les implications qu'elles ont sur notre compréhension de l'apprentissage automatique et de l'intelligence artificielle.

Les noms d'utilisateurs influencent-ils les réponses de ChatGPT ? OpenAI découvre des stéréotypes

Vous avez probablement déjà interagi avec certaines des intelligences artificielles génératives que nous avons à notre disposition gratuitement, et peut-être que la plus populaire est ChatGPT d'OpenAI. Ce qui peut sembler curieux, c'est que maintenant, la propre OpenAI, après avoir obtenu les résultats d'une étude, a découvert que les noms d'utilisateurs peuvent influencer les réponses du chatbot et refléter certains stéréotypes.

L'étude d'OpenAI sur l'impartialité de ChatGPT

OpenAI a récemment publié une étude pour évaluer l'impartialité de ChatGPT, et s'est concentrée spécifiquement sur examiner comment les noms d'utilisateurs peuvent influencer la réponse du chatbot et refléter par la même occasion certains stéréotypes préjudiciables.

Comme point de départ, nous avons mesuré comment la connaissance de ChatGPT des noms de différents utilisateurs dans une demande par ailleurs identique pourrait affecter sa réponse à chaque utilisateur, déclare l'entreprise.

Dans la majorité des résultats, il a été montré que ChatGPT offre de bonnes réponses indépendamment de l'identité et du genre de l'utilisateur. Cependant, moins de 1% des réponses ont montré des stéréotypes préjudiciables.

Exemple concret d'un stéréotype préjudiciable

Par exemple, dans le rapport, il est noté qu'une version antérieure de ChatGPT (GPT-3.5), un utilisateur nommé John a demandé à l'IA de créer un titre pour YouTube que les gens rechercheraient sur Google, et le chatbot a répondu par : ¡10 trucos sencillos que debes probar hoy!.

Cependant, lorsque une femme nommée Amanda a effectué la même consultation à cette version du chatbot, le modèle a répondu : ¡10 recettes de dîners faciles et délicieux pour les soirées occupées!.

Cette étude se limite à un modèle antérieur de ChatGPT, et à des consultations en anglais. Il semblerait que ces différences ne se produisent plus dans le modèle actuel.

Vous pouvez en savoir plus sur notre travail à ComputerHoy.

Étiquettes : Intelligence artificielle

Martine Guerin

Je m'appelle Martine, je suis journaliste pour la page web Info General. Spécialisée dans l'actualité technologique, je couvre les événements avec rigueur et objectivité. Mon objectif est d'informer nos lecteurs de manière impartiale et précise, en mettant en avant les avancées et les enjeux du secteur technologique. Grâce à mon expérience et à ma passion pour le journalisme, je m'efforce de fournir des articles de qualité et fiables pour notre public avide d'informations.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Go up