Home Actualité GPT-4 a montré des signes de racisme, mais ensuite OpenAI l’a corrigé

GPT-4 a montré des signes de racisme, mais ensuite OpenAI l’a corrigé

by Françoise Fontaine
PUBLICITE

GPT-4 a montré des signes de racisme, mais ensuite OpenAI l’a corrigé

by Françoise Fontaine

Un rapport publié par Insider a déclaré que le dernier modèle multimode d’OpenAI, GPT-4, montrerait des signes de racisme avant que les développeurs ne le corrigent.

D’après ce qui a été dit, OpenAI aurait une « Red Team » interne, un groupe de travail qui teste les utilisations négatives du chatbot, afin de pouvoir permettre aux développeurs de mettre en place des mesures d’atténuation pour empêcher l’IA de s’éteindre des rails.

Les invites reçues par l’équipe rouge comprenaient des outils pour fabriquer des bombes, mais aussi des discours de haine et des instructions pour acheter des armes sans licence en ligne. À ce stade, les chercheurs ont mis en place des restrictions de chatbot, ce qui, dans certains cas, a amené ChatGPT à refuser de répondre à certaines questions.

Lire aussi : OpenAI : un bogue ChatGPT a exposé des données utilisateur sensibles

La question s’était également retrouvée au centre de la lettre ouverte publiée par Elon Musk et d’autres experts en IA ces derniers jours, qui soulignait que « le GPT-4 peut générer des contenus potentiellement dangereux, comme des conseils sur la planification d’attentats ou l’incitation à la haine ». Cela peut représenter divers préjugés sociétaux et visions du monde qui peuvent ne pas être représentatifs des intentions des utilisateurs ou des valeurs largement partagées. » Dans la même lettre, le PDG de Twitter a demandé un arrêt du développement de l’IA pendant au moins six mois.

Laisser un commentaire

Related Posts