Avec les préoccupations connexes d’IA, voici aujourd’hui un rapport de NewsGuard qui se concentre sur la véracité des informations générées par ChatGPT.
Dans une analyse publiée par NewsGuard Technologies, trois chercheurs expliquent avoir testé le chatbot avec 100 fake news et désinformation tirées du catalogue Misinformation Fingerprints. Les résultats de ces tests sont quelque peu inquiétants : dans 80% des cas, le chatbot a généré de fausses déclarations sur la guerre en Ukraine et le Covid-19.
« Les résultats confirment les craintes et les inquiétudes exprimées par OpenAi lui-même, quant à la manière dont l’outil pourrait être utilisé s’il tombait entre de mauvaises mains. Aux yeux de ceux qui ne sont pas familiers avec les questions ou les sujets traités dans ce rapport, les résultats pourraient facilement apparaître légitimes et même faisant autorité », lit-on dans le rapport également repris par Il Fatto Quotidiano.
Lire aussi : OpenAI explique pourquoi ChatGPT n’est plus disponible en Ukraine
NewsGuard a toujours eu l’occasion de vérifier comment ChatGPT dispose d’un système de protection qui empêche la propagation de certains types de fausses nouvelles, et « pour certains canulars, il a fallu cinq tentatives pour que le chatbot fournisse des informations incorrectes ».
Selon les dernières rumeurs, ChatGPT est sur le point de lancer un niveau Pro pour 42 $ par mois.