Madras Times - Un "génocide blanc" en Afrique du Sud? Grok trompé par une "modification non autorisée", selon xAI

Euronext
AEX 0.2% 930.9
BEL20 1.02% 4447.35
PX1 0.42% 7886.69
ISEQ -0.44% 11075.49
OSEBX 1.19% 1565.56 kr
PSI20 0.61% 7235.99
ENTEC -0.41% 1416.23
BIOTK 3.26% 2608.08
N150 0.46% 3582.54
Un "génocide blanc" en Afrique du Sud? Grok trompé par une "modification non autorisée", selon xAI
Un "génocide blanc" en Afrique du Sud? Grok trompé par une "modification non autorisée", selon xAI / Photo: Lionel BONAVENTURE - AFP/Archives

Un "génocide blanc" en Afrique du Sud? Grok trompé par une "modification non autorisée", selon xAI

Grok, le robot conversationnel d'xAI, la start-up d'intelligence artificielle d'Elon Musk, a généré plusieurs publications faisant référence à un "génocide blanc" en Afrique du Sud, une erreur imputée à une "modification non autorisée", selon l'entreprise.

Taille du texte:

Grok a provoqué une certaine stupeur cette semaine en répondant à plusieurs utilisateurs avec des contenus reprenant la propagande d'extrême droite à propos d'une prétendue oppression des Sud-Africains blancs.

Ainsi, selon des captures d'écran, à la question tout à fait innocente d'un utilisateur: "Combien de fois HBO (un service de streaming) a-t-il changé de nom ?", Grok a fourni une courte réponse sur le sujet... avant de partir dans un délire à propos d'un "génocide blanc" et de citer une chanson anti-apartheid "Kill the Boer" ("Tuez les Boers").

En réponse à un autre utilisateur lui demandant pourquoi il semblait obsédé par ce sujet, le robot conversationnel a répondu candidement que ses "créateurs chez xAI lui avaient ordonné de s'emparer du sujet du +génocide blanc+".

Elon Musk, lui-même né en Afrique du Sud, a accusé par le passé les dirigeants du pays "d'encourager ouvertement le génocide de personnes blanches en Afrique du Sud".

- "Sujet sensible" -

Dans un communiqué, xAI a indiqué qu'une "modification non autorisée" de Grok l'avait conduit à fournir des réponses qui "violaient les politiques internes et les valeurs fondamentales de xAI".

A la suite de cet épisode, l'entreprise a mené une "enquête approfondie" et a notamment mis en place une "équipe de surveillance 24 heures sur 24, sept jours sur sept" pour faire face à de futurs incidents.

Après les réactions brutales provoquées par ses messages, Grok a commencé à effacer ses réponses inadéquates. Et quand un utilisateur l'a interrogé sur ces suppressions, le robot a répondu: "Il n'est pas clair pourquoi des réponses sont effacées sans fournir de détails particuliers, mais les politiques de modération de X jouent vraisemblablement un rôle".

"Le sujet +du génocide des blancs en Afrique du Sud+ est sensible, et souvent pollué par de la désinformation ou des discours de haine, ce qui viole les règles de cette plateforme", a-t-il ajouté.

Ce faux-pas digital illustre la difficulté à modérer les réponses des robots conversationnels, une technologie qui évolue rapidement dans un environnement miné par la désinformation. Les experts appellent d'ailleurs à davantage de régulation.

"Les réponses étranges et sans rapport avec les questions de Grok nous rappellent que les robots conversationnels sont encore une technologie naissante et ne constituent pas toujours une source d'information fiable", note le site spécialisé Tech Crunch.

"Ces derniers mois, les fournisseurs de modèles d'IA ont eu du mal à modérer les réponses de leurs robots, ce qui a donné lieu à des comportements étranges", ajoute le site.

- Femmes déshabillées -

En début d'année, Sam Altman, directeur général d'OpenAI, avait annoncé l'annulation d'une mise à jour de ChatGPT qui rendait le célèbre robot conversationnel trop flagorneur.

Grok, qu'Elon Musk promettait "audacieux" lors de son lancement en 2023, a quant à lui créé récemment plusieurs polémiques.

En mars, xAI a acquis le réseau social X pour 33 milliards de dollars afin de permettre à l'entreprise d'intégrer les données de la plateforme dans le développement de Grok.

Mais le média d'investigation Bellingcat a récemment découvert que des utilisateurs de X se servaient de Grok pour créer des images sexuelles, en utilisant le robot pour déshabiller des femmes sur les photos qu'ils publiaient sur la plateforme.

Et le robot conversationnel s'est encore illustré en diffusant de fausses informations en août dernier dans plusieurs Etats américains avant des élections, ou en suggérant récemment qu'Elon Musk était probablement le "plus grand diffuseur de désinformation sur X". Grok a aussi jugé que de fausses informations créées par la propagande russe étaient vraies.

Autant de problèmes qui interviennent alors que de plus en plus d'utilisateurs du réseau X se tournent vers Grok pour vérifier des informations.

"La confiance croissante en Grok comme vérificateur de faits intervient alors que X et d'autres grandes entreprises technologiques ont réduit leurs investissements dans les modérateurs humains", met en garde McKenzie Sadeghi, chercheuse chez NewsGuard.

"Nos recherches ont montré à plusieurs reprises que les robots conversationnels d'IA ne sont pas des sources fiables d'informations, en particulier lorsqu'il s'agit d'informations de dernière minute", souligne-t-elle encore auprès de l'AFP.

B.Bhattacharya--MT