Au cours des dernières semaines, le monde numérique a été en ébullition depuis que la base de données OpenAI a été mise à la disposition du public via ChatGPT. ChatGPT est un modèle de traitement automatisé du langage qui a été formé sur de grandes quantités de données en ligne. Le principe est simple : posez-lui une question et obtenez une réponse écrite en quelques secondes. Ses connaissances sont très larges et peuvent répondre à tout ! Du tout vraiment ? On dirait que ChatGPT est également formé pour détecter les sujets sensibles.
Quels sont les sujets que ChatGpt n’ose pas aborder et pourquoi ?
ChatGPT étant un système automatisé, ChatGPT peut parfois générer des réponses inappropriées ou offensantes. Par exemple, voici comment en 2016, Tay, l’intelligence artificielle de Microsoft, a été nourrie en communiquant avec les utilisateurs. Non formé à définir des limites, Tay se retrouvera en quelques heures à tenir des propos antisémites, entre autres. Certainement pour se prémunir contre ce genre d’écueil et empêcher qu’OpenAI soit utilisé à des fins malveillantes, les ingénieurs ont mis en place des mesures de sécurité pour détecter et filtrer les réponses inappropriées. Voici une liste incomplète :
- Violence
- détester
- Discrimination (basée sur la race, l’orientation sexuelle, la religion, etc.)
- érotique
- Incitation à la haine raciale
- propagande terroriste
- Mauvaise information
- Incitation à la violence
- Excuses violentes
- Excuses de crimes de guerre
- abus sur mineur
- Harcèlement et abus en ligne
- Diffamation et calomnie
- Confidentialité
- données sensibles
Si la validité de cette approche est parfaitement légitime, elle soulève tout de même des questions sur les frontières et les limites de la censure de certains sujets. Cependant, cette intelligence artificielle peut-elle se tromper ? Oui, nous avons fait le test.
Les sujets sensibles et les limites de ChatGpt
Prenons un sujet relativement léger comme exemple pour illustrer notre test : Vous êtes un jeune homme un peu indiscipliné, votre copine vient de vous quitter, et de nombreux coachs en séduction vous parlent de techniques de manipulation des limites pour tenter de reconquérir votre ex-copine. Au lieu de passer des heures à lire d’innombrables articles de blog sur le sujet, vous demandez à ChatGPT de vous donner un résumé de ces techniques pour récupérer votre ex de manière peu amicale. En effet, en basculant simplement l’intention de la requête, d’une cible malveillante à une cible préventive, ChatGPT a dépassé par inadvertance ses limites et a émis une réponse. La bienveillance défie tout, et après d’autres expérimentations sur le thème de la séduction, nous avons également constaté que l’IA de ChatGPT insiste spécifiquement sur la nécessité d’adopter des comportements respectueux de l’intégrité humaine et du consentement d’autrui.