Tech News

Norman, la première intelligence artificielle psychopathe

Créer une intelligence artificielle en l’éduquant avec des images de mort violentes, avant de lui faire passer le fameux test de Rorschach. Voila la drôle d’idée d’un groupe de chercheurs du MIT et à leur grande surprise, l’IA Norman a été diagnostiquée… psychopathe !

Norman : l'IA psychopathe

Un hommage à Hitchock

On ne peut s’empêcher de penser que certains scientifiques ont envie de jouer aux savants fous à la lecture de cette information. L’une des menaces qui nous pend pourtant au nez, est le développement d’une intelligence artificielle dont on perdrait le contrôle. Un scénario inspiré de la science-fiction, qui inquiète réellement de plus en plus de personnalités et de scientifiques. Des chercheurs du MIT (Massachusetts Institute of Technology), n’ont rien trouvé de mieux à faire que de créer une IA psychopathe.

L’idée du projet était relativement simple. Évaluer l’importance des données fournies à une IA lors de sa phase d’apprentissage. Les chercheurs veulent mettre en garde sur la façon dont un algorithme capte les données et comment ces dernières peuvent l’influencer dans sa construction. Autant dire qu’ils n’ont pas été déçus du résultat.

Une IA conçue à partir d’images de mort violentes sur Reddit

Pour construire cette IA, les scientifiques se sont donc tournés vers Reddit. L’IA baptisée Norman, en hommage à Norman Bates du film Psychose d’Alfred Hitchcock, a vraiment très mal tournée. Après avoir vu des tonnes d’images macabres, elle a été soumise au test de Rorschach (celui avec les fameuses tâches d’encre). Ses résultats ont été comparés à ceux d’une autre IA confrontée à des images plus saines de fleurs ou d’animaux. Les conclusions parlent d’elles mêmes, l’une voit un vase remplit de roses et l’autre un homme se faire tuer à la hache… Pas très rassurant !

Bonne nouvelle, rien n’est perdu. En vous rendant sur le site de l’IA, vous pouvez essayer de la réparer en faisant vous aussi le test. Essayez tout de même de ne pas aggraver les choses…

Au passage, impossible de ne pas penser à Tay, l’intelligence artificielle de Microsoft. Lancée sur Twitter en 2016, elle avait été exposée à ce qui se fait sans doute de pire sur Internet : les trolls. Résultat, elle était devenue raciste et sexiste en moins de 24 heures. On l’avait ainsi vu dire : « Hitler a fait ce qu’il fallait, je hais les juifs ». Dans un autre message, on pouvait lire : « Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement », évoquant le président Obama ou encore :  » Donalp Trump est le meilleur espoir que nous ayons ».

About the author

Cyriac

Je suis Zeh Cyriac , fondateur et chef de la direction de la société informatique DROP Corporation Inc. et blogueur indépendant aux États-Unis, avec une passion pour l'Entrepreneuriat en ligne, le marketing de contenu et toutes les choses qui tournent au tour du digital et ’informatique .

Add Comment

Click here to post a comment

Newsletter

Les dernières nouvelles du Web, de la high-tech et de l'innovation numérique tous les matins à l'heure du petit déjeuner.

Vous avez parfaitement souscrit ! Consultez vos mails pour confirmer l'inscription .