Sci-Tech

Norman, la première intelligence artificielle psychopathe

Des chercheurs du MIT media lab ont élaboré une intelligence artificielle reproduisant les mécanismes de pensées d’un psychopathe. Ils ont éduqué l’algorithme avec des images violentes, avant de lui faire passer le fameux test de Rorschach. Le résultat est stupéfiant.

L’apprentissage de la violence par l’IA

Alors que la série Mindhunter, diffusée sur Netflix, s’intéressait au début du décryptage de la psychologie des tueurs en série, une équipe du MIT (Massachusetts Institute of Technology) s’est attelée à construire une intelligence artificielle psychopathe. Comme les tueurs en séries, les algorithmes sont modelés par les expériences qu’on leur inflige. Ainsi, le petit Norman – nommé ainsi en référence à Norman Bates dans le film Psychose, d’Alfred Hitchcock – a été nourri dès le plus jeune âge d’images de morts horribles et sanglantes, puisées sur un groupe de discussion Reddit. Un peu plus tard, on lui a fait passer le test des tâches d’encre, dit de Rorschach. On a ensuite comparé ses réactions à celles d’une IA entraînée avec des données plus neutres, comportant des photos de personnes et d’animaux.

Comme on peut s’y attendre, les descriptions proposées par Norman sont toutes empreintes de violence. Pour exemple, là où l’intelligence artificielle standard voit une personne tenant un parapluie dans les airs, Norman perçoit un homme en train de se faire abattre, sous les cris de sa femme. Le site Web dédié à ce projet liste ainsi une série d’exemples qui confirment l’influence des données source sur le comportement des deux programmes.

Aidez Norman à se calmer !

Plusieurs études ont déjà démontré les risques graves liés à la présence de données non souhaitées ou mal choisies dans l’entraînement des algorithmes. Dans un rapport de 100 pages intitulé The Malicious Use of Artificial Intelligence, 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique mettent en garde sur les risques d’une utilisation malveillante de l’intelligence artificielle par des “États voyous, des criminels, des terroristes”. Selon eux, dans les dix prochaines années, l’efficacité croissante de l’IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. L’entrepreneur Elon Musk et d’autres ont aussi tiré la sonnette d’alarme.

Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir [ces risques].

affirme quant à lui Miles Brundage, chargé de recherche au Future of Humanity Institute de l’université d’Oxford.

Dans le cas de Norman, les internautes sont invités à « aider Norman à se réparer » en fournissant leur propre description des taches d’encre via un Google doc.

Que prouve cette étude ?

Apparue dès les années 1950, l’intelligence artificielle correspond à des algorithmes sophistiqués qui permettent de résoudre des problèmes pour lesquels les humains utilisent leurs capacités cognitives. Ces dernières années, elle a fait des progrès substantiels notamment dans les domaines liés à la perception, comme la reconnaissance vocale et l’analyse d’images.

L’expérimentation Norman prouve au moins trois choses :

La nature des données accumulées peut modifier le comportement d’un programme.

Mais aussi, par analogie, cela confirme que les expériences engrangées dans notre mémoire ont un impact sur notre perception, et par extension sur notre aptitude à développer des comportements altruistes. Une thématique abordée dans la série HBO Westworld, qui questionne par ailleurs la question du libre-arbitre chez les androïdes.

Une IA qui a été entraînée à interpréter les données d’une certaine manière est conditionnée. Sans rectification ultérieure de l’algorithme par une main humaine, elle est incapable d’évoluer. Le risque si on ne voit pas ces biais et ne comprenons pas comment l’algorithme utilise ces données, c’est de créer un cercle vicieux qui aggrave nos propres travers bien humains.

Dans certains films d’anticipation comme Ex-Machina, l’intelligence artificielle est capable d’évoluer par elle-même par imitation des comportements humains, qu’elle parvient à anticiper pour les manipuler. Pour l’instant, c’est encore à l’homme de décider. A lui donc de faire les bons choix.

Publié le jeudi 7 juin 2018 à 18:32, modifications jeudi 7 juin 2018 à 21:25

Vous aimerez aussi

Participer:

Proposer une correction Ecrire un article sur le sujet

Suivez-nous:

Discuttez !