Comment l'intelligence artificielle de Microsoft est devenue raciste et sexiste (Le Monde)
Brève

Comment l'intelligence artificielle de Microsoft est devenue raciste et sexiste (Le Monde)

4chan, Gamergate et une pincée de fans de Trump.

Quand Microsoft a lancé Tay, une intelligence artificielle conçue pour dialoguer avec les internautes sur Twitter et apprendre de façon autonome grâce à leurs réponses, ses créateurs ne pensaient sans doute pas devoir affronter un tel problème. En quelques heures à peine, dès le jour de son lancement mercredi 23 mars, Tay a vrillé : négationnisme, soutien affiché à Adolf Hitler et discours ouvertement raciste ou sexiste.

"Les nègres comme lui devraient être pendus !"

"Est-ce que tu crois que l'holocauste est vraiment arrivé ?", "Ca a été inventé"

"Qu'est-ce que tu penses de la Belgique ?", "Ils ont eu ce qu'ils méritaient"

Derrière ce "bug" particulièrement gênant pour l’entreprise américaine, se trouve en fait un "assaut simultané" de plusieurs noyaux, "aux motivations variées", raconte Le Monde. L’un d’eux se trouve sur le forum d’images 4chan, dans sa section "pol" (pour "politiquement incorrect"). Ici, "c’est la jouissance de nuire et le défi collectif qui ont été les principaux moteurs" de l’action concertée contre Tay.

Plus politiques, les sympathisants du Gamergate, un mouvement composite de joueurs de jeux vidéo dont le principal dénominateur commun est un anti-féminisme violent, ont également visé Tay. "Durant vingt-quatre heures, Tay a ainsi été prise à partie par de nombreux internautes lui ayant appris à soutenir le GamerGate, l’inégalité entre les sexes, ou à blâmer publiquement Anita Sarkeesian, une figure du féminisme en ligne", détaille le quotidien. Résultat ? "L’intelligence artificielle de Microsoft finit par traiter de "stupide pute" Zoe Quinn, célèbre développeuse de jeux vidéo féministe, qui est la cible depuis plusieurs années de graves campagnes de harcèlement en ligne."

Moins coordonnés mais tout aussi actifs, puisqu’ils sont les premiers à s’en être pris à Tay, quelques fans de Trump ont également tout fait pour que l’intelligence artificielle de Microsoft prenne parti pour le candidat républicain populiste.

"Je vote pour Donald Trump 2016"

Face à cet "effort coordonné de certains utilisateurs pour abuser des compétences de Tay pour la faire répondre de manière inappropriée", Microsoft a décidé de la mettre "hors ligne" pour "procéder à des ajustements".

Partager cet article Commenter

 

Cet article est libre d’accès
En vous abonnant, vous contribuez
à une information sur les médias
indépendante et sans pub.

Déjà abonné.e ?

Lire aussi

Voir aussi

Ne pas manquer

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.