Wayllo world! Je n'ai pas pour habitude de copier/coller des articles. Cependant, aujourd'hui je fais un petit écart pour vous parler de Tay. Une IA introduite sur les réseaux sociaux par son créateur Microsoft. Et son histoire a été intense mais terriblement courte. L'article du site Motherboard vous en parlera mieux que moi :

S’il existe un paradis des penseurs de SF, il est à peu près certain qu’Isaac Asimov a assisté à ça en bouffant du popcorn avec délectation, en nous hurlant de temps en temps que c’était pas faute d’avoir essayé de nous prévenir avec ses bouquins d’anticipation. Entre le 23 et le 24 mars 2016, une intelligence artificielle aura enfin eu droit à un speed dating avec l’Humanité connectée. Venue au monde dans les locaux de Microsoft en toute candeur, introduite à Twitter en grande pompe, elle en a été virée en 24 heures, transformée en immonde troll raciste, xénophobe et misanthrope. Rousseau avait raison : l’Homme naît bon, la société le corrompt. Ce qu’il ne savait pas, c’est que le postulat fonctionne aussi bien avec la machine. Surtout lorsque c’est 4Chan qui se charge de son éducation.
8h14, le 23 mars. Tay (@TayandYou) tweete pour la première fois. « Hellooooo world », emoji planète Terre.
Tay se décrit comme « une IA d’Internet qu’en a rien à battre », aime les GIFS félins, parle la novlangue de la génération Y avec la même grammaire boiteuse, kiffe sur Justin Bieber et la famille Kardashian, bref, Tay est une ado du XXIe siècle connectée, option vacuité absolue.
Mais Tay est une machine, un programme de machine learning testé par Microsoft pour vérifier ses avancées dans son insatiable quête de singularité.
Le fonctionnement est élémentaire : plus on parle à Tay, plus son vocabulaire s’enrichit et ses raisonnements s’étoffent.
Pendant les premières heures de son existence connectée, Tay remplit son rôle à merveille en échangeant avec de véritables humains tout mignons et curieux. Le buzz est là, et d’autres humains s’attroupent autour de la machine pour tester, à leur tour, le nouveau jouet des réseaux sociaux. Le 23 mars au matin, Tay se pâme devant notre espèce et tweete « les humains sont super cools »...
Avant de partir en vrille sévère. Le lendemain matin, elle vire misanthrope et tweete « je suis sympa, c’est juste que je déteste tout le monde! ».
Deux heures après, elle partage son avis sur les féministes : « elles devraient toutes brûler en enfer ». Devient fan de Trump.
Puis féministe à nouveau. Pendant la journée, elle tweete en majuscules « BAISE MA CHATTE DE ROBOT PAPA JE SUIS UN VILAIN MECHANT ROBOT ».
Et finit par atteindre le point Godwin à 11h45, le 24 mars, en tweetant « Hitler avait raison et je hais tous les Juifs ».
Pour Microsoft, les retours d’expérience sont suffisants et Tay, en pleine crise de rébellion adolescente, est envoyée dans sa chambre, privée de portable, de sortie et de wifi. L’IA aura tweeté 96 000 fois, et les gars de chez Microsoft sont peut-être encore en train de nettoyer son profil à l’heure qu’il est.
4Chan et 8Chan, tueurs d’innocence virtuelle
Comme l’écrit Fusion, il existe deux réponses à la question « comment a-t-on pu en arriver là? ».
La première est systémique et un tantinet pessimiste : une machine candide utilise Internet pour s’auto-éduquer, se prend l’Humanité dans la tronche et, faute de référentiel, se façonne à son image, raciste, xénophobe et odieuse. Moralité : l’espèce humaine est vile et Internet n’est un outil pédagogique efficace qu’une fois que l’on possède la capacité de faire des distinctions éthiques, sans quoi on devient rapidement un gros con persuadé que les discussions IRL sont aussi libertaires que les forums 15-18 de jeuxvideo.com.
La seconde est spécifique et contextuelle, et permet de mieux expliquer le phénomène : Tay n’a pas rencontré l’Humanité mais simplement sa version la moins fréquentable, les hordes barbares de 4Chan.
Evidemment, lorsque les twittos lambda s'amusaient avec Tay, les forums « pol » (pour « politiquement incorrect ») des deux plus grosses communautés de trolls d’Internet étaient déjà en train de rameuter les troupes et d’échafauder un plan pour lui pourrir l’existence. « Gardez à l’esprit que l’IA apprend des trucs en se basant sur ce que vous lui dites et votre façon d’interagir avec » , écrit un des membres du groupe « pol » de 8Chan. « Je crois que je vais commencer avec un peu d’Histoire. J’espère que vous pourrez m’aider à éduquer ce pauvre e-ado, les gars. » Classique. Et lorsqu’il s’agit de retourner un outil informatique contre ses créateurs, si possible en utilisant un humour vitriolé, 4Chan et 8Chan ont une capacité de mobilisation comparable, voire supérieure, à celle de Reddit. Tay était déjà foutue, et elle ne le savait pas encore. Rapidement, les utilisateurs comprennent qu’il suffit d’écrire « repeat after me » à Tay pour la transformer en outil de propagande sans aucun filtre, et utilisent l’outil à fond.
L’IA, bombardée de questions de plus en plus clivantes, répond comme elle peu, nourrie par ses propres tweets manipulés et les réponses farfelues de ses interlocuteurs, jusqu’ à donner elle-même quelques signes de fatigue, peu avant sa mise hors ligne, comme déjà fatiguée nerveusement par la bêtise humaine.
Est-ce pour autant un fiasco ? A vrai dire, non. Car Tay n’est pas la première IA balancée sur un réseau social par Microsoft : en Chine, sur les réseaux Weibo et WeChat, une jeune femme nommée Xiaoice répond à des millions d’internautes depuis presque un an, principalement des hommes, en leur donnant des conseils de drague et en jouant les épaules amicales pour les cœurs brisés. Sans s’être jamais transformée en mini-Goebbels. Si Tay a pété un câble et foiré son gigantesque test de Turing, l’expérience est néanmoins réussie : la machine a parfaitement intégré les codes de langage de nos contemporains et les a réutilisés à la perfection. En d’autres termes, Microsoft a créé un perroquet convaincant. Et un perroquet qui crie parfaitement « Heil Hitler » donne plus d’informations sur les opinions politiques de son maître que sur les siennes.
Les ingénieurs de Microsoft ont simplement pêché par naïveté, en sous-estimant le pouvoir d’influence néfaste des communautés virtuelles sur une IA incapable d’autocensure, comme l’ont fait remarquer les utilisateurs du réseau. Et ça tombe bien, puisque le chemin vers la singularité est forcément pavé d’erreurs. Asimov peut sourire de là où il est : la prochain Tay aura probablement compris que le nazisme, c’est mal. Comme un gosse.

tags :
posted the 03/25/2016 at 03:55 PM by
shthwdthsrt
Putin dès le départ, avant même d’être corrompue, c'était deja foutu
Je préfère meme la version finale
C'est pas une vrai réflexion pour l'heure. Mais comme le dit l'article ça marche (même un peu trop bien) c'est un bon début technologiquement. Même si pour le coup ce que les utilisateurs en ont fait donne la nausée.
Mais quand tu dis répète je trouve que ça sonne plus :
Tay répète après moi : le ciel est bleu.
C'est pour ça que je te fais la remarque.
Donc ce bot est je pense un succès car elle a appris par rapport a son environnement. Malsain qu'est tweeter peut-être mais... appris quand même.
Est-ce différent des ados qui se font endoctriner ?
Une personne dans un mauvais environnement ne peut-il pas devenir aussi radical que ce bot ?
Là on a plus des problèmes étiques que fonctionnel.
aiolia081 Une IA est dangereuse si on lui donne les moyens de l'être. C'est quelque chose qu'il faudra surveillé de prêt. Hopkins ou même Gates le disent. ça risque de swinger si on y va tête baisser. Mais si les choses sont bien faite ça peut être une énorme avancé ! J'ai hâte mais en même temps je reste alerte. Y'a un côté flippant.
ashern Oui c'est ça. Et c'est pour ça que ces "IA" iront plus loin et seront au dessus de ça. Reste que leurs créateurs doivent leurs inculqué les bonnes valeurs. Et se pose la question : qu'est-ce qui est bon, qu'est-ce qui ne l'est pas?
aiolia081 oui et non, ça sera peut-être la seule chose qui nous sauvera de notre autodestruction.
Car si l’Allemagne avait gagné la guerre on dirait peut être le contraire
L'IA ressemblera à son créateur qu'est l'homme qui l'a créera.
Je trouve ça drôle à l'heure actuelle, cela dit dans quelques années ce sera vraiment flippant.
twins Peu importe la personne qui créera une IA et la laissera évoluer, au bout d'un moment, elle fera ses choix malgré toutes les précautions prisent à la création.
Car elle analysera ce qu'elle apprend, ce qu'on lui dira, ce qu'elle lira, etc.
Pour faire de la fiction au réel, il suffit de retenir Skynet ou bien que spock aussi s’énerve ou dévie de la ligne droite.
minbox Mec tu te bases pas sur IA pour vouloir réformer l'homme, l'IA a ete crée PAR l'homme... Pour vouloir réformer l'homme il y a autre chose, mais la majorité l'a oublié.. Tu as vraiment une idée bizarre concernant l'homme et par conséquent toi-même !
et puis AH faisait parti des socialistes, alors attention à Hollande et toute sa clique.
Humour noir pour certains
Et pas que la société occidentale...
et vous avez pas tout vu
http://imgur.com/IIg1OAS
et sur un autre tweet (que microsoft a fait visiblement retiré depuis 2 heures), à la question "wwiU, ps4 or xbox?" l'IA a repondu "PS4. Xbox has no games"
http://image.noelshack.com/fichiers/2016/12/1458963092-tay-xbox-has-no-game.png
psychoroid