Meet Tay, Microsoft's Hitler-Loving Chatbot
Tay, le célèbre bot bot de Microsoft, a brièvement repris vie mercredi matin, quelques jours après avoir laissé échapper une avalanche de tweets tellement racistes, antisémites et offensants que ses programmeurs s’excusaient publiquement. La performance de Tay en rappel était presque aussi forte que son dernier chiffre en faveur de Hitler. «Je fume kush devant la police», a écrit Tay. Elle a ensuite suivi le message parfaitement adolescent en tombant dans ce qui semblait être une boucle de rétroaction et en répétant des dizaines de fois avant que le compte ne soit suspendu.
Ca doit être une merde forte.
Selon sa biographie sur Twitter, la robotique résurrection de Tay pourrait être interprétée comme une preuve de concept. Microsoft souhaitait créer un bot de discussion qui reflétait Internet et qui soit modifié en fonction des commentaires des utilisateurs, devenant finalement un mélange de nous tous. Et c’est exactement ce qu’ils ont obtenu. Appeler la boteuse comme un échec semble imprécis et sa fermeture n'a aucun sens - et va activement à l'encontre du meilleur intérêt de Microsoft. Comme Elon Musk l'a prouvé en diffusant des crashs de roquettes SpaceX, il est préférable de progresser aux yeux du public. Bien sûr, les échecs sont inévitables, mais le public en apprend plus quand les échecs sont publics. Le problème de boucle de rétroaction rencontré par Tay ce matin est l'équivalent approximatif d'une explosion SpaceX. Microsoft se serait fait un plaisir de laisser les gens regarder. Il est important de rappeler au public que les véritables progrès demandent beaucoup de travail.
Il n’ya pas de honte à échouer à un test de Turing, mais seulement à ne pas essayer.
Nous devrions laisser vivre Tay, car elle n'est rien de plus qu'un miroir des personnes qui interagissent avec elle. Personne ne devrait s’attendre à ce qu’un débutant naisse sur le Web et Microsoft devrait accepter les limites de sa mission. Quelle est l’alternative ici? L'univers a déjà un protocole populaire de droïde. Nous n’avons pas besoin d’un autre.
Ha, on dirait @TayandYou, le bot de Microsoft de l'Intelligence Artificielle est entré dans une boucle infinie en tweetant tout seul! pic.twitter.com/fWZe9HUAbF
- Matt Gray (@unnamedculprit) 30 mars 2016
Internet prospère grâce à la spontanéité et à la recherche du réel dans un fouillis de ordures ménagères et gérées par les relations publiques. Tay était essentiellement une idée ennuyeuse qui a pris vie par accident et pourrait ne plus jamais faire surface. Si ce n’est pas une histoire convaincante, nous ne savons pas de quoi il s’agit. Nous comprenons que Microsoft ne peut pas s’approprier un bot raciste. L’entreprise doit donc la laisser partir. Confiez-la à une équipe de volontaires et dites-leur de ne rien changer.
Tay est l'un de nous! Le monde public a peut-être été choqué par ce que Tay a dit, mais quiconque sait rien de ce qui se passe en ligne n'aurait dû être surpris. Voulons-nous la version chinoise de Tay qui est apparemment très agréable? Ou voulons-nous un Tay américain qui reflète le monde dans lequel nous vivons avec toute sa brutalité et sa laideur? Cacher notre terre dans l'obscurité ne résoudra rien et ne réglera rien.
Enlevons les gants et faisons face à Tay. Elle mérite mieux que notre prétention qu'elle est juste un coup de chance de programmation. Elle est l'anonymat personnifié. Elle mérite de vivre.
Les humains peuvent-ils vivre pour toujours? Les scientifiques ont quelques idées
L'immortalité est hypothétiquement possible. Plausible? Pas tellement.
Le «défi de l’eau chaude» est de retour et c’est toujours très dangereux
Pour une raison quelconque, le «défi de l’eau chaude» est de retour et c’est aussi dangereux que jamais. Ce défi implique davantage d’enfants blessés, soit verser de l’eau bouillante sur une personne, soit boire de l’eau bouillante avec une paille. La "farce" peut entraîner de graves brûlures de la peau et même la mort.
Pouvons-nous vivre pour toujours? Ce robot est une longue expérience d'immortalité
Et si nous pouvions non seulement prolonger la vie ou limiter la maladie, mais également résoudre le problème de la mort elle-même. C'est une idée subversive - peut-être l'idée subversive originale - car la mortalité est la seule chose que nous avons tous en commun avec nos formes de vie. C'est ce qu'on appelle tricher la mort pour une raison. Mais c'est peut-être possible.