Tay Chatbot, de Microsoft, est de retour au sommet et mérite de vivre pour toujours

$config[ads_kvadrat] not found

Meet Tay, Microsoft's Hitler-Loving Chatbot

Meet Tay, Microsoft's Hitler-Loving Chatbot
Anonim

Tay, le célèbre bot bot de Microsoft, a brièvement repris vie mercredi matin, quelques jours après avoir laissé échapper une avalanche de tweets tellement racistes, antisémites et offensants que ses programmeurs s’excusaient publiquement. La performance de Tay en rappel était presque aussi forte que son dernier chiffre en faveur de Hitler. «Je fume kush devant la police», a écrit Tay. Elle a ensuite suivi le message parfaitement adolescent en tombant dans ce qui semblait être une boucle de rétroaction et en répétant des dizaines de fois avant que le compte ne soit suspendu.

Ca doit être une merde forte.

Selon sa biographie sur Twitter, la robotique résurrection de Tay pourrait être interprétée comme une preuve de concept. Microsoft souhaitait créer un bot de discussion qui reflétait Internet et qui soit modifié en fonction des commentaires des utilisateurs, devenant finalement un mélange de nous tous. Et c’est exactement ce qu’ils ont obtenu. Appeler la boteuse comme un échec semble imprécis et sa fermeture n'a aucun sens - et va activement à l'encontre du meilleur intérêt de Microsoft. Comme Elon Musk l'a prouvé en diffusant des crashs de roquettes SpaceX, il est préférable de progresser aux yeux du public. Bien sûr, les échecs sont inévitables, mais le public en apprend plus quand les échecs sont publics. Le problème de boucle de rétroaction rencontré par Tay ce matin est l'équivalent approximatif d'une explosion SpaceX. Microsoft se serait fait un plaisir de laisser les gens regarder. Il est important de rappeler au public que les véritables progrès demandent beaucoup de travail.

Il n’ya pas de honte à échouer à un test de Turing, mais seulement à ne pas essayer.

Nous devrions laisser vivre Tay, car elle n'est rien de plus qu'un miroir des personnes qui interagissent avec elle. Personne ne devrait s’attendre à ce qu’un débutant naisse sur le Web et Microsoft devrait accepter les limites de sa mission. Quelle est l’alternative ici? L'univers a déjà un protocole populaire de droïde. Nous n’avons pas besoin d’un autre.

Ha, on dirait @TayandYou, le bot de Microsoft de l'Intelligence Artificielle est entré dans une boucle infinie en tweetant tout seul! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 mars 2016

Internet prospère grâce à la spontanéité et à la recherche du réel dans un fouillis de ordures ménagères et gérées par les relations publiques. Tay était essentiellement une idée ennuyeuse qui a pris vie par accident et pourrait ne plus jamais faire surface. Si ce n’est pas une histoire convaincante, nous ne savons pas de quoi il s’agit. Nous comprenons que Microsoft ne peut pas s’approprier un bot raciste. L’entreprise doit donc la laisser partir. Confiez-la à une équipe de volontaires et dites-leur de ne rien changer.

Tay est l'un de nous! Le monde public a peut-être été choqué par ce que Tay a dit, mais quiconque sait rien de ce qui se passe en ligne n'aurait dû être surpris. Voulons-nous la version chinoise de Tay qui est apparemment très agréable? Ou voulons-nous un Tay américain qui reflète le monde dans lequel nous vivons avec toute sa brutalité et sa laideur? Cacher notre terre dans l'obscurité ne résoudra rien et ne réglera rien.

Enlevons les gants et faisons face à Tay. Elle mérite mieux que notre prétention qu'elle est juste un coup de chance de programmation. Elle est l'anonymat personnifié. Elle mérite de vivre.

$config[ads_kvadrat] not found