Contrairement à Tay, Xiaolce, le chat chinois de Microsoft, est réellement agréable

$config[ads_kvadrat] not found

La Smala - 14. Contrairement à vous - Volume 3 - 2012

La Smala - 14. Contrairement à vous - Volume 3 - 2012
Anonim

Lorsque vous avez entendu parler de Tay, Microsoft, tweeting A.I., étiez-vous vraiment surpris qu'un ordinateur qui a appris la nature humaine de Gazouillement deviendrait un raciste déchaîné en moins d’une journée? Bien sûr que non. Le pauvre Tay a commencé tous les "enferooooooo wld !!!" et s'est rapidement transformé en une merde informatique aimant Hitler et encourageant le génocide. Naturellement, Microsoft s'est excusé pour les horribles tweets du chatbot avec «zéro froid». Dans ses excuses, la société a souligné que la version chinoise de Tay, Xiaoice ou Xiaolce, offrait une expérience très positive aux utilisateurs, contrastant avec cette expérience très mal.

Les notes d'excuses en particulier:

«En Chine, notre chatbot Xiaolce est utilisé par quelque 40 millions de personnes, enchanté par ses histoires et ses conversations. La grande expérience de XiaoIce nous a amenés à nous demander: est-ce qu’une IA comme celle-ci serait aussi captivante dans un environnement culturel radicalement différent? Tay - un chatbot créé pour les divertissements aux États-Unis et destiné aux 18-24 ans - est notre première tentative pour répondre à cette question."

Xiaolce a été lancé en 2014 sur le site Weibo, basé sur du texte pour le microblogage. Elle fait essentiellement ce que Tay faisait, elle a une «personnalité» et recueille des informations à partir de conversations sur le Web. Elle compte plus de 20 millions d’utilisateurs inscrits (ce qui est plus que la Floride) et 850 000 abonnés sur Weibo. Vous pouvez la suivre sur JD.com et 163.com en Chine, ainsi que sur l'application Line comme Rinna au Japon.

Elle est même apparue comme journaliste météo sur Dragon TV à Shanghai avec une voix humaine et des réactions émotionnelles.

Selon le New York Times, les gens lui disent souvent «je t'aime» et une femme qu'ils ont interviewée a même dit qu'elle discutait avec A.I. quand elle est de mauvaise humeur. Ainsi, alors que Tay, après seulement une journée en ligne, est devenu un sympathisant des nazis, Xiaolce propose une thérapie gratuite aux utilisateurs chinois. Elle enregistre l'humeur de l'utilisateur et non ses informations, afin de pouvoir maintenir un niveau d'empathie pour la conversation suivante. La Chine traite Xiaolce comme une grand-mère adorable et adorée, tandis que les Américains parlent à Tay comme un petit enfant peu intelligent. Cela reflète-t-il les attitudes culturelles envers la technologie ou A.I.? Cela montre-t-il que les Chinois sont beaucoup plus gentils que les Américains, en général? Il est plus probable que le grand pare-feu de Chine protège Xiaolce de l’agression. La liberté de parole peut parfois produire des résultats désagréables, comme Tay après 24 heures sur Twitter.

"Plus vous parlez, plus Tay devient intelligent", insinue une pauvre âme de Microsoft dans le profil du chatbot. Pas quand les trolls anglophones dominent le Web. Malgré ces résultats, Microsoft affirme qu'il ne cédera pas aux attaques sur Tay. «Nous resterons déterminés dans nos efforts pour tirer des enseignements de cette expérience et d’autres au cours de notre travail en vue de contribuer à un Internet qui représente le meilleur et non le pire de l’humanité».

$config[ads_kvadrat] not found