Trolling dans les médias sociaux: Comment A.I. Est de mieux en mieux à prévoir les effets de la merde

$config[ads_kvadrat] not found

Angèle - Flou [CLIP OFFICIEL]

Angèle - Flou [CLIP OFFICIEL]
Anonim

Internet est un paysage infernal géré par des trolls et dominé par de vains arguments sur Facebook ou pire. Et si les géants des médias sociaux sur le Web ont finalement commencé, à contrecœur, à déployer des efforts plus énergiques pour tenter de dissuader les dialogues dérogatoires, ces solutions ont tendance à être réactives, autrement dit, après que les dégâts aient déjà été causés.

Il n’est donc pas surprenant que les chercheurs en intelligence artificielle soient désireux de développer des systèmes capables de prévoir un argument en ligne avant que cela n'arrive. Mais comme une équipe de chercheurs de l’Université Cornell a récemment expliqué à Inverse, cette innovation urgente n’est pas si éloignée d’essayer de dire l’avenir.

"Dans le passé, il y avait des travaux pour détecter si un commentaire donné était toxique", déclare un doctorat en informatique. Jonathan Chang. «Notre objectif est légèrement différent, nous voulons savoir s'il est possible de prédire si une conversation civile à ce moment-là deviendra incontrôlable dans le futur. Pour explorer cette question, nous examinons les conversations entre les rédacteurs de Wikipedia, dont certains restent civils et d'autres échappent à tout contrôle."

Chang et ses collègues ont analysé des centaines de messages envoyés entre les conservateurs de Wikipédia, parfois irritables. Ils ont ensuite utilisé 1 270 conversations qui ont pris un tour offensif pour former un modèle d’apprentissage automatique en vue d’automatiser ce type de modération. Leurs résultats ont été publiés dans un document présenté à la réunion annuelle de l’Association for Computational Linguistics, le 15 juillet.

Alors, qu’en est-il du bot «calmons-nous tous»? Heureusement, pas trop mal. Il était finalement précis à 65%, légèrement inférieur au taux de réussite de 72% observé par l’homme. Les chercheurs ont trouvé cette statistique en créant un questionnaire en ligne permettant aux utilisateurs de tester leurs compétences en matière de modération des commentaires. Il s’avère qu’il est très difficile de savoir si les utilisateurs des médias sociaux vont s’émousser ou rester polis.

«L’idée est de montrer que la tâche est difficile mais pas impossible - si les humains n’avaient que 50% de précision, par exemple, ce ne serait pas mieux que de deviner au hasard et il n’y aurait aucune raison de penser que nous pourrions former une machine à faire. tout meilleur, dit Chang. «La comparaison de notre modèle aux réponses humaines nous a donné une idée de la similitude, ou de la différence, de notre approche informatique de l'intuition humaine.»

Chang ne croit pas que cela débarrassera Internet de la foutaise, mais il y voit un moyen d'aider les modérateurs des médias sociaux. Au lieu de faire attention aux millions de commentaires pouvant être postés chaque jour, leur algorithme permet d'identifier les centaines de ceux qui risquent de se transformer en argument.

Alors que l’on pourrait penser que le fait de régler toutes ces querelles potentiellement imprévisibles donnerait un peu de tristesse à Chang, le scientifique dit que l’expérience lui a en fait donné un espoir pour l’humanité.

«Ces jours-ci, les conversations en ligne sont très pessimistes, mais ce que nous constatons, c’est que même dans les cas où une conversation commence de manière désagréable, les participants ont encore une chance d’avoir des doutes, de changer ton et mettez la conversation sur les rails pour un meilleur résultat », dit-il. "L'avenir n'est pas figé."

Peut-être qu'il y a de l'espoir pour Internet après tout.

$config[ads_kvadrat] not found