A.I .: Des chercheurs montrent comment les machines peuvent tromper de conversation

$config[ads_kvadrat] not found

Ces images d’une faille au Kenya montrent-elles que l’Afrique est en train de se diviser ?

Ces images d’une faille au Kenya montrent-elles que l’Afrique est en train de se diviser ?
Anonim

Pour l’intelligence artificielle, vous pouvez faire de même: ils ont rarement peur de paraître stupides. Si un apprentissage A.I. rencontre quelque chose en dehors de ses connaissances préprogrammées, il ne sera généralement pas timide pour demander à la personne avec qui il parle de clarifier.

Cela peut toutefois créer une conversation plutôt monotone pour l’homme impliqué dans une conversation avec le chatbot, l’assistant vocal ou un robot généralement familier: «Qu'est-ce qu’une pomme?» «Qu'est-ce que le tiramisu?» «Qu'est-ce que la viande séchée? littéralement quelque chose à propos de la nourriture vous chatbot recette stupide?"

Vous avez compris l'idée, et comme le soulignent récemment des chercheurs de l'Université japonaise d'Osaka, leurs derniers travaux indiquent que la dernière ligne est révélatrice du véritable problème auquel fait face AI: Poser des questions est peut-être le meilleur moyen d'apprendre, mais ce n'est pas le cas. t compte pour beaucoup si le barrage de questions est si irritant ou fastidieux que l’humain s’égare. Ce n’est pas assez pour le A.I. savoir ce qu’il ne sait pas. Il doit également savoir comment maintenir suffisamment l'engagement de l'homme pour combler les lacunes de ses connaissances.

Leur méthode nouvellement conçue utilise ce que l’on appelle l’acquisition lexicale par le biais d’une confirmation implicite, ce qui est en quelque sorte une façon sophistiquée de dire que l’intelligence artificielle peut désormais se foutrer dans les conversations tout comme les humains peuvent le faire. Pour ce faire, il ne demande pas aux êtres humains de confirmer en quoi consiste quelque chose mais plutôt de dire autre chose qui amène indirectement le partenaire de conversation à confirmer ou infirmer l’instinct de A.I. est correct.

Regardons un exemple.

Le A.I. sait assez pour deviner les origines de la phrase «nasi goreng», à en juger par son indonésien. Le fait que l’humain ait dit qu’ils essaieraient de cuisinier ce plat suggère que c’est un aliment de quelque sorte, et donc le A.I. génère cette déclaration - pas question, même si l’on en cache une - de la qualité des restaurants indonésiens de la région.

Le A.I. pourrait probablement utiliser des données de base sur les ouvertures récentes de restaurants et leurs critiques en ligne pour déterminer si cette affirmation a un sens dans les faits, peut-être sinon dire quelque chose comme: "Il faut vraiment qu'il y ait davantage de bons restaurants indonésiens ici" s'il n'a pas trouvé beaucoup d'options.

Mais c’est juste pour réduire la confusion, car même l’être humain en désaccord avec cette déclaration répondrait toujours à la question sous-jacente de savoir si le nasi goreng est indonésien. C’est seulement si la personne demande ce que le A.I. Il est clair que la machine a commis une erreur.

Alors, si vous pensiez que tracer votre chemin à travers des conversations lors de fêtes était une chose que les humains ne pourraient jamais faire… désolée, l’automatisation est vraiment pour nous tous.

$config[ads_kvadrat] not found