Nos assistants robots apprennent à mentir et nous devrions les laisser

Les robots volent-ils nos emplois ?

Les robots volent-ils nos emplois ?
Anonim

Les robots s'avèrent être de très bons compagnons humains. Qui ne voudrait pas qu'un petit Pepper adorable nous raconte des blagues, nous fasse des compliments et nous fasse sentir moins seuls au monde? Même les robots sans forme se révèlent étonnamment bons. Prenez Alexa d’Amazon Echo, par exemple. C’est un cerveau robotique avec une voix humaine emprisonnée dans le corps du haut-parleur, mais elle est utile et si vous lisez ses critiques, il est clair qu’elle est devenue comme la famille de nombreux utilisateurs. Est-ce que les gens penseraient différemment si elle mentait? Et si elle vous disait quelque chose que vous ne voulez vraiment pas entendre?

Pensez-y: nous disons aux enfants de ne jamais mentir et que l'honnêteté est la meilleure politique, et pourtant nous omettons, déformons la vérité et mentons carrément aux enfants tout le temps. Cela leur apprend, à travers nos actions, si ce n’est par nos paroles, qu’il ne s’agit pas d’une honnêteté absolue, mais de l’apprentissage des règles sociales compliquées pour savoir quand et comment révéler ou dissimuler des informations potentiellement sensibles. Programmer des robots pour respecter ces règles sociales peut constituer un élément difficile mais nécessaire du processus d'innovation en cours dans l'automate.

Voici un exemple: j’étais chez mon beau-frère l’autre week-end et je suis allé au magasin pour acheter des sandwichs pour le déjeuner de tout le monde. Ma nièce, âgée de six ans, m'aidait à sortir la nourriture pendant que tout le monde sortait de la cuisine et elle m'a demandé combien coûtait l'épicerie. Je lui ai dit, car enseigner aux enfants la valeur de l'argent est une bonne chose.

À la table du déjeuner, elle m'a demandé de dire à tout le monde combien l'épicerie avait coûté. J'ai dit non.«Pourquoi?» Demanda-t-elle, vraiment confuse quant aux raisons pour lesquelles une question à laquelle j'avais librement répondu quelques minutes auparavant était désormais une information secrète. «Ce n’est pas poli», dis-je, expliquant que, parce qu’elle est une enfant, les règles sont différentes lorsque nous sommes seuls. Je lui enseignais que l'honnêteté et la franchise avaient un temps et un lieu. L’information ne veut pas toujours, dans un contexte humain, être libre.

C’est la même chose avec les robots. Nous pensons que nous ne voulons pas que nos robots nous mentent, mais en réalité nous voulons qu’ils apprennent les règles sociales compliquées de la politesse et de la discrétion qui nécessitent parfois des distorsions de la vérité. Et ils apprennent déjà comment le faire. Prenez ce court extrait de Pepper en interaction avec un journaliste, par exemple:

La première chose qui sort de la bouche de Pepper est un compliment: «Alors, tu es très chic. Êtes-vous un modèle?"

Le journaliste est assez beau, mais la question de Pepper n’est pas complètement honnête. Nous comprenons que Pepper ne se demande pas vraiment s’il est un modèle et a été programmé pour dire de belles choses, quelle que soit leur apparence.

Peu de temps après, Pepper demande un prêt, à l'improviste. C’est une question impolie, une indiscrétion à laquelle nous pardonnons facilement un robot comme un enfant. Le journaliste aurait pu souligner que la question était grossière, suggérer que les robots n’avaient pas besoin d’argent, ou admettre qu’il n’avait aucun intérêt à remettre 100 dollars à Pepper. La vérité est que le journaliste pourrait prête l'argent au robot, mais comprend que la question elle-même est un peu un jeu. Ce qu’il choisit de dire, c’est une déviation, un mensonge blanc ou une demi-vérité: il n’a pas l’argent sur lui. L’espoir est que le robot comprenne cela comme un «non» gentil et ne suggère pas que le journaliste aille au guichet automatique et fasse un retrait. Parce que Pepper a manifestement une certaine grâce sociale, la série de questions s’arrête là.

Les robots sociaux sont programmés pour apprendre les signaux sociaux et c'est une bonne chose - cela les rendra meilleurs à notre travail. La tâche des programmeurs n’est pas d’éliminer toutes les supercheries des robots, mais d’ajouter des fonctionnalités qui permettent aux robots de prendre plus facilement des décisions concernant les réponses appropriées.

Lorsque les robots sont nos confidentes, ils doivent être conscients du contexte et du public. Si j’essaie des tenues à la maison, par exemple, je veux une évaluation honnête de la flattition des différentes options. Si je suis à une soirée et que je me sens soudain conscient d’avoir choisi la mauvaise robe, être rassuré de savoir que j’ai l'air bien sera la réponse la plus utile.

Les robots vont apprendre beaucoup d'informations personnelles sur leurs compagnons et il sera important pour eux de comprendre la différence entre informations confidentielles et informations publiques et de savoir qui écoute quand il parle. Les questions auront des réponses différentes selon qui le demande. Les robots se comporteront différemment lorsque les invités sont à la maison.

Les robots, comme les enfants, ont besoin de responsabilités parentales. Cela signifie que les programmeurs et les propriétaires de robots doivent réfléchir profondément aux conséquences éthiques et sociales de notre société I.I. les interactions. Mais cela ne signifie pas exiger une honnêteté parfaite - sérieusement, personne ne le veut.