Ce robot a appris à dire «non» aux demandes humaines

$config[ads_kvadrat] not found

Le robot qui racle

Le robot qui racle
Anonim

Les robots, tout comme les humains, doivent savoir quand dire «non». Si une demande est impossible, leur causerait un préjudice ou le détournerait de la tâche à accomplir, alors c'est dans le meilleur intérêt du robot et de son humain. pour un diplomate Non merci faire partie de la conversation.

Mais quand une machine doit-elle répondre? Et dans quelles conditions? Les ingénieurs essaient de trouver un moyen d’instiller cette idée de comment et quand défier les ordres chez les humanoïdes.

Regardez ce robot Nao refuser d'avancer, sachant que cela le ferait tomber du bord d'une table:

Des choses simples, mais certainement essentielles pour contrôler l'erreur humaine. Les chercheurs Gordon Briggs et Matthias Scheutz de l'Université Tufts ont développé un algorithme complexe qui permet au robot d'évaluer ce que l'homme lui a demandé de faire, de décider s'il doit le faire ou non, et de réagir de manière appropriée. La recherche a été présentée lors d'une réunion récente de l'Association pour la promotion de l'intelligence artificielle.

Le robot se pose une série de questions pour savoir si la tâche est réalisable. Est-ce que je sais comment le faire? Suis-je physiquement capable de le faire maintenant? Suis-je normalement physiquement capable de le faire? Suis-je capable de le faire maintenant? Suis-je obligé de le faire en fonction de mon rôle social? Est-ce qu'il y a violation d'un principe normatif?

Le résultat est un robot qui semble être non seulement sensé, mais même un jour sage.

Remarquez comment Nao change d’idée pour marcher après les promesses humaines de l’attraper. Il serait facile d’envisager un scénario différent, où le robot dit: «Pas du tout, pourquoi devrais-je te faire confiance?

Mais Nao est une créature sociale, par conception. Pour plaire aux humains est dans son ADN, alors, compte tenu des informations que l'homme a l'intention de prendre, il s'avance aveuglément dans l'abîme. Bien sûr, si l’humain trompait sa confiance, il serait cercé, mais il l’a quand même. C’est la manière de Nao.

À mesure que les compagnons de robot deviendront plus sophistiqués, les ingénieurs en robotique devront faire face à ces questions. Les robots devront prendre des décisions non seulement pour préserver leur sécurité, mais également pour des questions éthiques plus vastes. Et si un humain demande à un robot de tuer? Commettre une fraude? Détruire un autre robot?

L'idée de l'éthique des machines est indissociable de l'intelligence artificielle - même nos voitures sans conducteur du futur devront être conçues pour faire des choix de vie ou de mort en notre nom. Cette conversation sera nécessairement plus complexe que le simple fait de donner des ordres.

$config[ads_kvadrat] not found