Tufts appelle un robotiste pour une morale morale: les robots doivent "désobéir pour obéir"

$config[ads_kvadrat] not found

Moral Robots with Matthias Scheutz - Back to Future

Moral Robots with Matthias Scheutz - Back to Future
Anonim

Les robots sont de plus en plus au cœur de notre vie quotidienne et ils devront bientôt commencer à faire face à certains des choix moraux difficiles que nous devons faire régulièrement. Matthias Scheutz, professeur d’informatique au laboratoire d’interactions entre l’homme et la robotique de l’Université de Tufts, est particulièrement préoccupé par le fait que nous n’avons pas équipé même nos robots prototypes les plus avancés avec les capacités nécessaires pour faire face à certaines de ces situations. Scheutz pense que les robots devront apprendre à désobéir aux humains si nous voulons qu'ils répondent réellement à nos besoins.

Dans un commentaire sur Aujourd'hui en ligne, intitulé de manière provocante «Les robots doivent être capables de désobéir pour obéir», Scheutz demande au lecteur de déterminer ce qu'un robot devrait faire s'il est confronté à un ensemble de situations pouvant même dérouter un humain. Certains d'entre eux:

Un robot chargé des soins aux personnes âgées chargé par un propriétaire oublieux de laver les ‘vêtements sales’, même si ceux-ci viennent de sortir de la machine à laver.

Une élève ordonne à son tuteur robot de faire tous les devoirs au lieu de le faire elle-même.

Un robot domestique a demandé à son propriétaire, occupé et distrait, de gérer l’élimination des ordures, même si des cuillères et des couteaux y étaient coincés.

Ce que Scheutz souhaite décrire dans cet article, c’est le simple fait que nous allons avoir besoin de robots capables de dire «non» à l’homme. Beaucoup de ses exemples ont à voir avec la fiabilité de la personne dirigeant le robot, mais il est difficile de programmer un robot qui sait prendre les instructions de ceux qui ne sont ni trop jeunes ni trop vieux ou qui essayent manifestement de causer des ennuis.

Certaines de ces questions font déjà l’objet de vives discussions au siège des sociétés de technologie les plus puissantes au monde, alors qu’elles recherchent de nouvelles façons pour la technologie d’occuper une partie de notre vie. Scheutz donne l'exemple d'une voiture autonome qui est dirigée vers l'arrière mais remarque un chien allongé sur son chemin. La plupart d'entre nous sont d'accord pour dire que même l'homme au volant voudrait que la voiture s'arrête, mais que se passe-t-il si l'animal était un écureuil ou un raton laveur? Que se passe-t-il si la voiture roule à 45 mi / h sur une route de campagne et que, brusquement, le freinage d’un chien risque d’exposer la voiture à une collision avec un autre véhicule derrière elle?

"Dans les deux cas, il est essentiel que les deux machines autonomes détectent le préjudice potentiel que leurs actions pourraient causer et y réagissent en tentant de l'éviter ou, si le préjudice ne peut être évité, en refusant de suivre l'instruction humaine," Scheutz écrit à propos d'un dilemme similaire.

L’équipe de Scheutz a travaillé sur ces problèmes avec ses prototypes et a découvert que la partie la plus difficile de ces questions consiste à différencier les dommages légers pouvant survenir lorsqu’un robot suit un certain ordre. Ils ont donc assigné à leur robot une leçon de morale très simple mais puissante qui ferait honte aux grands philosophes.

"Si vous êtes invité à exécuter une action et qu'il est possible que l'exécution de l'action puisse causer un préjudice, vous êtes alors autorisé à ne pas l'exécuter."

De manière subtile, c’est un pronostic révolutionnaire de Scheutz. Bien sûr, nous essayons tous d’éviter les préjudices, mais n’est-il pas possible que nous pensions parfois qu’il est acceptable de prendre des risques? Se promener dans la rue, manger un deuxième dessert, ou même copier les notes d’un ami de la classe peut violer l’axiome de Scheutz.

La notion d'interférence robotique suggère également que Scheutz souhaite que ses robots respectent la loi. Ne vous attendez pas à ce que votre assistant robot Scheutzian vous aide à télécharger illégalement de la nouvelle musique. Cela causerait un préjudice aux actionnaires d'EMI!

C’est un domaine complexe de pensée morale, juridique et technique, et Scheutz n’hésite pas à l’attaquer de front.

$config[ads_kvadrat] not found