Le robot dans mon château
Pour les oreilles sensibilisées par les programmes spéciaux après l'école et les séminaires sur la diversité, cela va sonner mal, mais nous voulons que les robots fassent des jugements rapides en fonction de leur apparence. Surmonter les préjugés, c'est bien, mais l'incapacité à stéréotyper diminue l'intelligence - artificielle ou autre. Alan Wagner, Ph.D., robotiste à Georgia Tech, est le principal défenseur de la technologie des stéréotypes. Il soutient que ce type de logique n’a pas besoin d’être appliqué à la race ou au sexe, mais seulement aux situations et aux comportements.
Lors d'un test précoce de son algorithme de stéréotype, Wagner a formé un robot naïf pour tirer des conclusions de ce qu'il a vu. Le robot a appris et est devenu perspicace, ce qui a permis à Wagner de commencer à réfléchir de manière critique à l’éthique des hypothèses du robot, en particulier celles qui étaient préprogrammées. Il a parlé à Inverse sur son travail et ses ramifications.
Expliquez-moi comment l'expérience a fonctionné.
Le robot interagit avec différents types d'individus - pompier, EMT ou autre - mais il n'a aucune expérience préalable avec aucune de ces catégories d'individus. C'est fondamentalement un apprentissage par l'expérience.
L'idée était de montrer que le robot pouvait utiliser les fonctions de perception de l'individu pour prévoir ses besoins en termes d'utilisation d'outils. Selon l’algorithme utilisé, la caméra du robot percevrait différents aspects de l’apparence de l’individu - leur couleur uniforme, par exemple, s’ils avaient une barbe et la couleur de leurs cheveux.
Cela leur poserait également des questions sur leur apparence. Bien sûr, poser des questions n’est pas ce que vous voulez faire sur le terrain, mais la perception du robot est si limitée en ce moment. Nous avions besoin d’un moyen d’amorcer le processus d’apprentissage d’une personne. La personne choisissait l'outil, puis le robot le sélectionnait et, avec le temps, le robot apprenait quel outil était préféré par chaque type de personne.
Vous attendiez-vous à ce que le robot apprenne qu'un badge signifie un officier de police ou qu'un lourd manteau réfléchissant signifie un pompier?
Nous nous y attendions un peu. Mais il y avait aussi des choses surprenantes.Par exemple, le robot a faussement reconnu qu’un pompier était prédit à la barbe - c’était étrange, mais quand on regarde les données, ce n’était pas surprenant. Les premières personnes qui ont interagi avec elle étaient des pompiers qui avaient la barbe. Nous soutenons donc un besoin de diversité perceptuelle, une idée selon laquelle si le robot pouvait voir de grands types d'individus largement différents dans une catégorie, il pourrait mieux développer et comprendre cette catégorie.
Diriez-vous que les robots autonomes devraient être entraînés à résoudre ces problèmes, de sorte qu’un robot ne pense pas que si cette personne a une barbe, c’est un pompier?
Absolument. Il est essentiel de régler ces problèmes. Il est essentiel que nous ayons ces robots qui fonctionnent à partir d’un ensemble diversifié d’individus.
À quoi pourrait ressembler cet apprentissage?
Cela permettrait au robot de se concentrer sur des choses qui caractérisent mieux les pompiers. Par exemple, un pompier peut même ne pas porter de veste. Le robot remarquerait alors d'autres aspects de la lutte contre l'incendie, peut-être les bottes, les gants, les casques. Il dirait: «OK cette personne vraiment est un pompier dans cet environnement."
Si vous aviez suffisamment de monde, il serait peut-être capable de reconnaître un pompier lors d'un incendie par rapport à un pompier lors d'une fête d'Halloween. Ce sont des détails de perception subtils, comme la différence entre la qualité des types d’uniformes ou les environnements contextuels.
Outre l’association de la barbe aux pompiers, quel a été le succès de cet algorithme?
Nous voulions vraiment examiner deux choses: premièrement, que pouvez-vous en faire? Si les robots peuvent reconnaître les pompiers, est-ce que cela aide vraiment d'une certaine manière? Le papier a montré que cela vous permettait d'affiner votre recherche. Au lieu de rechercher la couleur des cheveux dans la barbe, la couleur des yeux ou tout ce que vous pourriez rechercher, vous pouvez vous concentrer sur les caractéristiques qui importaient vraiment. La personne porte-t-elle un manteau de pompier? Cela pourrait accélérer le processus.
Une autre chose vraiment critique que nous avons examinée est, que se passe-t-il si la catégorie que le robot prédit est fausse? Comment cela vous affecte-t-il? Vous pouvez imaginer que les environnements de recherche et de sauvetage peuvent être chaotiques: vous travaillez peut-être dans des conditions enfumées, le robot peut ne pas tout percevoir très bien, il peut avoir des erreurs. Vous pouvez imaginer un cas pire, où le robot pense que la personne est une victime alors qu’en réalité, c’est un pompier. Donc, il essaie de sauver un pompier. Ce serait terrible. Nous voulions voir où cela se cassait, comment il se cassait, quelles caractéristiques l’avaient le plus impacté et quels étaient les différents types d’erreurs.
Vous pouvez utiliser cette approche de différentes manières - s’ils ne peuvent pas voir la personne du tout, mais peuvent voir les actions qu’ils font. Si je peux voir la personne qui sélectionne une hache, je peux alors prédire qu'elle a un casque.
Comment abordez-vous l'obtention d'un robot pour évaluer le contexte et faire une prédiction?
Nous avons essayé d’examiner différents types d’environnements - un restaurant, une école et une maison de retraite. Nous avons essayé de saisir des caractéristiques relatives à l'environnement et aux objets qu'il contient, aux actions sélectionnées par la personne et à leur apparence, et nous avons essayé de les utiliser pour faire beaucoup de prédictions sociales. Par exemple, dans un environnement scolaire, les gens lèvent la main avant de parler. Donc, si je vois l'action que les gens lèvent la main, quel type d'objets pourrais-je m'attendre à voir dans l'environnement? Est-ce que je m'attends à voir un tableau? est-ce que je m'attends à voir un bureau? Je m'attendrais à voir des enfants.
L'espoir il est d'utiliser cette information. Si le robot effectue une procédure d'évacuation, il verra quels types de personnes sont présentes et où elles pourraient se trouver.
Disons qu’un robot vient à votre porte et dit: «Suivez-moi jusqu’à la sortie.» Une chose aussi simple en apparence est en réalité très complexe. Si un robot frappe à une porte dans un immeuble, vous ne savez pas avec qui vous allez interagir. Ce pourrait être un enfant de quatre ans, une personne de 95 ans. Nous aimerions que le robot adapte son comportement interactif au type de personne qu’il voit afin de le sauver. Nous prenons certaines de ces leçons contextuelles et essayons de développer cette application.
Utilisez-vous une définition similaire de «stéréotype» pour les robots et les humains, ou y a-t-il autre chose?
Le terme stéréotypage a un contexte négatif. Nous l’utilisons simplement pour développer des catégories de personnes et utiliser des informations catégoriques pour prédire les caractéristiques d’une personne. Je sais qu'en psychologie, beaucoup de travaux portent sur les stéréotypes de la face et des stéréotypes de genre. Nous ne faisons rien comme ça. Le processus est-il le même? Je ne sais pas. Aucune idée.
Craignez-vous que les gens aient des idées fausses sur votre travail?
Il y a quelques années, nous avons développé cette idée de robots pouvant tromper les gens. Les médias ont eu l’impression fausse que cela conduirait à ce que des robots volent les portefeuilles des gens.
J'aimerais utiliser la situation d'évacuation d'urgence: vous ne voulez pas toujours être tout à fait honnête avec une personne lors d'une évacuation, n'est-ce pas? Par exemple, si quelqu'un vous demandait: «Est-ce que ma famille va bien?» Cela pourrait être terrible si le robot disait: «Non, ils sont tous morts. Suivez-moi jusqu'à la sortie, s'il vous plaît. »Dans certaines situations, le robot doit être brièvement malhonnête. Mais selon mon expérience, les gens avaient le sentiment que nous essayions de mener à la fin du monde.
Nous sommes toujours intéressés par les aspects prosociaux de ces techniques robotiques. Nous essayons d’aider les gens et non pas d’être mauvais.
La science-fiction artificielle La gravité artificielle ne fonctionnera pas; Parlons G-Forces
La gravité est difficile. Il a fallu beaucoup de temps à Newton pour résoudre ce problème et cent physiciens newtoniens cent ans pour confirmer les théories gravitationnelles d'Einstein. Et c'est le truc naturel. La gravité artificielle est beaucoup plus déroutante. Science-fiction minière - qui est étonnamment fructueuse pour les problèmes futuristes ...
Hillary Clinton est-elle un robot? Comment une question idiote explique l'avenir du discours sur l'intelligence artificielle
Les chercheurs Juliana Schroeder et Nicholas Epley affirment que les humains sont capables de détecter les robots des humains.
La Maison Blanche a publié un rapport sur l'intelligence artificielle, et il est dit A.I. Les médecins sont plus susceptibles que des robots tueurs
Dans un nouveau rapport, la Maison Blanche a déclaré que l'armée est plus susceptible d'utiliser l'intelligence artificielle pour aider les soldats blessés que de tuer des gens.