Prévenez l'Apocalypse Robot en contemplant cet A.I. Question de moralité

$config[ads_kvadrat] not found

Все про PR в IT / Выстраивание коммуникаций и бренда компании / Интервью с PR-менеджером

Все про PR в IT / Выстраивание коммуникаций и бренда компании / Интервью с PR-менеджером
Anonim

Il y a une question de robotique morale et un scénario auxquels il faut répondre pour que l'intelligence artificielle avance.

Imaginez qu’un robot contrôle un puits de mine et se rend compte qu’il ya un chariot rempli de quatre mineurs humains qui dévalent les pistes. Le robot peut choisir de déplacer les pistes et de tuer un mineur inconscient, sauvant ainsi les quatre dans le panier, ou de garder les pistes telles quelles et de permettre aux quatre mineurs de se heurter à un mur et de mourir. Lequel choisiriez-vous? Votre réponse changerait-elle si le mineur était plutôt un enfant? Si nous ne pouvons pas y répondre, comment pouvons-nous programmer les robots pour prendre cette décision?

Telles étaient les questions posées aux panélistes et au public lors de l’événement du World Science Festival à New York, intitulées «Maths morales des robots: les décisions de vie ou de mort peuvent-elles être codées?». La plupart ont choisi de diriger le panier vers le mineur et de changer de personne. pour un enfant n'a pas changé l'esprit de beaucoup de répondants, mais ce n'était pas unanime et les décisions morales humaines ne le sont souvent pas.

C’était un exemple poignant des luttes que l’humanité devra affronter à mesure que l’intelligence artificielle avance et que nous avons la possibilité de programmer des robots dans le respect de la moralité.

«Un concept comme le préjudice est difficile à programmer», a déclaré le conférencier Gary Marcus, professeur de psychologie et de neurosciences à la NYU et PDG et cofondateur de Geometric Intelligence, Inc. Il a déclaré que des concepts tels que la justice n'avaient pas de finalité. répondons au programme et nous n’avons actuellement pas une bonne moralité pour les robots au-delà des lois d’Asimov, qui figuraient dans des films tels que je robot.

Il a déclaré que c'était le but de son entrée dans le panel, de lancer une discussion sur la manière dont nous devrions nous attaquer à la moralité des robots.

Elon Musk a discuté cette semaine de son inquiétude face à l’intelligence artificielle, allant jusqu’à suggérer que nous vivons tous dans une sorte de simulation comme La matrice et que les humains devraient investir dans la dentelle neurale qui s'attachera au cerveau et augmentera les capacités cognitives humaines. D'autres futurologues tels que Stephen Hawking ont mis en garde contre les dangers d'AI. et cette semaine, Matt Damon a averti la même chose lors de son discours d'ouverture au MIT.

Parmi les autres scénarios, citons les systèmes d’armes autonomes militarisés et la manière dont nous traiterons moralement et philosophiquement ces décisions humaines sur le champ de bataille, ainsi que les décisions que les voitures autonomes pourraient devoir prendre dans un avenir pas si lointain.

Les panélistes ne sont pas parvenus à un consensus sur la marche à suivre, mais ont déclaré que les bénéfices pour A.I. étaient énormes. cela ne devrait pas être jeté par la fenêtre simplement parce que ces questions sont difficiles. Ils ont suggéré de parler plus ouvertement de ce type de questions de puits de mines morales et peut-être que nous nous rapprocherons de la prévention de l'apocalypse du robot.

$config[ads_kvadrat] not found