Les ingénieurs sont-ils légalement responsables des robots meurtriers?

$config[ads_kvadrat] not found

Apprendre l'anglais avec Huito #18 Présent simple et Présent Be+ING

Apprendre l'anglais avec Huito #18 Présent simple et Présent Be+ING
Anonim

Les automates et les androïdes tuent des humains fictifs depuis que l'écrivain tchèque Karel Čapek a popularisé le terme «robot» dans sa pièce de science-fiction de 1920 Les robots universels de Rossum. Čapek a exploré une question au cœur de nombreux débats modernes: qui est responsable d'un robot qui tue? L’écrivain tchèque a semblé toucher son ingénieur frankensteinien, Rossum, mais la réalité juridique est un peu plus compliquée.

La technologie change, mais l'intention est tout.

Si un ingénieur crée une armée de robots meurtriers dans le but exprès de causer la mort (pensez: les hordes d’Ultron), il est alors responsable de ce qui se passe quand il arrive fort. Selon le Code américain des 18 § 1111, le meurtre est:

L'assassinat illégal d'un être humain avec malveillance. Tout meurtre commis par empoisonnement, par attente, ou par tout autre type de meurtre délibéré, délibéré, malveillant et prémédité… ou perpétré de manière préméditée de manière illégale et malveillante pour entraîner la mort de tout être humain autre que celui qui est tué, est meurtre au premier degré.

"Tout autre type" de mort laisse la fenêtre grande ouverte pour les robots tueurs, qui sont une sorte de poison mécanique.

Même si le bot-constructeur hypothétique qui programme un dangereux - mais pas expressément tueur - machine, c’est un précédent qu’il était responsable de tout résultat fatal. Lorsque des chiens de garde attaquent mortellement des passants, des jurys ont jugé les propriétaires de ces chiens coupables de meurtre. Et quelle est la différence entre une méthode impliquant des codes de commande et des commandes vocales, la formation d'un robot et celle d'un chien?

S'il s'avère que les robots dotés d'armes sont un peu plus intelligents qu'un berger allemand - disons un robot de tir entièrement autonome - Rossum n'est toujours pas échappé. Des groupes tels que Human Rights Watch prédisent que «les commandants ou les opérateurs pourraient être reconnus coupables s'ils déployaient intentionnellement une arme totalement autonome pour commettre un crime». Ces groupes - et les organisations de défense des droits humains en général - peuvent avoir une vision irréaliste du système judiciaire, L’une des raisons impérieuses de garder les Predator Drones sous contrôle à distance est de s’assurer que les attaques viennent des États-Unis. Armée "pour que les scientifiques militaires ne terminent pas leurs vacances en Europe avec une visite de La Haye tous frais payés.

La question devient un peu plus trouble lorsque des robots assemblés pour une tâche créent un pivot sanglant. Dans l’histoire de Čapek, Rossum a assemblé ses robots pour le travail manuel et non pour le meurtre. Mais un meurtre a eu lieu (pas le verbe non transitif). Si Rossum devait être jugé par un tribunal, son non-respect du contrôle de la qualité - les lois d'Asimov lui causeraient des ennuis. Lorsqu'un produit défectueux tue des civils, le fabricant paie, ce qui, selon les pronostiqueurs, va arriver à Google si leurs voitures automatisées enfreignent la loi. Il va sans dire qu'un certain nombre de sociétés de technologie ont demandé à des avocats de prendre en compte leur responsabilité.

Le fait que les robots ne puissent pas être rechargés offre l’occasion de lancer beaucoup de choses sous le bus. La question à laquelle nos meilleurs juristes tentent de répondre? Qui devrait se retrouver emmêlé dans ces essieux.

$config[ads_kvadrat] not found