Le Pentagone s'inquiète des robots tueurs originaires de Chine et de Russie

$config[ads_kvadrat] not found

S-Crew - Le Pentagone

S-Crew - Le Pentagone
Anonim

Pouvons-nous assurer notre sécurité nationale sans poursuivre la technologie des robots tueurs? Le Pentagone ne le pense pas.

Telle était la discussion lors du Forum sur la sécurité nationale organisé lundi au Centre pour la nouvelle sécurité américaine, un groupe de réflexion spécialisé dans les questions militaires. Le secrétaire adjoint à la Défense, Robert Work, a déclaré que l'humanité se trouvait à un "point d'inflexion" doté d'une intelligence artificielle et que le champ de bataille du futur serait dominé par des guerriers à la mécanique autonome. Les travaux parlent du changement technologique majeur qui se produit sous les pieds de l’armée depuis un certain temps maintenant. Il ne mâche pas ses mots.

"Nous savons que la Chine investit déjà beaucoup dans la robotique et l'autonomie et le chef d'état-major russe Valery Vasilevich Gerasimov a récemment déclaré que l'armée russe se préparait à se battre sur un champ de bataille robotisé. Il a déclaré, et je cite: 'Dans un avenir proche, il est possible de créer une unité robotisée complète capable de mener des opérations militaires de manière indépendante », a déclaré Work à une foule de plus en plus nerveuse. Cette information n’a guère dissipé les craintes: la société à l’origine du nouveau char de combat russe Armata T-14 s’est engagée à déployer une armée de prototypes de robots de combat dans les deux prochaines années.

Selon les travaux, les régimes autoritaires s’orienteraient naturellement vers des conceptions autonomes, car ils considèrent philosophiquement les personnes ayant une pensée indépendante comme des maillons faibles. La logique est là, mais la pensée est horrible, surtout dans le contexte d'un demi-siècle de guerres civiles avec des AK-47 de fabrication russe.

Cela ne veut pas dire que l’Amérique n’est pas intéressée à augmenter ses propres armes avec l’intelligence artificielle: des responsables du Pentagone ont déjà prédit plusieurs emplois qui conviendraient probablement mieux aux décideurs en robotique dans un proche avenir, que ce soit de la cyberguerre ou de l’horizon - des batailles ciblées dans lesquelles une intelligence humaine serait trop lente pour réagir efficacement, pour dire aux pilotes de F-35 quoi cibler et pour aider aux opérations de vol et d'atterrissage, à la programmation de drones et de bateaux.

Malgré ses idéaux démocratiques, la recherche américaine sur les armes autonomes a ses propres ramifications éthiques troublantes qui ont conduit Elon Musk et Stephen Hawking à demander une interdiction des «robots tueurs» cet été. La question est massive Par exemple: si une arme autonome recevait un ordre illégal, serait-il programmé avec l’éthique pour la rejeter? C’est le genre de chose qu’il faut réfléchir avant de vendre un bot chargé.

Les machines pourraient-elles commettre des crimes de guerre indépendamment? C’est un autre exemple.

Les travaux ont montré une réelle réflexion lors de la réunion, mais n’ont pas non plus permis de déterminer si ses homologues étrangers avaient une approche moraliste similaire.

$config[ads_kvadrat] not found