Voici comment nous pouvons arrêter l'avenir Rogue A.I. d'imiter HAL 9000

$config[ads_kvadrat] not found

Lire une carte aéronautique - 1ère partie

Lire une carte aéronautique - 1ère partie
Anonim

Comment pouvons-nous arrêter un futur A.I. de désobéir aux ordres et de choisir sa propre voie? Cela peut ressembler à l'intrigue de 2001: l'odyssée de l'espace, mais un expert affirme que c’est quelque chose auquel nous devrions déjà commencer à réfléchir. Bien sûr, nous pourrions désactiver l’algorithme de recherche Google s’il devenait de mauvaise qualité, mais face aux conséquences financières et juridiques, il peut être plus facile à dire qu’à faire. À l'avenir, si nous dépendons de plus en plus d'AI, cela pourrait s'avérer impossible.

"Cet algorithme n'a pas été délibérément conçu lui-même impossible de le redémarrer ou de l'éteindre, mais cela a co-évolué », a déclaré Stuart Armstrong, chercheur à l'Institut pour l'avenir de l'humanité au Pirate Summit 2016, mercredi. Cela signifie qu'un changement avec des résultats par inadvertance pourrait être difficile à corriger, et ce pourrait ne pas être le premier A.I. se retrouver dans cette situation.

La solution d’Isaac Asimov a été les trois lois de la robotique, qui codent les idées comme ne pas nuire à l’humain. Le problème est que le préjudice est plutôt subjectif et prêt à interprétation. Les humains travaillent davantage sur les valeurs, comme comprendre qu’il est mauvais de causer du tort et interpréter la situation, que de s’appuyer sur une règle stricte selon laquelle ils ne devraient jamais faire de mal.

«C’est à cause de ce genre de problème que les gens sont beaucoup plus enclins à utiliser l’apprentissage automatique pour acquérir des valeurs plutôt que d’essayer de les coder de cette manière traditionnelle», a déclaré Armstrong. «Les valeurs sont stables d’une manière que d’autres choses ne sont pas dans A.I. Les valeurs se défendent intrinsèquement."

Mais même dans ces situations, il est important de concevoir A.I. pour les rendre interruptibles pendant qu’ils courent. Une interruptibilité sûre permet des modifications de politique sûres, ce qui peut éviter des conséquences inattendues des valeurs acquises. Si HAL 9000 tentait un jour d’empêcher l’ouverture des portes des baies pour pods, il est important de pouvoir identifier le fait que les valeurs de l’I.I. sont brouillées et d’intervenir sans mettre le système hors tension.

$config[ads_kvadrat] not found