Une nouvelle étude sur l'IA améliore le compromis sur l'homme

$config[ads_kvadrat] not found

La nouvelle fille du Lycée - Film COMPLET en Français

La nouvelle fille du Lycée - Film COMPLET en Français
Anonim

Avouons-le. Depuis que l'intelligence artificielle a été imaginée, les humains ont peur du jour où nos seigneurs de l'IA prennent le pouvoir. Mais certains chercheurs ont testé la capacité de l'intelligence artificielle à non seulement rivaliser avec l'humanité, mais aussi à collaborer.

Dans une étude publiée jeudi dans Nature Communications Une équipe de professeurs d'informatique de BYU, Jacob Crandall et Michael Goodrich, ainsi que des collègues du MIT et d'autres universités, ont créé un algorithme pour enseigner la coopération et le compromis entre machines.

Les chercheurs ont programmé les machines avec un algorithme appelé S # et les ont exploitées dans plusieurs jeux avec différents partenaires - machine à machine, homme-machine, et homme-humain - afin de déterminer quel couplage donnerait le plus grand nombre de compromis. Les machines (ou du moins celles programmées avec S #) s’avèrent bien meilleures que les humains.

Mais cela pourrait en dire plus sur les "défaillances humaines", déclare le chercheur principal Jacob Crandall Inverse. "Nos participants humains avaient tendance à être déloyaux - ils feraient défaut au milieu d'une relation de coopération - et malhonnêtes - environ la moitié de nos participants ont choisi de ne pas donner suite à leurs propositions - à un moment donné dans l'interaction."

Les machines programmées pour valoriser l’honnêteté, de l’autre, étaient honnêtes. «Cet algorithme particulier apprend que les caractéristiques morales sont bonnes. Il est programmé pour ne pas mentir, et il apprend également à maintenir la coopération une fois qu’elle est apparue », explique Crandall.

En outre, la recherche a révélé que certaines stratégies de coopération étaient plus efficaces que d’autres. L’un d’eux était le «discours pas cher», de simples signaux verbaux répondant à une situation donnée, comme «Sweet. Nous devenons riches! "Ou" J'accepte votre dernière proposition. "Ou, pour exprimer votre mécontentement," Vous maudissez! "" Vous allez payer pour cela! "Ou même" Dans votre visage!"

Quel que soit le type de jeu joué ou le type de personne qui joue, les conversations pas chères doublent la quantité de coopération. Cela a également humanisé les machines, les joueurs humains étant souvent incapables de dire s'ils interagissaient avec une machine ou avec un humain.

Cette recherche étant centrée sur le test de l’algorithme S #, l’un des inconvénients de cette recherche est qu’elle ne tient pas compte des différences culturelles entre les êtres humains qui pourraient influer sur la manière dont différentes populations humaines pourraient utiliser ou interpréter des stratégies telles que les discours pas chers. beaucoup de joueurs humains pourraient se livrer à la tromperie ou à la déloyauté.

Presciently, dans la dernière nouvelle du célèbre livre de 1950 d’Isaac Asimov Je robot - «Le conflit évitable» - Les seigneurs de l'intelligence artificielle s'emparent de la planète. Mais, comme ils sont si raisonnables et programmés avec des règles éthiques incassables, c’est une bonne chose pour la race humaine. Et, comme le montre cette étude, étant donné que les interactions humaines sont désordonnées et compliquées, nous pouvons peut-être faire confiance aux machines. En supposant bien sûr, s'ils ont été programmés pour l'honnêteté.

Abstrait:

Depuis qu'Alan Turing a envisagé l'intelligence artificielle, le progrès technique a souvent été mesuré par sa capacité à vaincre les humains lors de rencontres à somme nulle (par exemple, aux échecs, au poker ou au go). Une moindre attention a été accordée aux scénarios dans lesquels la coopération homme-machine est bénéfique mais non triviale, tels que les scénarios dans lesquels les préférences homme-machine ne sont ni totalement alignées ni en conflit. La coopération n'exige pas une puissance de calcul absolue, mais est facilitée par l'intuition, les normes culturelles, les émotions, les signaux et les dispositions pré-évoluées. Nous développons ici un algorithme qui combine un algorithme d’apprentissage par renforcement de pointe avec des mécanismes de signalisation. Nous montrons que cet algorithme peut coopérer avec des personnes et d'autres algorithmes à des niveaux comparables à ceux de la coopération humaine dans une variété de jeux stochastiques à deux joueurs répétés. Ces résultats indiquent qu'une coopération homme-machine générale est réalisable à l'aide d'un ensemble de mécanismes algorithmiques non triviaux mais finalement simples.

$config[ads_kvadrat] not found