Comment le nouveau centre de l'UC à Berkeley pourrait-il empêcher un I.A. apocalypse

$config[ads_kvadrat] not found

Le L.A.B , nouveau centre technique d'EQIOM

Le L.A.B , nouveau centre technique d'EQIOM
Anonim

L’Université de Californie à Berkeley vient d’ajouter son nom à une liste croissante d’institutions réputées œuvrant pour empêcher l’intelligence artificielle malveillante de détruire l’humanité. Son nouveau Centre d’Intelligence Artificielle Compatible à l’Homme, annoncé lundi, devrait permettre à A.I. reste bénéfique, et aussi pour exclure un A.I. apocalypse.

Berkeley propre A.I. Le professeur Stuart Russell, expert, dirige l’entreprise. Le projet Open Philanthropy a octroyé une subvention de 5,5 millions de dollars au Centre, qui a également bénéficié d’autres contributions. Plusieurs autres experts de Berkeley, de l’Université Cornell et de l’Université du Michigan exerceront les fonctions de co-chercheurs principaux.

Cornell professeur Bart Selman a dit Inverse sur le Centre, A.I.s que nous devrait peur, et pourquoi le monde n’est probablement pas dirigé vers l’enfer dans un panier à main - pas encore.

Qu'espérez-vous accomplir avec le Center for Human-Compatible A.I.?

Ces centres sont un développement relativement nouveau. Les gens font des investissements - l'Institut sur l'avenir de la vie, par exemple, a un investissement d'Elon Musk, de Tesla - pour traiter les questions concernant l'avenir de la vie et les menaces potentielles pour l'avenir de la vie et de la société. Le nouveau centre de Berkeley est un autre exemple d'un tel institut.

C’est inspiré par l’évolution du rôle de l’intelligence artificielle et de l’informatique dans notre société. Ces technologies font leur entrée dans notre société et nous toucheront. Ces instituts sont là pour rassembler des chercheurs afin d’étudier les éventuels impacts négatifs ou pour s’assurer qu’il n’y en a pas.

Le titre même du Centre suggère que A.I. et l'humanité sont intrinsèquement incompatibles. Est-ce votre avis?

C’est la première réaction des gens que ces choses pourraient être incompatibles. Nous pensons en fait qu'avec les précautions appropriées, les directives appropriées et la recherche, nous pouvons vraiment aligner les intérêts et nous assurer que ces technologies sont bénéfiques. A.I. la technologie a d’énormes avantages, et l’objectif pour la société est de s’assurer de rester sur les côtés positifs. Les chercheurs impliqués dans l’institut estiment que c’est faisable.

Si vous pouviez adopter une perspective catastrophique, à quoi ressemblerait le scénario le plus probable du jugement final induit par A.I.?

Un risque évident serait un développement militaire de l’intelligence artificielle, susceptible de conduire à une course aux armements A.I. entre pays: armes autonomes, drones autonomes suivant leurs propres commandements, développés par différents pays hostiles les uns aux autres. C’est le risque le plus concret que je voie. Je pense A.I. développé pour les voitures autonomes, par exemple - pour des rôles réguliers dans la société - sera très bénéfique. Mais l'aspect militaire est une composante inquiétante.

Est-ce déjà une bataille difficile?

Les pays étudient actuellement cette question. Dans un certain sens, la bataille est rude: les forces armées s’efforcent de développer A.I. La technologie. Mais il y a eu des accords - par exemple, les armes biologiques est probablement le cas le plus connu - par lequel des pays ont décidé à un moment donné que cela profiterait à tous les pays ne pas développer des armes biologiques à grande échelle. Nous espérons que les pays se rendront compte que l’inconvénient, pour tout le monde, est trop important pour entrer dans une zone dégagée. course aux armements.

Si les deux côtés développent cette technologie, personne n’est en avance.

Y a-t-il autre chose que je devrais savoir sur le Centre ou sur les actes malveillants A.I. en général?

Il est important de donner le côté positif. Il est facile de souligner les risques - et bien sûr, c’est en partie la raison de la création de ces centres - mais il est également important de souligner que de nombreux chercheurs estiment que ce risque est gérable et que les avantages seront énormes.

Vous avez déjà donné la perspective apocalyptique. Quelles sont certaines utilisations positives potentielles de A.I. que vous êtes vraiment excité?

Les côtés positifs seront une société où nous sommes aidés par cette technologie. Traductions de parole simultanées - entre chinois et anglais, par exemple - où les gens peuvent simplement converser, comme s'ils parlaient une langue maternelle, les uns avec les autres, dans le monde entier. Soins aux personnes âgées: les gens peuvent rester chez eux aussi longtemps qu'ils le souhaitent, car ils ont un robot d'assistance domestique qui les aide à vivre de manière autonome.

Cela aura probablement un impact assez dramatique sur la vie en général - en ce qui concerne l'emploi et ce que nous donnons la priorité.

Oui. Il y a le débat sur l'emploi, qui est en quelque sorte un débat séparé. Il y aura suffisamment de ressources pour soutenir tout le monde, il y a donc un problème: comment faire en sorte que tout le monde profite de ces développements. Il y aura une re-réalisation de ce que signifie travailler, quel genre de travail les gens vont faire. Mais en principe, les gens auront plus de liberté et plus de temps pour faire des activités qu’ils aiment faire, car les machines aideront beaucoup d’autres plus banales, travail taper des choses. Cela prendra du temps, mais nous croyons que la société va s’adapter et intégrer lentement ces changements.

Cette interview a été modifiée pour plus de clarté et de concision.

$config[ads_kvadrat] not found