OpenAI: L’ancienne entreprise d’Elon Musk est sur le point de créer une nouvelle société A.I. Ère

$config[ads_kvadrat] not found

OpenAI библиотека для генерации кода, текста, вёрстки… / GPT 3 — библиотека будущего?

OpenAI библиотека для генерации кода, текста, вёрстки… / GPT 3 — библиотека будущего?
Anonim

OpenAI, l'organisation à but non lucratif qui étudie l'intelligence artificielle, cofondée par Elon Musk en 2016, a réalisé de grands progrès, même après que Musk se soit séparé de son parti en raison de désaccords sur son orientation. Les chercheurs ont mis au point des systèmes capables de jouer à des jeux, de rédiger des articles de presse et de déplacer des objets physiques avec un niveau de dextérité sans précédent.

OpenAI a provoqué une controverse avec ses recherches. La semaine dernière, elle a annoncé le développement d'un modèle de langage, GTP2, capable de générer des textes avec des invites limitées. "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd'hui", le système produit une histoire crédible et complète qui continue: "La chanteuse de 19 ans a été filmée en étant escortée hors du magasin. par des gardes de sécurité."

Il a également créé cette histoire originale sur le fait de parler des licornes en se basant sur une courte invite:

«Je ne suis pas impliqué de près avec OpenAI depuis plus d’un an et je n’ai ni supervision de la direction ni du conseil d’administration», a commenté Musk sur Twitter au cours du week-end. «Je devais me concentrer sur la résolution d'un très grand nombre de problèmes d'ingénierie et de fabrication chez Tesla (en particulier) et SpaceX. De plus, Tesla était en compétition pour certaines des mêmes personnes que OpenAI et je n’étais pas d’accord avec certains des objectifs de l’équipe OpenAI. Ajoutez tout cela et il était simplement préférable de se séparer dans de bonnes conditions. »

À l’origine, la firme semblait être un moyen idéal pour Musk d’atteindre ses objectifs de maîtriser A.I. pour le bien de l'humanité. L'entrepreneur a déjà mis en garde contre le "risque fondamental" pour la civilisation posé par des machines ultra-intelligentes, appelant les gouvernements à réglementer "comme nous le faisons pour la nourriture, la drogue, les avions et les voitures".

Musk a promis 10 millions de dollars pour démarrer la société, et son énoncé de mission est axé sur «la découverte et la mise en place d'un système d'intelligence générale artificielle et sans danger».

Il n’est pas difficile de voir comment des programmes qui font des histoires comme celle partagée par le directeur de OpenAI, Greg Brockman, pourraient être utilisés par un nombre relativement restreint de personnes pour influencer les opinions d’un public moins averti.

Un employé d'OpenAI a imprimé cet échantillon rédigé par l'IA et l'a posté dans le bac de recyclage: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- Greg Brockman (@gdb) le 14 février 2019

«En raison de nos préoccupations concernant les applications malveillantes de la technologie, nous ne publions pas le modèle formé», a expliqué la société dans un article de blog. «En tant qu'expérience en matière de divulgation responsable, nous publions plutôt un modèle beaucoup plus petit que les chercheurs peuvent expérimenter, ainsi qu'un document technique.»

L’annonce a fait craindre que la technologie ne soit utilisée pour générer de fausses nouvelles. Analytics India a averti que, avec les prochaines élections indiennes plus tard cette année, le parti I.I. pourrait faire des ravages avec le processus démocratique. Les chercheurs d’OpenAI eux-mêmes affirment que, combinée aux recherches sur la production d’audio et de vidéo de synthèse, «le grand public devra devenir plus sceptique quant au texte trouvé en ligne».

Ryan Lowe, un A.I. Un scientifique et ancien stagiaire d'OpenAI a résumé la menace qu'un programme comme celui-ci soit utilisé pour créer de fausses nouvelles de manière succincte dans cet article médium contourné:

… Un système automatisé pourrait: (1) permettre aux mauvais acteurs, qui n’ont pas les ressources nécessaires pour embaucher des milliers de personnes, de mener des campagnes de désinformation à grande échelle; et (2) augmenter considérablement l'ampleur des campagnes de désinformation déjà menées par les acteurs étatiques.

Toutes les recherches d’OpenAI ne se sont pas révélées aussi controversées. Dactyl, dévoilé en juillet 2018, peut s’adapter à la physique du monde réel pour manipuler des objets dans le monde réel. La main du robot est très complexe, avec 24 degrés de liberté, mais le système peut facilement déplacer les objets simplement en utilisant trois caméras RGB et les coordonnées de la main du robot.

La main du robot tire parti des algorithmes d’apprentissage par renforcement à usage général utilisés pour vaincre les humains lors de jeux vidéo. L’équipe «OpenAI Five» a affronté une équipe de professionnels Dota 2 joueurs en 2018. Le système a été formé en 180 ans de jeux, tirant parti de 128 000 cœurs de processeur et de 256 processeurs graphiques. Bien qu’il ait battu une équipe humaine d’anciens professionnels et de streamers Twitch, il a échoué face aux joueurs professionnels.

Musc utilisé le Dota 2 correspond pour attirer l'attention sur Neuralink, son plan visant à créer une relation symbiotique avec A.I. en reliant les cerveaux humains et en évitant une prise de contrôle par un robot:

Excellent travail de @OpenAI. Il faut bientôt que l’interface neuronale permette la symbiose homme / IA.

- Elon Musk (@elonmusk) le 6 août 2018

Dans son annonce de générateur de texte, OpenAI a annoncé son intention de discuter de sa stratégie plus large dans six mois. Le cabinet espère susciter une discussion nuancée sur les dangers de l'intelligence artificielle, ce qui pourrait permettre d'éviter certains des scénarios de catastrophe envisagés par Musk. Cependant, même la société admet qu’il n’est «pas certain que retenir le générateur de texte« est la bonne décision à prendre aujourd’hui ». Avec un schisme déjà formé entre deux entités majeures mettant en garde contre les dangers de l’IA, il est peu probable que les législateurs temps dans l'élaboration de solutions.

$config[ads_kvadrat] not found