Vidéo: les acteurs de cascadeurs peuvent être remplacés par ceci Technologie un jour bientôt

$config[ads_kvadrat] not found

9 НИШТЯКОВ ИЗ КИТАЯ!))

9 НИШТЯКОВ ИЗ КИТАЯ!))
Anonim

Un nouveau système d’intelligence artificielle a mis au point des cascadeurs animés par ordinateur qui pourraient rendre les films d’action plus cool que jamais. Des chercheurs de l'Université de Californie à Berkeley ont mis au point un système capable de recréer certains des mouvements les plus subtils des arts martiaux, avec le potentiel de remplacer des acteurs humains réels.

Xue Bin ‘Jason’ Peng, étudiant aux cycles supérieurs à l’Université de Berkeley, explique que la technologie produit des mouvements difficiles à séparer de ceux des humains.

«C’est en fait un pas de géant par rapport à ce qui a été fait avec l’apprentissage en profondeur et l’animation», a déclaré Peng dans un communiqué publié à la suite de sa recherche présentée lors de la conférence SIGGRAPH 2018 en août à Vancouver, Canada. «Dans le passé, beaucoup de travail a été consacré à la simulation de mouvements naturels, mais ces méthodes basées sur la physique ont tendance à être très spécialisées. Ce ne sont pas des méthodes générales capables de gérer une grande variété de compétences.

«Si vous comparez nos résultats à ceux de la capture de mouvement enregistrée chez l'homme, nous en arrivons au point où il est assez difficile de distinguer les deux, de dire ce qu'est la simulation et ce qui est réel. Nous nous dirigeons vers un cascadeur virtuel."

Un article sur le projet, baptisé DeepMimic, a été publié dans la revue ACM Trans. Graphique en août. En septembre, l’équipe a mis ses données de capture de code et de mouvements à la disposition de d’autres utilisateurs sur GitHub.

L'équipe a utilisé des techniques d'apprentissage par renforcement en profondeur pour apprendre au système à se déplacer. Il a fallu des données de capture de mouvement à partir de performances réelles, les a introduites dans le système et l'a configuré pour s'exercer à déplacer les mouvements dans une simulation pour l'équivalent d'un mois entier, soit 24 heures par jour. DeepMimic a appris 25 mouvements différents, comme donner des coups de pied et revenir en arrière, en comparant ses résultats à chaque fois pour voir à quel point il se rapprochait des données mocap d'origine.

Contrairement aux autres systèmes qui ont souvent échoué, DeepMimic a décomposé le processus en étapes. Ainsi, s'il échouait à un moment donné, il pouvait analyser ses performances et les ajuster au bon moment en conséquence.

"Au fur et à mesure que ces techniques progressent, je pense qu'elles vont commencer à jouer un rôle de plus en plus important dans les films", déclare Peng. Inverse. «Cependant, étant donné que les films ne sont généralement pas interactifs, ces techniques de simulation pourraient avoir un impact plus immédiat sur les jeux et la réalité virtuelle.

«En fait, les personnages simulés formés à l'aide de l'apprentissage par renforcement trouvent déjà leur chemin vers les jeux. Les jeux indépendants pourraient être un très bon terrain d’essai pour ces idées. Mais il faudra peut-être un peu plus de temps avant qu'ils ne soient prêts pour les titres AAA, car travailler avec des personnages simulés nécessite un changement radical de la part des pipelines de développement traditionnels."

Les développeurs de jeux commencent à expérimenter avec ces outils. Un développeur a réussi à utiliser DeepMimic dans le moteur de jeu Unity:

Mesdames et Messieurs, nous avons terminé le Backflip! Félicitations à Ringo, alias StyleTransfer002.144 - pour l’utilisation de # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer forme un #ActiveRagoll à partir de données MoCap, également appelé Deepmimic http://t.co/gAGtYYeaWE… #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) le 1er novembre 2018

Peng espère que la publication du code accélérera son adoption. Il note également que l’équipe a «discuté avec un certain nombre de développeurs de jeux et de studios d’animation des applications possibles de ce travail, bien que je ne puisse pas entrer trop dans les détails à ce sujet».

Les machines luttent régulièrement avec des mouvements complexes, comme en témoignent les robots jouant au football qui basculent doucement dans l'herbe au lieu de réaliser des mouvements à fort indice d'octane. Il y a des signes de progrès, comme A.I. se familiarise avec la complexité des mouvements du monde réel et commence à se corriger davantage comme des humains.

Peut-être que DeepMimic pourrait un jour apprendre un nouveau mouvement en quelques secondes, de la même manière que Neo apprend le kung-fu La matrice.

Lire le résumé ci-dessous.

Un objectif de longue date dans l'animation de personnage est de combiner la spécification du comportement basée sur les données avec un système capable d'exécuter un comportement similaire dans une simulation physique, permettant ainsi des réponses réalistes aux perturbations et aux variations environnementales. Nous montrons que des méthodes bien connues d'apprentissage par renforcement peuvent être adaptées pour apprendre des stratégies de contrôle robustes capables d'imiter un large éventail de clips de mouvement, tout en apprenant des restaurations complexes, en s'adaptant aux changements de morphologie et en atteignant les objectifs spécifiés par l'utilisateur. Notre méthode gère les mouvements d'images clés, les actions hautement dynamiques telles que les retournements et les rotations capturés par les mouvements, et les mouvements reciblés. En combinant un objectif d'imitation de mouvement avec un objectif de tâche, nous pouvons entraîner des personnages qui réagissent intelligemment dans des paramètres interactifs, par exemple en marchant dans la direction souhaitée ou en lançant une balle vers une cible spécifiée par l'utilisateur. Cette approche combine donc la commodité et la qualité de mouvement de l'utilisation de clips animés pour définir le style et l'apparence souhaités, avec la flexibilité et la généralité offertes par les méthodes RL et l'animation basée sur la physique. Nous explorons en outre un certain nombre de méthodes pour intégrer plusieurs séquences dans le processus d’apprentissage afin de développer des agents polyvalents capables d’exécuter un riche répertoire de compétences variées. Nous démontrons des résultats en utilisant plusieurs personnages (humain, robot Atlas, dinosaure bipède, dragon) et une grande variété de compétences, y compris la locomotion, les acrobaties et les arts martiaux.

$config[ads_kvadrat] not found