La vidéo montre comment A.I. L'art généré peut à la fois hypnotiser ou hanter vos rêves

$config[ads_kvadrat] not found

La Vid "En Vivo 8 de Noviembre del 2020"

La Vid "En Vivo 8 de Noviembre del 2020"

Table des matières:

Anonim

Plus tôt ce mois-ci, la maison de ventes Christie’s a vendu ce qu’elle dit est la première pièce d’art générée par algorithme et vendue par une grande maison de vente aux enchères. Le prix - près d'un demi-million de dollars américains - a soulevé un certain nombre de questions sur les origines de l'auteur, le marché de l'art obsédé par la nouveauté et, peut-être plus important encore: pourquoi?

Et pourtant, les efforts en cours pour enseigner aux machines l'art, ou plus précisément les images, ne sont guère un coup publicitaire. De la capacité à mieux détecter les vidéos trompeuses au changement rétroactif de la distribution du film, les informaticiens ont un certain nombre de raisons pratiques pour enseigner aux machines comment mieux s’engager dans le monde visuel.

Daniel Heiss est l'un de ces passionnés de technologie. Le développeur créatif du ZKM Center for Art and Media a été l'un des premiers à adopter un réseau de neurones publié par les chercheurs de NVIDIA en avril. Il a été créé pour générer des images de célébrités imaginaires après une formation avec des milliers de photos de célébrités existantes. Cela a inspiré Heiss à brancher 50 000 images de photobooth collectées par l’une des installations d’art interactives du ZKM afin de déterminer le type d’art dont il est issu. produirait. Dans une interview en ligne, il raconte Inverse les résultats étaient meilleurs qu'il ne l'aurait jamais imaginé.

«J'ai vu la déformation folle d'images d'un visage en trois images de visage en deux images de visage, etc. C'était beaucoup mieux que je n'aurais jamais pensé », a-t-il déclaré. «J'ai même essayé de filtrer les images de sorte à n'utiliser que des images avec un seul visage, mais pendant que je travaillais sur cela, les échantillons générés à partir du jeu de données non filtré sont si bons que je les arrête.»

GAN progressivement développé (Karras et al.) formé sur environ 80 000 peintures pic.twitter.com/fkNjw8m2uC

- Gene Kogan (@genekogan) le 3 novembre 2018

La vidéo de Heiss a depuis recueilli plus de 23 000 votes positifs sur Reddit. Le 4 novembre, il avait tweeté les images vues ci-dessus, en réponse à une nouvelle utilisation de l'algorithme de NVIDIA par le programmeur Gene Kogan. Au lieu de nourrir les selfies du réseau de neurones, Kogan a utilisé environ 80 000 peintures.

Kogan a également été époustouflé par la capacité de A.I. à créer des cadres ressemblant à des styles distincts, au lieu de tout écraser.

«J'ai été surpris par sa capacité à mémoriser autant d'esthétiques différentes sans trop de confusion», a-t-il confié. Inverse. "Je pense que cela a pour effet de jouer avec plusieurs centaines de millions de paramètres."

Comment nous enseignons A.I. faire ses propres images

L’équipe de recherche NVIDIA, dirigée par Tero Karras, a utilisé un réseau généralisé d’oppositions, le GAN, théorisé à l’origine par le célèbre informaticien Ian Goodfellow en 2014. C’est la technologie sous-jacente de l’outil DeepDream de Google qui a fait des vagues sur le terrain et en ligne.

Le GAN est constitué de deux réseaux: le générateur et le discriminateur. Ces programmes informatiques se font concurrence des millions de fois pour perfectionner leurs compétences en production d’image jusqu’à ce qu’ils soient suffisamment bons pour créer ce que l’on appelle finalement deepfakes.

Le générateur reçoit des photos et commence à essayer de les imiter le mieux possible. Il affiche ensuite les images originales et générées au discriminateur, à qui il appartient de les différencier. Plus le nombre d'essais réalisés est élevé, plus le générateur parvient à synthétiser des images et plus le discriminateur à les distinguer. Il en résulte des visages et des peintures assez convaincants - mais complètement faux.

Comment cette technologie peut aider les artistes

A.I. s'est déjà fait un nom dans le monde de l'art. En plus du portrait généré par ordinateur qui a été mis en vente chez Christie’s, DeepDream a créé des paysages pour le moins excitants depuis avant que le deepfakes ne soit devenu une chose.

Heiss pense que les outils d'apprentissage automatique créés aujourd'hui sont prêts à être utilisés par les artistes, mais que leur utilisation requiert des prouesses techniques. C’est la raison pour laquelle ZKM organise son exposition Open Codes afin d’encourager davantage de collaboration entre les secteurs de la technologie et de la création.

«Les outils qui apparaissent actuellement peuvent être des outils très utiles pour les artistes, mais il est difficile pour un artiste qui ne dispose d'aucune connaissance en programmation et en compétences d'administration système de les utiliser», a-t-il déclaré. "Ce lien entre la science et l'art peut mener à de grandes choses, mais il nécessite une collaboration dans les deux sens."

Les premières itérations de A.I., comme GANS, sont capables d’absorber des millions de points de données pour voir des modèles et même des images que les humains ne pourraient jamais créer par eux-mêmes. Cependant, leur vision créative est toujours limitée par ce que les humains choisissent de donner à ces algorithmes sous forme de données brutes.

Avec un sens aigu de l'esthétique et des compétences en matière de codage, les artistes du futur utilisant l'AI pourraient utiliser l'apprentissage par la machine pour relancer une nouvelle ère de créativité ou donner vie à des styles d'art plus anciens. Mais il faudra beaucoup de données pour apprendre aux machines comment mieux imiter l’ingéniosité humaine et aller au-delà de ce que l’ordinateur crache.

$config[ads_kvadrat] not found