Adobe a construit un outil deepfake, mais il ne sait pas quoi en faire

0
144

Les Deepfakes ont eu un impact énorme sur le monde de l'édition d'images, audio et vidéo, alors pourquoi Adobe, le géant du monde du contenu, ne s'implique-t-il pas davantage ? Eh bien, la réponse courte est que oui, mais lentement et prudemment. Lors de la conférence annuelle Max de la société aujourd'hui, elle a dévoilé un prototype d'outil nommé Project Morpheus qui démontre à la fois le potentiel et les problèmes de l'intégration des techniques de deepfake dans ses produits.

Project Morpheus est essentiellement une version vidéo des filtres neuronaux de la société, introduit dans Photoshop l'année dernière. Ces filtres utilisent l'apprentissage automatique pour ajuster l'apparence d'un sujet, en modifiant des éléments comme son âge, la couleur des cheveux et l'expression du visage (pour changer un air de surprise en un air de colère, par exemple). Morpheus apporte tous ces mêmes ajustements au contenu vidéo tout en ajoutant quelques nouveaux filtres, comme la possibilité de changer les poils du visage et les lunettes. Considérez-le comme un écran de création de personnage pour les humains.

Project Morpheus est un outil de deepfake, bien qu'Adobe ne l'appelle pas ainsi

Les résultats ne sont certainement pas parfaits et ont une portée très limitée par rapport au monde plus large des deepfakes. Vous ne pouvez apporter que de petits ajustements pré-ordonnés à l'apparence des personnes face à la caméra, et vous ne pouvez pas faire des choses comme les échanges de visage, par exemple. Mais la qualité s'améliorera rapidement, et bien que la fonctionnalité ne soit pour l'instant qu'un prototype sans aucune garantie qu'elle apparaîtra dans le logiciel Adobe, c'est clairement quelque chose que l'entreprise étudie sérieusement.

Ce que Project Morpheus est également, cependant, est un outil deepfake – ce qui est potentiellement un problème. Un gros. Parce que les deepfakes et tout ce qui y est associé, de la pornographie non consensuelle à la propagande politique, ne sont pas vraiment bons pour les affaires.

Maintenant, étant donné la souplesse avec laquelle nous définissons les deepfakes de nos jours, Adobe fabrique sans doute de tels outils depuis des années. Ceux-ci incluent les filtres neuronaux susmentionnés, ainsi que des outils plus fonctionnels tels que le masquage et la segmentation assistés par l'IA. Mais le projet Morpheus est évidemment beaucoup plus profond que les efforts antérieurs de l'entreprise. Il s'agit de monter des séquences vidéo d'humains – d'une manière que beaucoup trouveront probablement étrange ou manipulatrice.

Modifier l'expression du visage de quelqu'un dans une vidéo, par exemple, peut être utilisé par un réalisateur pour faire une mauvaise prise, mais il peut également être utilisé pour créer de la propagande politique – par ex. faire apparaître un dissident emprisonné détendu dans les images du tribunal alors qu'il est vraiment en train de mourir de faim. C'est ce que les mordus de la politique appellent une « technologie à double usage », ce qui est une façon accrocheuse de dire que la technologie est « parfois peut-être bonne, parfois peut-être merde ».

C'est sans aucun doute la raison pour laquelle Adobe n'a pas utilisé une seule fois le mot « deepfake » pour décrire la technologie dans aucun des documents d'information qu'il a envoyés à The Verge. Et lorsque nous avons demandé pourquoi, la société n'a pas répondu directement mais a plutôt donné une longue réponse sur le sérieux avec laquelle elle prend les menaces posées par les deepfakes et ce qu'elle fait à leur sujet.

Les efforts d'Adobe dans ces domaines semblent impliqués et sincères (ils sont principalement axés sur les schémas d'authentification de contenu), mais ils n'atténuent pas un problème commercial auquel l'entreprise est confrontée : les mêmes outils deepfake qui seraient les plus utiles à sa clientèle sont ceux qui sont aussi potentiellement les plus destructrices.

Les deepfakes présentent un problème délicat pour la stratégie commerciale d'Adobe

Prenez, par exemple, la possibilité de coller le visage de quelqu'un sur le corps de quelqu'un d'autre – sans doute l'application ur-deepfake qui a déclenché tout ce problème. Vous voudrez peut-être un tel échange de visage pour des raisons légitimes, comme une licence à l'image de Bruce Willis pour une série d'annonces mobiles en Russie. Mais vous pouvez également créer de la pornographie non consensuelle pour harceler, intimider ou faire chanter quelqu'un (de loin l'application malveillante la plus courante de cette technologie).

Quelle que soit votre intention, si vous souhaitez créer ce type de deepfake, vous disposez de nombreuses options, dont aucune ne provient d'Adobe. Vous pouvez louer un studio de contenu deepfake boutique, vous disputer avec un logiciel open source ou, si cela ne vous dérange pas que vos échanges de visages soient limités aux mèmes et gifs pré-approuvés, vous pouvez télécharger une application. Ce que vous ne pouvez pas faire, c'est lancer Adobe Premiere ou After Effects. Cela changera-t-il donc à l'avenir ?

C'est impossible à dire avec certitude, mais je pense que c'est certainement une possibilité. Après tout, Adobe a survécu à l'avènement de “Photoshopped” devenu un raccourci pour les images éditées numériquement en général, et souvent avec des connotations négatives. Et pour le meilleur ou pour le pire, les deepfakes perdent lentement leurs propres associations négatives à mesure qu'ils sont adoptés dans des projets plus traditionnels. Project Morpheus est un outil deepfake avec de sérieux garde-fous (vous ne pouvez apporter que des modifications prescrites et il n'y a pas d'échange de visage, par exemple), mais cela montre qu'Adobe est déterminé à explorer ce territoire, vraisemblablement tout en évaluant les réactions de l'industrie et du public.

Il est normal que, comme « deepfake » ait remplacé « Photoshopped » comme accusation de falsification dans la sphère publique, Adobe se sent peut-être exclu. Le projet Morpheus suggère qu'il pourrait bien rattraper son retard bientôt.