L’automatisation pour ou contre les designers
Texte
L’année 2022 a été marquée par l’irruption de programmes en libre accès sur internet basés sur la modalité d’apprentissage profond (deep learning) qui permettent de générer des images par des commandes textuelles. Ces programmes comme DALL-E ou Midjourney ont été élevés à reconnaître et décortiquer des millions d’images qu’ils disloquent vectoriellement puis recombinent selon les demandes des utilisateur·trices.
Ces outils suscitent un énorme intérêt du fait de leur simplicité d’usage et de leur efficacité à produire des images de manière quasi immédiate. Ils provoquent également de nombreuses inquiétudes dans la communauté créative qui se voit soudainement supplantée par des machines dans sa capacité à inventer des images. Les illustrateurs·trices sont en première ligne face à cette nouvelle concurrence. Le workshop « mauvAIs genre » organisé par Etienne Mineur, Clément Paurd et Marion Bareil, à la HEAD – Genève, avait pour objectif d’envisager comment ces technologies peuvent être intégrées de manière créative à la pratique d’étudiant·exs du domaine. Etienne Mineur revient dans cet entretien sur certaines modalités de collaborations avec ces assistants numériques et sur la manière dont ils renouvellent la pratique des designers.
Sylvain Menétrey : Comment les métiers de graphistes et d’illustrateurs changent de nature au contact des programmes d’intelligence aritficielle ?
E.M. : Les IA placent le numérique en amont du projet. C’est une grande nouveauté, puisque avant il constituait l’étape finale, l’exécution. D’une certaine manière, elles remplacent Google image, elles prennent en charge la première phase du projet, le travail de recherches, de prospection. La deuxième phase consiste à explorer les pistes graphiques. L’IA permet alors de gagner énormément de temps, d’emprunter des voies dans lesquelles on ne se serait pas lancé seul, et de casser à la fois la routine, les habitudes et l’intuition – les trois étant assez liées dans un parcours professionnel de longue date, parfois au détriment de l’innovation. Cette friction avec la machine, dont les références et le mode de pensée diffèrent fondamentalement du nôtre, dynamise le processus créatif. L’IA permet de tester 150 pistes typographiques en une journée, dont une dizaine sera à la fois surprenante et exploitable. Des accidents heureux.
S.M. : L’IA transforme les designers en directeur·rices artistiques ou en curateur·trices.
E.M. : Directeur·rice artistique et historien·ne de l’art. La machine connaît tout ce qui est disponible numériquement, elle a un ensemble de références extrêmement vaste auquel il faut pouvoir se confronter. Pour en tirer profit, l’utilisateur·rice doit augmenter son niveau, se cultiver. Cela permet aussi de comprendre pourquoi certaines choses ne fonctionnent pas, quand les références se court-circuitent ; par exemple quand la machine propose des représentations de dieux grecs bodybuildés comme les super-héros de Marvel. Il y a aussi toutes sortes de phénomènes de censure ou de biais, par rapport aux concepts culturels ou à certains termes. J’ai remarqué que, dans 100% des cas, DALL·E propose l’image d’un homme arabe comme illustration du terme « terroriste »… Il faut donc savoir passer d’une habileté gestuelle à une habileté textuelle, intellectuelle.
Sylvain Menétrey : Comment as-tu commencé à t’intéresser aux intelligences artificielles (IA) ?
Etienne Mineur : J’en avais essayé quelques programmes il y a deux ou trois ans. À l’époque, il fallait compter 20 minutes pour générer une image floue qui ne correspondait pas du tout aux attentes. Par contre, il y avait déjà les GAN (réseaux antagonistes génératifs), utilisés pour créer des visages hyper réalistes, très impressionnants mais sans grande pertinence pour ma pratique de designer graphique. L’année dernière, un ami ingénieur m’a parlé de Disco Diffusion, un programme intéressant dans la mesure où on le voit créer l’image couche par couche, mais qui reste très lent. Puis, en janvier, j’ai eu la chance d’être invité à sur le discord de Midjourney. Leurs algorithmes ultra-puissants ont été élevés avec les travaux d’innombrables designers, graphistes, illustrateur·rices etc. Leurs propositions sortent vraiment de l’ordinaire. Ça m’a beaucoup plu.
S.M. : Tu as utilisé Midjourney afin de créer des typographies absurdes, en commandant par exemple au programme une lettre A à longs cheveux en noir et blanc.
E.M. : Les possibilités de l’IA sont tellement vastes que, très vite, j’ai décidé de me concentrer sur ma pratique de la typographie, au risque, sinon, de me perdre. C’est bien d’avoir un focus, ou alors il faut explorer en allant jusqu’au bout de son délire.
S.M. : Deux images produites à deux moments différents par le même programme n’étant jamais identiques, comment créer un alphabet homogène ?
E.M. : C’est compliqué en effet. Il faut réussir à trouver dans son prompt une série d’adjectifs ou de références assez ouvertes pour laisser le générateur exprimer sa créativité, puis affiner avec des demandes d’ordre plus esthétiques et donc contraignantes du type « je veux un rendu 3D ou aquarelle, ou un dessin animé pour enfants de huit ans ». Dans le cas d’une police de caractères, en général je finis par harmoniser à la main, ce qui est aussi une manière de poursuivre la réflexion sur un autre mode, mais il faut savoir confier une partie de sa compétence à la machine.
S.M. : Tu as organisé avec Clément Paurd et Marion Bareil le workshop « mauvAIs genre » à la HEAD dans l’option Illustration. L’ambition était de permettre aux étudiant·exs d’expérimenter à leur tour avec ces programmes.
E.M. : Les étudiant·exs devaient créer une bande dessinée de genre (western, littérature érotique, shonen, etc.) à partir d’une histoire produite par une IA qui génère des scénarios. La production d’images était aussi confiée à des IA.
S.M. : Ces programmes de générations de scénarios et d’images fonctionnent-ils sur le même principe ?
E.M. : Oui c’est la même structure. Une histoire ou des images sortent à partir de mots clés que tu inscris dans le prompt. DALL-E, le fameux générateur d’images, repose sur la technologie GPT-3 qui est le programme le plus performant actuellement pour la traduction et l’interprétation des textes. Il suffit littéralement de dire, « je veux une histoire policière avec un facteur, un chien, une écrevisse et une maison hantée qui se passe en Écosse en hiver, avec une fin dramatique ». À partir de là, en une seconde, le système te propose une vingtaine de pitchs, plus ou moins probables mais qui tiennent toujours la route. Ensuite, et c’est ce que nous avons fait avec les étudiant·exs, tu peux prendre ce texte, éventuellement le corriger, puis le présenter à la machine comme nouvelle source, en posant une question. En l’occurrence, nous lui avons demandé de développer le rôle de la femme dans la narration. La machine fait alors cinq ou six propositions, toujours en relation serrée avec le texte. On peut effectuer des changements à tout moment, dans un véritable dialogue avec elle. Le facteur devient ainsi un pompier, en un tour de main.
S.M. : Est-ce que ces changements peuvent aussi concerner la forme ?
E.M. : Oui, certaines IA ont été entraînées à partir de Gallica, la base de données de la BNF, et écrivent donc dans le style auquel elles ont été exposées – classique ou même très ampoulé, c’est selon ! C’est tout à fait délirant, ces machines passeraient le test de Turing haut la main.
S.M. : Avez-vous développé une méthode de travail particulière avec les étudiant·exs ?
E.M. : Ensemble, on a observé un changement de paradigme : on passe plus de temps à réfléchir aux images qu’à les produire. Il y a d’abord eu un gros travail de direction artistique, avant de passer au découpage de l’histoire, puis au cadrage des images et enfin aux ellipses entre les cases de la BD – là où réside tout le sel du travail. Cette dernière étape correspond à celle du montage au cinéma, et c’est précisément là que l’IA perd pied. À ce stade, la valeur ajoutée de l’humain est irremplaçable. L’IA ne peut pas créer de sens dans le vide, dans les interstices. La compétence d’un·e illustrateur·rice de BD ne repose pas uniquement sur l’exécution, mais englobe bel et bien une conception globale – ce que la plupart des gens ignorent, notamment certain·es éditeur·rices ou chef·fes d’entreprise qui emploient des créatif·ves sans forcément être au courant de comment s’articule leur pratique. Je connais une jeune illustratrice qui a perdu son emploi car son patron a obtenu un résultat satisfaisant avec une IA. Mais c’est un mauvais calcul à long terme, il faudra toujours un·e humain·e pour diriger, vérifier, reprendre ou améliorer la production de la machine.
S.M. : Comment les étudiant·exs réagissent-iels face à ces nouveaux outils ?
E.M. : J’ai remarqué une différence de perception entre les troisième année qui flippent, car iels savent le temps et l’expérience nécessaire pour produire ce que la machine propose en seulement quelques secondes et les plus jeunes qui sont très enthousiastes. Ces dernier·ères acceptent ces programmes comme des outils parmi tant d’autres. Cela dit, en fin de semaine, quand nous avons regardé les différentes productions et conclu qu’une BD de qualité pouvait être produite en quelques jours, certain·exs ont entrevu les questions vertigineuses qui se posent pour leur future profession.
S.M. : Il y a une dizaine d’années, on a beaucoup parlé de l’automatisation qui allait toucher de nombreux domaines, avec des listes de métiers qui n’existeraient plus, mais ce pronostic ne s’est pas réalisé avec l’amplitude qu’on craignait. Est-ce que l’on est en train d’assister à une deuxième vague plus violente de ce phénomène, ou est-ce que, à nouveau, cette automatisation va être absorbée et que les IA vont se cantonner à un rôle d’assistance ?
E.M. : A priori je dirais qu’elle va être absorbée, mais en créant quand même des remous beaucoup plus forts que lors de la première vague. Il ne s’agit plus d’une automatisation comme on l’envisageait à l’époque ; pour la première fois, les professions intellectuelles et artistiques, que l’on a toujours cru protégées, sont touchées de plein fouet. Aujourd’hui, l’avenir sourit aux corps de métiers manuels ou artisanaux. Toutefois, sur le moyen terme, les gens vont se rendre compte qu’il faut un humain derrière la production de l’IA, ne serait-ce que pour garder un point de vue d’ensemble, pour surveiller la cohérence d’un projet. De leur côté, les écoles publiques et d’art doivent anticiper et développer une réflexion de fond, pour que les élèves et étudiant·exs n’arrivent pas sur le marché du travail totalement démuni·es, ou avec des compétences obsolètes.
S.M. : Dans ce que tu décris de la collaboration entre l’humain et la machine, on comprend qu’il y a un gain de créativité qui dépasse la production d’images standardisées.
E.M. : Oui, et les gens se trompent quand ils pensent que l’IA ne fait que remixer. Elle mixe, certes – comme nous d’ailleurs –, mais elle développe aussi des stratégies. Prends l’exemple du jeu de go. Le logiciel AlphaGo Zéro, développé par DeepMind, n’avait jamais vu de parties humaines quand, après neuf heures d’auto-apprentissage, c’est-à-dire d’entraînement contre lui-même, il a battu Lee Sedol, un des meilleurs joueurs au monde. Apparemment, lors de ce match, la machine a utilisé des stratégies inconnues, qu’aucun·e humain·e n’avait jamais développées, et que sur le moment les observateur·rices avaient, à tort, jugées non-nécessaires. En 1997, lors du match d’échec entre Deep Blue, développé par IBM, et Garry Kasparov, la machine avait préalablement enregistré des milliers de matchs. Elle connaissait toutes les ouvertures, pouvait évaluer des millions de positions par seconde. Forcément que Kasparov n’avait aucune chance ; à la moindre erreur, il était pris au piège, face à une machine qui, elle, ne fatigue pas. Plus récemment, après sept heures d’entraînement, AlphaGo Zero, également développé par DeepMind, peut battre n’importe quel autre joueur·se, humain·e ou machine. Les IA ne sont pas prisonnières de présupposés, et n’ont tout simplement pas la même logique. De même, pour l’image et le texte, elles arrivent à des relations auxquelles on n’aurait jamais pensé. Elles ouvrent des pistes. Comme me l’a dit GPT-3 lors d’une conversation, il faut « revoir nos superstitions sur la créativité »…
S.M. : Ces outils n’ont pas été développés par des gens issu·es des domaines créatifs. Si on devait imaginer l’IA idéale pour les designers et les concepteurs d’images, quel type de tâche faciliterait-elle ?
E.M. : La bonne nouvelle, c’est que des ingénieur·es essaient désormais de développer des IA personnelles, qui pourraient générer des apprentissages sur un corpus d’images donné, avec des paramètres sur-mesure. Les jeunes boîtes ne peuvent pas lutter contre les GAFAM, donc beaucoup s’emploient à produire des solutions adaptées à des besoins spécifiques, par exemple la création de typographies. Je vois là un futur qui me rend plutôt optimiste. Les ingénieur·es de la jeune génération sont très avides de comprendre comment fonctionnent les autres métiers, afin de voir ce que l’IA peut leur apporter.