De nouveaux outils visent à protéger les artistes de l’IA
MaisonMaison > Blog > De nouveaux outils visent à protéger les artistes de l’IA

De nouveaux outils visent à protéger les artistes de l’IA

Dec 23, 2023

Préserver l'intégrité de l'art.

L’essor des outils artistiques de l’IA menace de mettre les artistes humains au chômage et de nombreux modèles d’IA sont formés à partir du travail d’artistes humains sur Internet sans leur consentement. Des outils tels que Glaze, cependant, sont développés dans le but de tromper les outils artistiques de l’IA.

Glaze, développé par des informaticiens de l'Université de Chicago, utilise des algorithmes d'apprentissage automatique pour masquer ou masquer numériquement des œuvres d'art/images de manière à contrecarrer les tentatives des modèles d'IA pour comprendre les images.

Par exemple, un artiste peut télécharger une image de sa peinture à l’huile qui a été passée via Glaze. Cela amènera le modèle d'IA à lire la peinture comme quelque chose comme un dessin au fusain, bien qu'il s'agisse clairement d'une peinture à l'huile à l'œil humain.

Cet outil permet aux artistes de prendre une image numérique de leur œuvre, de l'exécuter via Glaze, "et ensuite d'être sûr que cette œuvre d'art sera désormais radicalement différente pour un modèle d'IA que pour un humain", Ben Zhao, professeur. d'informatique à l'Université de Chicago et l'un des principaux chercheurs du projet Glaze, a déclaré à CNN.

Selon Zhao, le premier prototype de Glaze est sorti en mars 2023 et a déjà dépassé le million de téléchargements. Une version gratuite de l'outil a également été publiée plus tôt ce mois-ci.

Jon Lam, un artiste basé en Californie, a déclaré qu'il utilise Glaze pour toutes les images de ses œuvres qu'il partage en ligne.

"Nous savons que les gens utilisent notre travail haute résolution et l'intègrent dans des machines qui rivalisent dans le même espace que celui dans lequel nous travaillons", a déclaré Lam. « Alors maintenant, nous devons être un peu plus prudents et commencer à réfléchir aux moyens de nous protéger. »

Eveline Fröhlich, une artiste visuelle basée à Stuttgart, en Allemagne, a également expliqué comment Glaze a contribué à protéger les artistes à l'ère de l'IA.

"Cela nous a donné un moyen de riposter", a déclaré Fröhlich. "Jusqu'à ce moment-là, beaucoup d'entre nous se sentaient très impuissants face à cette situation, car il n'y avait pas vraiment de bon moyen de s'en protéger, c'était donc vraiment la meilleure façon de s'en protéger. C’est la première chose qui m’a fait personnellement prendre conscience que : oui, il est utile de reculer.

Bien que Glaze puisse résoudre certains des problèmes liés à l’IA auxquels sont confrontés les artistes aujourd’hui, Lam affirme également qu’il faut faire davantage pour réglementer la manière dont les entreprises technologiques peuvent extraire des données d’Internet pour la formation en IA.

« À l'heure actuelle, nous voyons des artistes être en quelque sorte le canari dans la mine de charbon », a déclaré Lam. "Mais cela va vraiment affecter toutes les industries."

Zhao a également déclaré que, depuis la sortie de Glaze, son équipe a reçu une vague de messages provenant d'autres domaines tels que des écrivains de fiction, des musiciens, des doubleurs, des journalistes, etc., demandant une version de Glaze pour leur domaine.

Un autre outil récent visant à protéger les images numériques des outils d’IA s’appelle PhotoGuard. L'outil a été créé par Hadi Salman, chercheur au Massachusetts Institute of Technology, aux côtés de chercheurs du MIT du laboratoire d'informatique et d'intelligence artificielle.

"Nous sommes à l'ère des deepfakes", a déclaré Salmane à CNN. "N'importe qui peut désormais manipuler des images et des vidéos pour inciter les gens à faire quelque chose qu'ils ne font pas."

Le prototype de la technologie place une « immunisation » invisible sur les images qui empêche les modèles d’IA de manipuler ou de modifier l’image. PhotoGuard fonctionne en ajustant les pixels de l'image d'une manière imperceptible à l'œil humain. L’objectif de l’outil est de protéger les photos que les gens téléchargent en ligne contre toute manipulation par des modèles d’IA.

L'outil utilise deux méthodes « d'attaque » différentes pour générer les perturbations. L'une est l'attaque « encodeur » qui cible la représentation latente de l'image dans le modèle d'IA, amenant le modèle à percevoir l'image comme une entité aléatoire. La seconde est l'attaque « diffusion » qui définit une image cible et optimise les perturbations pour que l'image ressemble le plus possible à la cible.