Nightshade : l’outil permettant aux artistes “d’empoisonner” les modèles d’IA

Nightshade : modèles d'ia

Nightshade est bien plus qu’un simple outil. Depuis l’arrivée de ChatGPT sur la scène technologique il y a près d’un an, l’ère de l’IA générative a connu une accélération fulgurante. Mais avec cette avancée, l’opposition n’a pas tardé à se manifester. De nombreux artistes, divertisseurs et même des labels discographiques ont levé leurs voix, principalement à cause de l’utilisation non consentie de leurs œuvres pour entraîner ces modèles d’IA.

L’opposition des artistes à l’utilisation de leurs œuvres

L’ère de l’IA générative, bien que prometteuse, a soulevé de nombreuses préoccupations éthiques et juridiques.

1. Les poursuites judiciaires contre les entreprises d’IA

Des artistes de renom, des divertisseurs et même des labels discographiques ont intenté des poursuites contre des entreprises spécialisées dans l’IA. La raison ? L’utilisation de leurs œuvres sans consentement pour entraîner des modèles basés sur l’IA tels que ChatGPT. Ces modèles, pour être efficaces, nécessitent d’accéder à de vastes quantités de données multimédias, y compris des matériaux écrits et des images produites par des artistes qui n’avaient aucune connaissance préalable de cette utilisation.

2. L’importance des données d’entraînement pour les modèles d’IA

Les données d’entraînement sont le “secret” derrière ces nouveaux outils d’IA. Sans elles, ces modèles seraient inefficaces. Cependant, la manière dont ces données sont collectées est devenue un sujet de discorde. De nombreux ensembles de données d’entraînement pour ces modèles d’lA incluent du matériel extrait du web.

3. La controverse autour de la collecte de données sur le web

Autrefois, les artistes soutenaient en grande partie la pratique de l’extraction de données lorsqu’elle était utilisée pour indexer leur matériel pour les résultats de recherche. Cependant, avec l’avènement de l’IA générative, cette même pratique est maintenant critiquée car elle permet la création d’œuvres concurrentes via l’IA.

Nightshade : Une arme pour les artistes

Une arme pour les artistes

Face à cette opposition grandissante, les artistes ne sont pas restés sans défense. La technologie, tout en étant une source de préoccupation, est également devenue un moyen pour eux de riposter.

1. Présentation de l’outils et de son objectif

L’outil en question est open source encore en développement. Sa particularité ? Il permet aux artistes d’ajouter une sorte de “signature” à leurs images avant de les mettre en ligne. Cette signature modifie les pixels de manière imperceptible pour l’œil humain, mais elle “corrompt” l’art pour tout modèle d’IA cherchant à s’entraîner dessus. L’objectif est clair : donner aux artistes un moyen de protéger leurs œuvres contre l’utilisation non autorisée par les entreprises d’IA.

Lire également LLEMMA : L’IA Mathématique Open Source qui Dépasse ses Concurrents

2. Origine et développement de Nlghtshade

Nightshade a été développé par des chercheurs de l’Université de Chicago sous la direction du professeur en informatique Ben Zhao. Il est prévu d’ajouter Nightshade comme un paramètre optionnel à leur produit précédent, Glaze. Ce dernier est également un outil en ligne qui peut masquer des œuvres d’art numériques et modifier ses pixels pour tromper les modèles IA sur son style.

3. Les effets de Nlghtshade sur les modèles d’lA

L’impact de cet outils va au-delà de la simple protection. Il “enseigne” aux modèles IA des noms incorrects des objets qu’ils observent. Par exemple, des images de chiens ont été “corrompues” pour apparaître comme des chats aux yeux d’un modèle d’IA. Après avoir été formé sur seulement 50 échantillons d’images corrompues, l’IA a commencé à générer des images de chiens avec des apparences étranges. Et après 300 échantillons, toute demande d’une image de chat renvoyait une image presque parfaite d’un chien.

4. Les conséquences de l’utilisation d’images “empoisonnées”

Lorsque les modèles basé sur l’IA sont formés avec des images modifiées par cet outil, leurs perceptions sont gravement altérées. Par exemple, après avoir été formé sur des images de chiens modifiées, un modèle d’IA a commencé à produire des représentations déformées de ces animaux. Cela montre à quel point il est facile de tromper ces modèles avec de simples modifications.

5. Les résultats obtenus lors des tests avec Stable Diffusion

Les chercheurs ont utilisé Stable Diffusion, un modèle open source de génération texte-image, pour tester l’efficacité de l’outil. Les résultats ont été stupéfiants. Grâce à la manière dont les modèles de l’IA générative fonctionnent, l’outil a également réussi à tromper Stable Diffusion pour qu’il renvoie des images de chats lorsqu’il était sollicité avec les mots “husky”, “puppy” et “wolf”.

6. Défis pour les développeurs de modèles d’lA

La technique de “corruption” des données est difficile à contrer. Pour les développeurs, cela signifie qu’ils doivent identifier et éliminer toutes les images qui contiennent des pixels modifiés, ce qui est un défi en soi. De plus, si un modèle d’IA a déjà été formé sur ces images, il devra probablement être re-formé, ce qui représente un coût en temps et en ressources.

Implications et avenir de Nightshade

Implications et avenir

L’émergence de cet outil dans le paysage technologique a non seulement offert une nouvelle arme aux artistes, mais a également soulevé de nombreuses questions quant à son utilisation et ses implications futures.

1. L’équilibre du pouvoir entre les entreprises d’IA et les artistes

L’avènement de l’IA générative a créé une dynamique où les entreprises technologiques semblaient avoir le dessus. Elles utilisaient librement des œuvres d’art pour entraîner leurs modèles, souvent sans le consentement des artistes. Cependant, avec l’introduction de cet outils protecteur de droit d’auteur, la table semble tourner.

Les artistes disposent désormais d’un outil leur permettant de protéger activement leurs œuvres contre une utilisation non autorisée. Cela pourrait marquer le début d’une ère où les artistes ont une plus grande emprise et un contrôle sur la manière dont leurs œuvres sont utilisées dans le domaine technologique.

2. Préoccupations concernant son utilisation malveillante

Tout outil, aussi bénéfique soit-il, peut être détourné à des fins malveillantes. Bien que l’outils ait été conçu pour protéger les droits des artistes, il existe des préoccupations légitimes quant à son utilisation potentielle pour saboter délibérément des modèles de l’IA à des fins malintentionnées. Les entreprises pourraient avoir à investir davantage dans la sécurisation de leurs modèles pour éviter toute altération malveillante.

3. La soumission de l’outils pour examen par les pairs

Les chercheurs derrière cet outils ont pris la décision louable de soumettre leur travail à un examen par les pairs. Cela démontre leur engagement envers la transparence et l’éthique. La soumission à la conférence de sécurité informatique Usinex offre également une plateforme où d’autres experts peuvent évaluer, critiquer et potentiellement améliorer l’outil.

Comparaison des résultats obtenus

CritèreAvec NlghtshadeSans Nlghtshade
Reconnaissance d’imagesAltéréePrécise
Formation du modèle d’IATrompéeNormale
Coût de re-formationÉlevéNul

Liste des avantages pour les artistes :

  • Protection renforcée : Les œuvres sont protégées contre l’utilisation non autorisée par des modèles de l’IA.
  • Marquage des œuvres : Possibilité pour les artistes de “signer” numériquement leurs œuvres pour éviter leur utilisation non désirée.
  • Rééquilibrage du pouvoir : Les artistes reprennent le contrôle face aux géants technologiques.

Conclusion

Dans un monde où la technologie évolue à un rythme effréné, la protection des droits des créateurs est plus importante que jamais. Nightshade représente une étape cruciale dans cette direction, offrant aux artistes un moyen de se défendre contre l’utilisation non autorisée de leurs œuvres. Toutefois, comme pour toute technologie, il est essentiel de l’utiliser de manière responsable et éthique. Seul l’avenir nous dira comment cet outil façonnera le paysage de l’IA générative et les droits des artistes à l’ère numérique.

Partagez cet article

Un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *