Certains serveurs tentent de monétiser et de promouvoir l’art généré par l’IA, qualifié de pornographique ou d’érotique.
Depuis que les modèles d’intelligence artificielle sont devenus populaires en Espagne, plusieurs débats éthiques ont surgi autour de la promotion et de la monétisation de l’art qu’ils produisent. Notamment par la communauté des artistes, qui a dénoncé la façon dont certains profitent en échange d’un art généré sans aucun effort. Un nouvel acteur apparaît dans ce numéro : les IA utilisées pour générer de la pornographie.
Ce n’est ni la première ni la dernière fois que l’intelligence artificielle est utilisée pour générer de la pornographie. Cependant, loin d’être utilisés pour satisfaire les besoins de quelques internautes, certains cherchent non seulement à obtenir ces résultats, mais aussi à en tirer de l’argent.
C’est l’objectif d’Unstable Diffusion, un groupe qui, selon un article détaillé de TechCrunch, veut monétiser la beuretteporno par intelligence artificielle de manière systématique. Quelque chose qui a provoqué le chaos sur certaines plateformes, comme Reddit, qui a été obligé de prendre des mesures.
L’IA pour la pornographie
Si vous vous intéressez aux IA, vous connaissez peut-être la diffusion stable, l’un des derniers modèles d’apprentissage automatique. Développé par la société Stability AI, il s’agit d’un outil permettant de convertir des descriptions linguistiques en images photoréalistes.
Ces derniers mois, il est devenu assez populaire en Espagne, car certaines personnes l’utilisent pour obtenir des images artistiques avec leur visage. Le célèbre youtuber Dot CSV, spécialisé dans l’intelligence artificielle, a publié un tutoriel très célèbre sur la façon d’entraîner cette IA avec votre visage.
Et il était inévitable que certains utilisent ce pouvoir pour créer des images érotiques. Au début de l’année 2022, la diffusion stable est devenue open source, et de nombreuses communautés se sont formées sur les principaux forums Internet tels que Reddit ou 4chan pour générer des images réalistes et des images de style cartoon ou anime afin de créer des images de nudité ou de positions érotiques. Ce contenu est connu sous le nom de NSFW (No Safe For Work).
Si l’on laisse de côté pour l’instant les implications éthiques de ces pratiques, tant pour les artistes que pour les consommateurs, les choses ont commencé à déraper lorsque certains ont utilisé cette IA pour créer de fausses images de nu de célébrités de l’Internet. Cela a naturellement généré beaucoup d’agitation.
Cela a conduit Reddit à fermer pratiquement tous les subreddits (sous-forums) consacrés à ces pratiques. Certaines communautés sont allées jusqu’à interdire complètement la publication d’art généré par l’IA. Parmi ceux-ci, Unstable Diffusion s’est distingué, un serveur opérant désormais sur Discord qui ne se contente pas de gros cul poster ces images, mais les vend par le biais de services tels que Patreon.
La diffusion instable a commencé à fonctionner en août, à peu près au moment où le modèle de diffusion stable a été rendu public et est devenu une source ouverte. Ils ont déménagé sur Discord après que Reddit ait fermé son sous-forum principal. Actuellement, au moment où nous écrivons ces lignes, le serveur compte plus de 62 000 personnes.
Il y a toutes sortes de chats sur le serveur, partageant à la fois de l’art standard généré par diffusion stable et des images clairement pornographiques. En outre, il existe des didacticiels sur la manière d’utiliser le modèle d’IA pour générer ces images. Ce n’est que lorsque les administrateurs ont commencé à utiliser Stable Diffusion qu’ils ont pu générer ce contenu et le monétiser.
Le rapport de TechCrunch raconte comment les premières tentatives de générer de la pornographie avec ce modèle ont échoué, car comme presque tous les modèles d’IA pour générer des images en texte, la diffusion stable utilisait des données provenant de milliards d’images. Une infime partie de l’ensemble de données du modèle contient elle-même de la pornographie (2,9%), il n’était donc pas possible de l’utiliser sans modification.
Alors comment ont-ils réussi à générer ces images ? Si Unstable Diffusion dispose actuellement de son propre bot pour générer des images NSFW, c’est parce que les administrateurs ont fait appel à des volontaires du serveur pour générer leur propre jeu de données pornographiques afin de rendre le modèle plus précis lors de la création de contenu. Ils s’efforcent encore de résoudre les problèmes résultant de cette méthode, tels que des membres et des corps déformés.
TechCrunch affirme que le serveur collecte actuellement plus de 2 500 dollars par mois auprès de donateurs sur Patreon et a généré plus de 4 millions d’images à ce jour.
Là encore, l’utilisation de l’IA à ces fins n’est en rien nouvelle, mais le problème est que la diffusion stable est un modèle qui peut générer des images particulièrement détaillées avec une plus grande fidélité. Ils préparent même un outil web pour faciliter l’utilisation de la diffusion stable pour générer de la pornographie.
Cela soulève plusieurs questions. Pour commencer, ceux qui sont les plus liés à la moralité et à la diffusion de ce contenu, puisqu’il nuit principalement aux artistes qui se consacrent à la création de ce type d’art. Il est plus facile d’obtenir une image fidèle au modèle original avec la Diffusion Stable qu’avec un artiste, qui dépend principalement de son style artistique pour travailler.
Tout cela, en outre, en appliquant des normes pratiquement irréalistes de normativité corporelle et de comportement sexuel féminin. Selon Ravit Dotan, vice-président de l’IA chez Mission Control, ces risques « incluent le fait de placer des attentes encore plus déraisonnables sur le corps et le comportement sexuel des femmes ». Sans parler de la question de la nudité non consensuelle des célébrités et de tout ce que cela implique pour leur vie privée.
Bien que Stable AI n’interdise pas explicitement aux utilisateurs de générer de la pornographie par le biais de leur modèle, elle demande que la pornographie soit générée conformément à la législation en vigueur ou sans nuire aux autres utilisateurs.
C’est difficile, car il y a de nombreux points qui pourraient être considérés comme nuisibles, comme l’utilisation d’œuvres d’autres artistes pour former ces intelligences artificielles. Les IA qui utilisent également ces styles pour créer leurs œuvres, et les accréditations de ces œuvres comprennent aussi souvent les noms des artistes sur lesquels elles sont basées, ce que beaucoup n’aiment peut-être pas voir leur art lié à ce contenu.
Un mantra que les administrateurs d’Unstable Diffusion ont appliqué de leur côté, bannissant toutes les images qui ne sont pas fictives et qui ne sont pas « conformes à la loi pour SFW et NSFW ». Tout porte à croire que ce phénomène deviendra de plus en plus difficile à contrôler, la modération devenant plus compliquée. La modération ne figure d’ailleurs pas actuellement dans leur agenda direct.