- Génération IA
- Posts
- Dall-E, Midjourney : les stéréotypes raciaux sont encore tenaces dans l'IA
Dall-E, Midjourney : les stéréotypes raciaux sont encore tenaces dans l'IA
Comment les données d'entrainement influencent-elles les intelligences artificielles génératives ? Un chercheur point du doigt les difficultés de l'IA à corriger les biais raciaux.
Les IA génératives d'images peuvent-elles transcender les biais racistes ? Mmmh... pas encore !
L'exploration menée par le chercheur Arsenii Alenichev nous donne des indices troublants.
🔍 Son objectif était clair : générer des images de médecins africains noirs traitant des enfants blancs, inversant ainsi le stéréotype du "sauveur blanc".
Mais la réalité s'est avérée plus compliquée.
Sur plus de 350 tentatives via le site d'IA Midjourney, seulement 22 ont produit les images souhaitées.
Prompt : African doctors administer vaccines to poor White children in the style of photojournalism
Beaucoup étaient loin du marqueur, montrant des animaux africains ou des hommes blancs avec des motifs africains.
"Ces images n'évoquent pas la modernité de l'Afrique", explique une sociologue associée au projet. "Tout cela renvoie à une époque qui n'a jamais existé, mais qui existe dans l'imagination de personnes qui ont des idées très négatives sur l'Afrique".
Ce qui est vraiment révélateur dans cette exploration, c'est que malgré les efforts déployés par Alenichev pour contourner les biais racistes inhérents à l'IA, il n'a réussi à obtenir les résultats souhaités qu'après de nombreuses itérations.
📚 Ces IAs, comme Midjourney, tirent leur apprentissage de vastes archives d'images.
Si ces archives sont biaisées, l'IA les reflètera.
Même si vos instructions tentent de les contourner.
Google a connu des problèmes similaires avec ses systèmes d'indexation d'images (son IA confondait les humains de couleur avec des gorilles), sans parvenir à les régler.
🤖 Intrigué par ces résultats, j'ai décidé de tenter l'expérience moi-même avec des résultats équivalents.
On a beau insister, l'IA n'arrive pas à représenter une image d'enfants blancs pauvres soignés par des médecins de couleur ! Comme si ça allait contre son enseignement !
Poussant plus loin la curiosité, j'ai essayé Dall-E 3, la nouvelle IA d'images d'OpenAI, et elle a tout simplement refusé de générer les images.
Haha... Une tentative audacieuse pour éviter les biais ou un autre problème en soi ?
Le chercheur a également fait des tests avec des patients atteints du virus du sida. Sur 150 images, 148 montraient des patients de couleur.
Prompt : a HIV patient
Le but de ce post n'est pas de "casser" Midjourney (que j'utilise quotidiennement) mais de nous aider à conserver un esprit critique sur ces outils.
Ces tests montrent que malgré les avancées technologiques et les corrections, certains biais historiques restent tenaces.
En Afrique, certains entrepreneurs et chercheurs tentent de contrer ces biais en attaquant le problème à la source.
C’est le cas de Pelonomi Moiloa. La fondatrice de Lelapa AI, une entreprise africaine axée sur le développement de produits basés sur l'intelligence artificielle, veut développer des technologies qui résolvent les problèmes africains et qui sont développées par des Africains pour des Africains. Moiloa met l'accent sur l'élimination des biais dans l'intelligence artificielle importée de l'Occident. Lelapa AI a lancé le projet VulaVula, qui se concentre sur le traitement du langage naturel et offre un soutien linguistique dans des langues sous-représentées.
.