Synonyme d’évolution, de progrès, d’avenir… l’intelligence artificielle fait aujourd’hui partie de nos vies. À tel point qu’il nous serait difficile d’énumérer la multitude d’algorithmes avec lesquels nous interagissons quotidiennement. Une révolution technologique. Oui mais depuis quelque temps, l’intelligence artificielle est pointée du doigt car de nombreuses études montrent qu’elle contribue à renforcer les biais sexistes présents dans notre société.

“L’intelligence {artificielle} – est l’icône de la modernité. Au contraire, sur le terrain de l’égalité entre les femmes et les hommes, elle est plutôt archaïque… ”  Aude Bernheim et Flora Vincent dans « L’intelligence artificielle, pas sans elles ! « , 2019

L’IA REPRODUIT LES STÉRÉOTYPES SEXISTES.

Les préjugés sexistes, notamment à l’encontre des femmes sont présents au quotidien et dans de nombreux domaines. Le monde de la technologie et du numérique ne sont malheureusement pas épargnés. Les stéréotypes du genre sont tellement intégrés dans nos mentalités qu’on les retrouve dans les programmes des IA que nous utilisons. Ce sont des constats qui doivent nous interpeller puisque l’intelligence artificielle est aujourd’hui impliquée dans nos prises de décisions et participe à perpétuer les inégalités.

En 2017, un internaute créé la polémique en remarquant que le logiciel de Google Traduction regorge de stéréotypes sexistes. Les hommes sont associés aux métiers de la science, de la technologie et de l’informatique et les femmes sont associées au foyer. Le mot “capitaine” sera associé à l’homme, le mot “nounou” sera associé à la femme.  Il en est de même pour les algorithmes de reconnaissance d’image de Facebook et Microsoft. Le domaine du sport sera associé à l’homme tandis que les domaines de la cuisine et du shopping seront associés à la femme.

Amazon avait d’ailleurs dû mettre fin à ses essais sur un algorithme mis en place pour le recrutement au sein de l’entreprise. Le programme avait pour but d’automatiser le recrutement en analysant les CV des candidats et des candidates en attribuant des notes. Le programme se basait sur les données de recrutement récoltées au cours des dix dernières années au sein de l’entreprise. Ainsi, il s’est mis à pénaliser les CV des femmes pour les postes technologiques puisque les données montraient qu’il s’agissait de postes à prédominance masculine. 

Plus récemment, c’est la plateforme Vinted qui est visée pour les failles de son système d’Intelligence artificielle.

En octobre 2019, le PDG de Vinted accordait une interview au Nouvel Obs et affirmait avoir investi dans un logiciel d’IA afin de bloquer les visuels et les éléments de langages à caractère sexuel. Le 24 janvier dernier, Garance 24 ans, créatrice du compte Instagram @balancetonvinted, reçoit un avertissement de la plateforme. La raison ? Elle n’est pas assez cordiale dans ses réponses. Ces réponses qu’elle envoie aux nombreux messages déplacés de la part de certains utilisateurs masculins qui ont l’air de pouvoir harceler les utilisatrices sans vraiment se faire réprimander par la plateforme.

Les personnes qui m’envoient des trucs hyper limites, je n’ai aucune idée de ce qu’il s’est passé pour leur compte après mes signalements. Et je reçois beaucoup de témoignages qui me racontent que leurs signalements n’ont pas donné suite. Encore une fois, on demande à la victime de se justifier, et l’oppresseur est impuni. Cela renvoie à la culture du viol et la plateforme n’est pas capable de modérer ses messages” Garance, créatrice du compe Instagram @balancetonvinted

Captures d’écran du compte Instagram @balancetonvinted

Ces nombreux exemples montrent bien qu’encore aujourd’hui, il y a du progrès à faire dans la programmation d’IA afin de déconstruire les stéréotypes sexistes. Mais pourquoi les programmes reprennent-ils les stéréotypes du genre ?

POURQUOI L’INTELLIGENCE ARTIFICIELLE  EST-ELLE SEXISTE ? 

On pourrait croire que les technologies sont neutres, objectives et égalitaires et que l’IA ne tient pas compte du genre. Sans surprise, ce n’est pas le cas !
L’intelligence artificielle se base sur des ordinateurs, des données et des algorithmes. Par qui ces algorithmes sont-ils codés ? Par nous. Les humains. Et nous sommes loin d’être neutres et objectifs.

En 2018, 78% des programmes étaient codés par des hommes (dû au manque de femmes dans les métiers de la tech). En 2019, un informaticien sur 3 était une femme. En 2020, il y avait seulement 27,5% de femmes salariées dans le secteur du numérique. Les femmes ne représentent que 15% des étudiant.e.s en informatique alors qu’elles étaient près de 40% dans les années 1940 à 1950 !
Ce manque de femmes dans les métiers du numérique a donc une conséquence forte sur la programmation des algorithmes d’ intelligence artificielle.

Consciemment ou non, les personnes qui programment les algorithmes (majoritairement des hommes) ont tendance à reproduire leurs propres expériences dans la société.

Beaucoup de gens nous disent que cela montre que l’IA a des préjugés. Mais non. Cela montre que nous avons des préjugés et que l’IA les reprends.” Joanna Bryson dans The Guardian.

Ainsi l’IA et ses applications ne sont que le reflet des représentations et expériences de ceux qui les conçoivent. C’est pourquoi elle reproduit et renforce donc les préjugés et les stéréotypes sexistes présents dans notre société.

COMMENT ÉVITER LA REPRODUCTION DES SCHÉMAS SEXISTES DANS L’IA ?

Même s’il est difficile de changer les mentalités du jour au lendemain, il reste quand même simple de changer les lignes de codes afin d’éviter de propager et renforcer les biais sexistes. C’est en commençant par ce type de changement que nos mentalités évolueront. Oui, il faut avoir de l’espoir !  Aujourd’hui, de nombreuses solutions s’offrent à nous. 

Voici une liste non exhaustive des solutions existantes pour lutter contre les préjugés sexistes au sein des métiers du numérique et de la tech.

  • Intégrer plus de femmes dans le numérique ! Il faut lutter contre ces idées qui nous font croire que ces métiers sont essentiellement des métiers masculins. 
  • Faire participer les associations féministes, les spécialistes de l’égalité homme-femme afin de vérifier que les algorithmes ne sont pas biaisés.
  • Sensibiliser dès l’apprentissage en école d’informatique et autres lieux de formation afin que les préjugés ne soient pas repris dans la programmation. Certaines écoles apprennent déjà à coder l’égalité.
  • Concevoir les programmes afin que les IA combattent les stéréotypes du genre plutôt que de les renforcer.  L’intelligence artificielle peut être une alliée de l’égalité. Pourquoi ne pas l’utiliser comme un outil nous permettant de lutter contre les discriminations ?

Aujourd’hui, de nombreux chercheurs et chercheuses se sont lancés dans la recherche de biais dans les algorithmes afin de les supprimer. Les GAFAMI, qui sont de gros investisseurs dans l’IA, proposent des sensibilisations dès l’université afin de promouvoir leurs formations en ligne pour lutter contre les discriminations et développent des tests qui permettent de détecter les biais. Ainsi, l’outil Fairness Flow développé par Facebook, détecte dès qu’un algorithme émet un jugement sexiste.

Il existe aussi la fondation Femme@numérique qui réunit 30 associations et 42 entreprises et qui promeut la féminisation des métiers du numérique. 

Fondation Femme@Numerique

Tant d’exemples qui nous montrent que réduire les biais sexistes et les discriminations dans l’IA et les métiers du numérique : c’est possible ! 

 

Sources :