"Coded bias", sur Netflix : algorithme et discrimination

Si l'algorithme a été "entrainé" avec des visages blancs, il détecte mal les visages noirs.
Si l'algorithme a été "entrainé" avec des visages blancs, il détecte mal les visages noirs. - "Coded Bias", Netflix
Si l'algorithme a été "entrainé" avec des visages blancs, il détecte mal les visages noirs. - "Coded Bias", Netflix
Si l'algorithme a été "entrainé" avec des visages blancs, il détecte mal les visages noirs. - "Coded Bias", Netflix
Publicité

Une étudiante chercheuse américaine découvre un jour qu'un algorithme de reconnaissance faciale ne détecte pas son visage, parce qu'elle est noire. C'est le point de départ d'une plongée dans les biais des algorithmes. A voir avec vos ados !

Le titre de ce documentaire n'est pas limpide : « Coded bias ». Littéralement, les biais du code. Mais le sujet s'éclaire grâce au sous-titre : « algorithme et discrimination ». Nous sommes au MIT, institut de recherche américain basé à Cambridge. Joy Buolamwini est étudiante chercheuse. Dans le cadre d’un projet d’étude, Joy a voulu créer un miroir qui pourrait l’inspirer le matin au réveil, lui donner de l’énergie. Un miroir qui collerait une tête de lion sur son corps à elle, ou le visage de quelqu’un qu’elle admire, comme Serena Williams. Elle a donc installé dans un miroir un logiciel de reconnaissance faciale, pour que le visage de Serena se place pile au bon endroit sur le sien.

Un biais raciste dans l'algorithme

Problème : le miroir ne détectait pas le visage de Joy. La reconnaissance faciale s’est mise à fonctionner quand Joy mettait un masque blanc sur son visage. Avec le masque blanc, la machine la détecte. Quand elle enlève le masque, rien, c’est comme s’il n’y avait personne devant le miroir. Sa première réaction a été de penser que la machine fonctionnait mal, sans doute une question d’éclairage, ou d’angle de prise de vue. Mais après de multiples tests et vérifications, il a fallu se rendre à l’évidence : l’intelligence artificielle ne détecte pas son visage parce qu’elle est noire.

Publicité

Elle est remontée à la source. Comment apprend-on à une machine à détecter un visage ? En l’entrainant. En lui montrant beaucoup d’images, certaines avec un visage, d’autres non. Joy a donc examiné les données qui avaient été fournies à cette intelligence artificielle et elle a constaté que les photos utilisées montraient en majorité des hommes à la peau blanche. Le système a moins l’habitude de voir des visages comme le sien, tout simplement. Il y a un biais raciste dans l’algorithme.

C’est ainsi qu’elle a commencé à étudier les biais qui s’immiscent dans la technologie. Les gens qui conçoivent les algorithmes ont des préjugés, comme tout le monde. Et ces préjugés imprègnent la technologie. Les usages policiers de la reconnaissance faciale, qui se développent partout dans le monde, le montrent : les erreurs d’identification (une personne qu’on prend pour une autre) concernent le plus souvent des individus non blancs.

Ce documentaire donne d’autres exemples de biais dans les intelligences artificielles. Il est question notamment de l’algorithme utilisé à une époque par Amazon pour trier les CV et faciliter le travail des recruteurs. Il s’est avéré que la machine ne sélectionnait presque aucun profil de femme. Ce n’est pas l’intelligence artificielle qui est sexiste, elle se contente d’intégrer une représentation du monde. Or très peu de femmes exercent des postes à responsabilité chez Amazon. Ce qu’on appelle le « machine learning », l’apprentissage automatique, n’est pas forcément compatible avec le progrès social.

A voir avec les ados

L’ambition de ce documentaire est de nous faire réfléchir à une éthique de l’intelligence artificielle. Et je vous recommande, en particulier, de le regarder avec des ados. Ce n’est pas parque les ados passent leur temps en ligne qu’ils savent vraiment comment fonctionnent les plateformes numériques ! Il est sain de s’interroger avec eux sur l’apparente neutralité des algorithmes. Cette neutralité n’existe pas, on le comprend dans le documentaire. Vous allez me dire : regarder ce film en famille, c’est rajouter du temps d’écran dans la journée des adolescents. Certes, mais c’est pour la bonne cause.

Coded bias : algorithmes et discriminations : documentaire de Shalini Kantayya (1h25), à voir sur Netflix.