Sur Twitter, le recadrage des images repose la question du biais racial des algorithmes
Par Julien Baldacchino
Les algorithmes informatiques sont-ils racistes ? C'est la question qui est posée à Twitter, après qu'un internaute a repéré que le système de recadrage des photos semblait favoriser les personnes blanches par rapport aux personnes noires. Twitter, comme d'autres réseaux sociaux avant lui, enquête sur ces biais.
Twitter va mener des recherches sur son algorithme de recadrage d'images : dimanche, le responsable du design chez Twitter, Dantley Davis, a annoncé que le réseau social menait de nouvelles recherches sur son "réseau neuronal artificiel", autrement dit sur son "intelligence artificielle", autrement dit sur l'algorithme qui permet notamment à Twitter de recadrer l'aperçu de grandes images pour les centrer sur les visages.
Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.
Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
Dimanche, plusieurs internautes ont en effet relevé que cette fonctionnalité avait régulièrement tendance à favoriser un sujet blanc par rapport à une personne noire. Inspiré par un tweet qui signalait que sur l'application de vidéoconférence Zoom, une personne noire n'était pas prise en compte par la détection automatique des visages, un utilisateur a voulu tester l'acuité de l'algorithme de Twitter avec deux images grand format [à dérouler en cliquant sur le tweet, ndlr] présentant d'une part une photo de Barack Obama, d'autre part une photo du sénateur blanc américain Mitch McConnell, sur deux positions différentes. A chaque fois, c'est la photo de Mitch McConnell qui est mise en avant.
Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.
Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
D'autres utilisateurs et utilisatrices ont noté que le même biais pouvait être constaté avec un visage d'homme par rapport à un visage de femme, à un visage de femme blanche par rapport à un visage de femme noir... et qu'il s'appliquait même à des personnages de fiction, comme les Simpson.
Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.
Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
De leur côté, les équipes de Twitter disent avoir constaté que ce biais pouvait intervenir, mais pas de façon systématique – comme le montre Dantley Davis dans le tweet plus haut, et affirment donc mener des recherches pour savoir si ce résultat est réellement obtenu à cause de préjugés raciaux de l'algorithme ou si d'autres critères entrent en compte. "C'est une question très importante. Nous avions réalisé des analyses sur notre modèle lorsque nous l'avons lancé, mais il a besoin d'améliorations en permanence. J'aime ces tests publics, ouverts et rigoureux – et j'ai hâte d'en tirer des enseignements", a expliqué Parag Agrawal, responsable des technologies du réseau social.
Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.
Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
En 2018 déjà, les ingénieurs de Twitter, sur leur blog, avaient souligné les failles de cette fonction, au moment de son lancement : ils expliquaient alors que celle-ci reconnaissait parfois des visages là où il n'y en avait pas, et, inversement, loupait certains visages. L'algorithme a évolué avec le temps pour retenir les zones les plus "saillantes" d'une image.
Instagram, Facebook, IBM aussi concernés
Mais Twitter est loin d'être le premier réseau social touché par ces biais introduits par les algorithmes. Dès 2018, une étude, nommée "Gender Shades", a montré que les visages noirs avaient un taux de reconnaissance par les algorithmes nettement plus faible que les visages blancs. Ainsi, en juin, le PDG d'Instagram, Adam Mosseri, avait annoncé, dans la foulée du mouvement "Black Lives Matter", son intention de lancer un audit de son algorithme de suggestion de posts, pour qu'aucune communauté ne soit mise en côté.
Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.
Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
En juillet dernier, c'est Facebook qui avait annoncé avoir l'intention de revoir les règles de son algorithme pour éviter toute forme de discrimination. "Nous continuerons à travailler en étroite collaboration avec l’équipe Facebook Responsible AI pour nous assurer que nous examinions les potentiels préjugés raciaux sur nos plateformes respectives", avait alors annoncé le réseau social. Plus radicale, l'entreprise IBM avait annoncé en juin dernier la fin de tout développement de technologie de reconnaissance faciale basée sur l'intelligence artificielle, expliquant que celles-ci ne peuvent pas être sciemment utilisées "pour la surveillance de masse, le contrôle au faciès, les violations des droits et des libertés humaines".