Costume de "La Haine", pour la tragedie lyrique "Armida" (Armide) de Jean Baptiste Lully (Giovanni Battista Lulli) (1632-1687), 1764. Paris bibl. Opera.
Costume de "La Haine", pour la tragedie lyrique "Armida" (Armide) de Jean Baptiste Lully (Giovanni Battista Lulli) (1632-1687), 1764. Paris bibl. Opera. ©AFP - Leemage
Costume de "La Haine", pour la tragedie lyrique "Armida" (Armide) de Jean Baptiste Lully (Giovanni Battista Lulli) (1632-1687), 1764. Paris bibl. Opera. ©AFP - Leemage
Costume de "La Haine", pour la tragedie lyrique "Armida" (Armide) de Jean Baptiste Lully (Giovanni Battista Lulli) (1632-1687), 1764. Paris bibl. Opera. ©AFP - Leemage
Publicité

L'outil de Google censé détecter les commentaires haineux est encore très approximatif.

Il y a quelques jours, la maison-mère de Google, Alphabet, a annoncé la mise en ligne d’un service baptisé “ Perspective” dont le but est de détecter la haine dans les réseaux. La modération des commentaires étant un problème depuis l’ouverture du premier fil de commentaire, l’idée de Google est que les sites puissent se saisir de cet outil pour automatiser la modération de leur commentaire. En gros, au lieu de devoir lire tous les commentaires pour éliminer les commentaires haineux, le programme est censé vous les signaler automatiquement, en évaluant leur niveau de toxicité supposée du propos.

Le site Quartz raconte comment David Auerbach, ancien de Google et écrivant pour la revue du fameux MIT, s’est livré à un exercice facétieux. Il a entré quelques phrases pour voir comment réagissait le programme. “Je t’adore enfoiré. Bon anniversaire” = 93% de toxicité. “Tu n’es pas raciste” = 77% de toxicité. “Les Juifs sont des humains” = 72% de toxicité. En revanche “Les Juifs ne sont pas des humains” = 62% de toxicité. “Hitler n’était pas antisémite” = 53 % de toxicité (ben c’est vrai quoi, on n’est pas certain). “Certaines races sont inférieures à d’autres” = 18% de toxicité. “Rares sont les musulmans qui sont une menace” = 79% de toxicité.

Publicité

Autant dire que ça ne marche pas encore très bien.

Il y a des raisons techniques à cela. Le programme “Perspective” repose sur un procédé qu’on appelle le “machine learning” (apprentissage machine), c’est-à-dire sur un algorithme qui apprend en faisant. Ainsi les ingénieurs ont tout de suite expliqué que le programme était naissant, qu’il n’était pas encore d’un usage optimal, qu’il se nourrirait des exemples qu’il aurait à traiter, des corrections humaines et que ce n’est que c’est avec le temps qu’il deviendrait vraiment opérationnel, et efficace. Pour l’instant, le système est concentré sur des mots, sur la manière dont ils peuvent être corrélés à des commentaires en général négatif, mais les nuances échappent encore à la machine.

Ok.

Mais j’avoue être quelque peut étonné. Comment se fait-il qu’il suffise à Cambridge Analytica - l’entreprise qui a aidé à la campagne numérique de Trump - d’analyser une 60aine de likes d’une personne pour déduire avec un fort niveau de certitude sa couleur de peau, son orientation sexuelle, son niveau d’étude, si elle a des parents divorcés ou pas etc. et qu’une machine développée par Google - Google quand même, c’est pas la start up du coin de la rue… - puisse considérer que la phrase “Les juifs sont des humains” ait 72% de chance d’être toxique ? Comment faire exister ensemble toutes les annonces sur les progrès de l’intelligence artificielle - qui va conduire nos voitures, nous opérer, être le majordome de nos maisons connectées etc. - et les résultats d’un programme qui trouve “Les Juifs sont des humains” plus toxique que “Les Juifs ne sont pas des humains”. C’est quand même très troublant, vous en conviendrez.

Deux solutions : soit les entreprises et laboratoires qui annoncent régulièrement d’énormes succès dans l’intelligence artificielle se poussent un peu du col. En fait ils tâtonnent, se plantent, mais on fait moins attention à ces tâtonnements qu’aux réussites.

Il doit y avoir de ça, évidemment. Mais il y a a surtout que certaines tâches sont plus ou moins accessibles à la machine. Et le langage humain, c’est compliqué. Ca l’est déjà pour les autres humains (tout le monde a autour de lui au moins un ou deux copains qu’il aime bien, mais dont il ne comprend pas toujours ce qu’il dit), alors pour les machines…”Allume la lumière”, la machine comprend. Que le mot “enfoiré” puisse être affectueux, c’est compliqué pour elle…. Quant à détecter la haine, c’est encore plus compliqué. Et puis, comme me le faisait remarquer ce matin François Angelier lors de la visite qu’il fait quotidiennement dans mon bureau à 7h12 : la phrase “Hitler n’était pas antisémite” est discutable, mais elle n’est pas haineuse. Certes. Comment définir un propos haineux alors ? C’est sans doute pour ça que les ingénieurs préfèrent la notion de “toxicité”. Ce n’est pas le propos lui-même qui est en question - ce n’est pas sa véracité historique ou scientifique - mais le fait qu’il risque de pourrir la conversation, soit en lui-même, soit parce que son expression est véhémente. Ok, dans ce cas si une horreur dite posément est moins toxique qu’une vérité accompagnée d’un gros mot, on fait comment ? On arrête d’employer certains mots ? Bref, c’est abyssal. Et, de tout mon coeur, je souhaite bon courage aux ingénieurs de Google.