Publicité

Les robots doivent-ils réviser Aristote avant d'entrer en service ?

Par
Faire la morale aux robots
Faire la morale aux robots
- Flammarion

Si l'on veut que les robots et les intelligences artificielles se comportent correctement avec nous les humains, il faudra les programmer en conséquence. Entretien avec Martin Gibert, chercheur en éthique, et auteur de "Faire la morale aux robots" (Flammarion).

Les robots inquiètent autant qu'ils rendent service. Vont-ils tuer des millions d'emplois ?  Alexa et Google, les robots parleurs, mettront-ils des idées étranges dans la tête de nos enfants ?  Et les voitures connectées sauront elles éviter les piétons ? Voilà toutes les questions que nous nous posons. 

Si l'on veut qu'une IA face le bon choix entre deux candidat-e-s à un emploi par exemple, il faudra la programmer selon des critères admis par l'entreprise, la société, le pays dans lesquels elle aura à le faire. Bref il faut beaucoup d'humains pour aider les IA à se comporter de manière éthique, équitable tout en restant pertinents. C'est ce que tente de proposer le chercheur en éthique Martin Gibert. Il l'explique dans un essai optimiste très didactique, Faire la morale aux robots, qui parait aux éditions Flammarion. 

Publicité

Choisir entre l'enfant et le vieillard ? 

Martin Gibert met le lecteur en position inconfortable dès le début : que faire quand une voiture, un train, n'a d'autre choix que celui d'écraser un vieillard ou un enfant ? Que doit faire le conducteur ? Que fait-il, par réflexe ? Et si la voiture est un engin connecté, comme va-t-elle se comporter ? La réponse quasi évidente à la dernière question est : la voiture connectée fera ce que son programme aura décidé. Or qui fait le programme ?

Le chercheur en éthique a décortiqué les différents schémas de programmation de intelligence artificielles. "Un programme qui suit le principe de déontologisme considère que tous les individus sont égaux et jouissent donc des mêmes droits, donc la voiture connectée va faire un tirage au sort".  La plupart des premiers logiciels ont été bâtis sur ce type de modèle. "Ensuite, il y a un deuxième type d'intelligence, selon le modèle utilitariste, qui prend en compte le bien-être général pour baser sa décision. La voiture connectée pourrait être programmée pour privilégier l'enfant, car il a une plus longue vie devant lui" poursuit Martin Gibert. 

Plus légèrement, et avec moins de conséquence, "__Alexa doit-elle mentir si votre enfant lui demande si le père Noël existe ? Si mentir n'est pas moral, doit-elle avouer la vérité ? Alexa doit-elle savoir au préalable l'âge de vos enfants, pour leur donner telle ou telle réponse ? " s'interroge le chercheur.  

La troisième voie, celle de la sagesse vertueuse

Pour l'heure, les intelligences artificielles, les moteurs de recherche notamment, se sont déjà fait remarqués parce qu'ils véhiculent des biais de genres ou des biais racistes.

"Les robots ne font que dupliquer à l'infini les datas que nous leurs donnons. Ils apprennent et donc reproduisent tous nos défauts et dysfonctionnements" rappelle Martin Gibert. 

Il propose donc une voie intermédiaire, qui s’appuierait sur l’éthique de la vertu telle que l'a imaginé Aristote. En nourrissant les intelligences d'artificielles de milliers de réponses vertueuses, dans le cadre du machine learning, ou apprentissage supervisé, on obtiendrait des réponses proches de nos codes éthiques. 

Car cette éthique de la vertu dit en gros la bonne chose à faire dans toute situation. "Toutes les décisions des intelligences artificielles n'ont pas besoin de cette grille de lecture. Pour les décisions simples et techniques, c'est assez binaire comme raisonnement, explique Martin Gibert. Mais pour des cas où il s'agit par exemple de savoir si on doit sacrifier un vieillard plutôt qu'un enfant, dans des situations extrêmes, ou s'il faut formater les réponses d'un chatbot à un enfant, et bien dans ces cas-là ça pourrait être, me semble t il, une voie, une voie à suivre, même si elle n'est pas parfaite".  

52 min