

De plus en plus d’artistes tentent d’anticiper via la fiction les liens que nous pouvons développer avec les intelligences artificielles. Martin Gibert, professeur d’éthique à l’Université de Montréal, revient au micro de Marie Sorbier sur l’urgence contemporaine d’apprendre la morale au robot.
- Martin Gibert Chercheur en éthique de l'intelligence artificielle à l'Université de Montréal
De plus en plus d'artistes et d'écrivains tentent d'anticiper via la fiction les liens que nous humains allons pouvoir développer avec les intelligences artificielles. Martin Gibert, chercheur en éthique à l'Université de Montréal qui travaille spécifiquement sur l'éthique des algorithmes, est au micro de Marie Sorbier. Dans son ouvrage Faire la morale aux robots (Flammarion, 2021), il fait une distinction fondamentale entre comment la société pense que nous devrions faire la morale aux robots et comment faire la morale aux robots.
C'est toute la différence entre l'éthique et la science. La science est descriptive, elle nous dit comment les choses sont. L'éthique, elle, n'est pas une science. Elle ne cherche pas à décrire, elle est normative : elle dit comment les choses devraient être. Il peut y avoir une distance entre ce que les gens pensent et comment les choses devraient être. Les Grecs anciens trouvaient que l'esclavage était moralement acceptable, du point de vue descriptif. La distinction entre éthique et science, c'est le rapport entre normatif et descriptif.
Martin GibertPublicité
L'objectif des réflexions éthiques est-il de trancher entre les comportements les plus utilitaristes et ceux qui ont trait plus à la déontologie ? La déontologie et l'utilitarisme sont des théories morales qui peuvent être appliquées pour résoudre des dilemmes moraux. Par exemple, le dilemme posée à une voiture autonome programmée pour se comporter moralement et qui doit choisir entre sauver un enfant et sauver une personne âgée. Si un humain est face à ce dilemme, estime Martin Gibert, la décision sera de l'ordre du réflexe, et non pas le résultat d'une délibération morale. En revanche, cette délibération morale intervient dans la programmation de la voiture autonome. C'est alors que peuvent s'appliquer les différentes théories morales.
L'approche déontologique affirme qu'il ne faudrait pas faire de choix, qu'il ne faudrait pas discriminer selon l'âge de la personne à sauver. Ainsi, la bonne manière de programmer la voiture autonome serait de lui demander de tirer au sort entre l'enfant et la personne âgée. Plusieurs études en psychologie morale, précise Martin Gibert, révèlent des avis différents à travers le monde, avec une tendance à l'utilitarisme. L'approche utilitariste consiste à préférer sauver l'enfant parce que c'est l'individu auquel il reste le plus d'années à vivre. Prolonger son existence correspond donc plus à l'objectif de maximisation du bien-être collectif vers lequel tend l'utilitarisme.
Imitation de la vertu
Dans Faire la morale aux robots, Martin Gibert soumet une troisième théorie morale pour répondre à ce dilemme : l'éthique de la vertu. Là où la déontologie s'ancre dans le respect de règles précises et où l'utilitarisme cherche les moyens de maximiser le bien-être, l'éthique de la vertu consiste en une stratégie différente et indirecte. Il s'agit dans cette approche de programmer la voiture autonome pour qu'elle agisse comme le ferait une personne vertueuse dans une situation similaire. Un des enjeux du travail de Martin Gibert est de montrer que la théorie de l'éthique de la vertu peut s'appliquer à la programmation de l'ensemble des systèmes d'intelligence artificielle. Est-ce à dire que nous sommes aujourd'hui capable d'apprendre la vertu aux robots ?
Les robots n'ont pas de conscience, donc dire qu'ils sont vertueux, ou honnêtes, justes, courageux, n'a pas de sens. Néanmoins, on peut les programmer pour qu'ils imitent les humains vertueux, généreux, courageux. Le robot vertueux n'a pas besoin de l'être réellement pour se comporter en tant que tel.
Martin Gibert
Un grand nombre de productions culturelles, pièces de théâtres, films, romans d'anticipation, s'interrogent sur le mal que les humains pourraient faire aux robots. Aussi bien qu'elle s'intéresse aux dérives potentielles des intelligences artificielles, l'éthique questionne notre comportement moral face aux artefacts que nous avons créés. Se demander si nous avons des devoirs moraux envers les robots, c'est considérer ces derniers comme des patients moraux, explique Martin Gibert. Un patient moral est une entité à qui on peut causer du tort. Si les robots étaient sensibles, capables de ressentir de la douleur, cela constituerait une raison légitime de ne pas les torturer. Si ces robots sensibles n'existent pas encore, le simple fait de considérer qu'on pourrait faire du mal à de telles entités est un motif suffisant pour ne pas les créer, estime le philosophe.
Pour programmer des robots avec des valeurs morales, tout l'enjeu est de s'accorder sur les valeurs qu'on veut leur transmettre. La programmation d'une voiture autonome devrait-elle être propre à chaque pays, ou au monde entier ? Quelle théorie morale mettre en place dans cette programmation ? Comment hiérarchiser les normes et la valeurs ? Si ces questions fondamentales de l'éthique n'ont pas de réponses absolues, un large consensus existe sur certaines situations.
A peu près tout le monde est d'accord pour dire que l'esclavage est immoral, que torturer un innocent pour le plaisir est mal, mais il y a des situations beaucoup plus ambigües. L'ingénieur qui construit la voiture autonome doit mettre quelque chose l'algorithme, quand bien même il n'y aurait pas d'unanimité sur l'approche à choisir. A mon sens, l'éthique de la vertu peut aider face à cette difficulté.
Martin Gibert
L'équipe
- Production
- Collaboration
- Collaboration
- Collaboration
- Collaboration
- Collaboration
- Réalisation