L'utilisation de plus en plus fréquente des algorithmes dans le domaine de la sécurité intérieure et de la justice pose des questions essentielles sur notre capacité à comprendre et expliquer la science algorithmique. Qu'est-ce qu'un biais algorithmique et comment concilier éthique et numérique ?
- Bilel Benbouzid Sociologue, maître de conférences à l'Université Paris Est Marne la Vallée, au Laboratoire Interdisciplinaire Science Innovation Société.
- Aurélie Jean Docteure en sciences et entrepreneure, spécialiste des algorithmes
Nous vous invitons à explorer le monde mystérieux et fascinant des algorithmes, un terme qui est entré dans notre quotidien mais que nous ne comprenons pas toujours bien.
Les logiciels algorithmiques sont pourtant au cœur de nos vies connectées, au point de guider parfois les patrouilles policières aux Etats-Unis ou en France : on parle alors de "police prédictive", terminologie légèrement galvaudée qui parle à nos imaginaires. Mais ces algorithmes s'invitent aussi désormais dans les arcanes de la justice : entre aide à la décision pour les juges dans certains tribunaux américains et start-up triant les jurisprudences pour éclairer les avocats, la science algorithmique est présente dans des secteurs particulièrement sensibles.
L'enjeu de la compréhension et de la régulation des algorithmes apparaît ainsi primordial. Les réglementations proposées à l'échelle nationale et internationale détermineront dans les années à venir des menaces que les algorithmes feront peser sur nos libertés fondamentales.
Pour nous en parler, nous recevons :
Aurélie Jean, docteure en sciences, entrepreneure et auteure de Les algorithmes font-ils la loi ? (Ed. De l’Observatoire, 2021)
Florence G’sell, professeure de droit à l’université de Lorraine, co-titulaire de la chaire digital, gouvernance et souveraineté de Sciences Po et auteure de Justice numérique (Ed. Dalloz, 202
Bilel Benbouzid, sociologue, maître de conférences à l'Université Gustave Eiffel, au Laboratoire Interdisciplinaire Science Innovation Société
Les algorithmes dans le secteur de la police : des biais discriminants
Si lorsque l’on évoque la « police prédictive », l’intelligence artificielle omnipotente du film Minority Report réalisé en 2002 par Steven Spielberg nous vient instantanément à l’esprit, les expérimentations algorithmiques dans le secteur de la police paraissent en réalité très éloignées de cette projection. Dès 2012, un logiciel baptisé PredPol pour "Predictive Police" est utilisé aux États-Unis et repose sur un algorithme censé prévenir les délits et les crimes dans certaines zones.
C’est un logiciel de cartographie qui prédit les crimes dans l’espace et le temps. (…) Ce sont des modèles statistiques qui viennent de la physique statistique et qui essaient de prédire des phénomènes de réplication des crimes. Bilel Benbouzid, sociologue
Mais après 8 ans d’expérimentations dans de nombreux états américains, le logiciel PredPol fait aujourd’hui l’objet de vives critiques, notamment concernant certains biais au sein de l’algorithme qui perpétueraient des discriminations sociales. En avril 2020, la police de Los Angeles a ainsi stoppé l’utilisation de ce logiciel, à l’origine d’une stigmatisation de certains quartiers et certaines populations.
Il s’est passé deux choses. D’une part il y a eu une stigmatisation des lieux du crime, et d'autre part il y a eu une stigmatisation des criminels. (...) Le logiciel a tout simplement transformé une représentativité statistique en une condition systématique ce qui est tout de même assez grave. » Aurélie Jean, docteure en sciences, entrepreneure et auteure
Comprendre les algorithmes pour prévenir les biais
Dans les secteurs de la justice et de la police, une régulation plus stricte des algorithmes est attendue pour rendre le fonctionnement des systèmes transparent et prévenir les biais discriminants. Le 21 avril 2021, la commission européenne a publié une nouvelle proposition de réglementation de l’intelligence artificielle : les algorithmes dans le secteur judiciaire et policier y sont qualifiés d'outils "à risque élevé".
A travers des régulations qui j’espère vont arriver – et l’Europe travaille dessus actuellement – il faut imposer aux acteurs d’expliquer les algorithmes. Les encourager ou les forcer à appliquer des méthodes d’explicabilité, à les tester, à les développer d’une certaine manière en imposant des tests réguliers. » Aurélie Jean, docteure en sciences, entrepreneure et auteure
Dans le secteur de la justice, même si la terminologie de « justice prédictive » est rejetée par les experts, des outils algorithmiques sont utilisés en France comme des aides à la décision judiciaire, pour les justiciables et les avocats.
L’idée c’est simplement que l’on va faire tourner des algorithmes sur des bases de données qui sont composées de décisions de justice, et ces algorithmes vont nous donner une idée de la décision que l’on pourrait obtenir en justice, ou plutôt de la probabilité que l’on a d’être condamné, ou alors du montant possible que l’on pourrait obtenir comme indemnités. » Florence G’sell, professeure de droit privé
Aux États-Unis, un outil algorithmique différent suscite de nombreuses critiques : le logiciel Compas, utilisé par les juges pour estimer la probabilité de récidive des accusés et ajuster la peine en fonction de cette évaluation.
L'équipe
- Production
- Collaboration
- Réalisation