Intelligence artificielle et éthique ne font pas (encore) bon ménage

Présentation d'un logiciel de reconnaissance faciale Consumer Electronic Show de Las Vegas.  Le 15 mai 2019, la ville de San Francisco a interdit la reconnaissance faciale en raison des risques d'erreurs et d'empiètement sur les libertés individuel
Présentation d'un logiciel de reconnaissance faciale Consumer Electronic Show de Las Vegas.  Le 15 mai 2019, la ville de San Francisco a interdit la reconnaissance faciale en raison des risques d'erreurs et d'empiètement sur les libertés individuel ©AFP - Robyn Beck
Présentation d'un logiciel de reconnaissance faciale Consumer Electronic Show de Las Vegas. Le 15 mai 2019, la ville de San Francisco a interdit la reconnaissance faciale en raison des risques d'erreurs et d'empiètement sur les libertés individuel ©AFP - Robyn Beck
Présentation d'un logiciel de reconnaissance faciale Consumer Electronic Show de Las Vegas. Le 15 mai 2019, la ville de San Francisco a interdit la reconnaissance faciale en raison des risques d'erreurs et d'empiètement sur les libertés individuel ©AFP - Robyn Beck
Publicité

42 pays se sont engagés cette semaine sur des principes pour éviter les risques de dérive liés à l'intelligence artificielle. Rien de contraignant, alors que les risques de dérives sont immenses et les acteurs privés et publics souvent de mauvaise foi. Sur qui compter ?

La musique qu'on entend au début de la bulle parlée n'a pas été suggéré par un algorithme, elle a été composé par un algorithme, à qui on avait fourni comme base de données, toutes les chansons des Beatles.

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

Cette expérimentation, vous en conviendrez, ne permet pas vraiment de conclure à la supériorité de la machine sur le cerveau humain pour la composition musicale, mais elle prouve qu'il n'y a aucune limite au développement des intelligences artificielles, pas même la créativité.   

Publicité

Contrairement aux humains, elles n'éprouvent ni plaisirs, ni désirs, n'ont ni intention propre, ni appétit de vivre, mais elles peuvent faire preuve de créativité, apprendre, prédire (les mouvements boursiers, les pandémies, l'éventualité d'une condamnation judiciaire etc... ), traiter plus de données en une seconde qu'un cerveau humain en une vie.   

Voilà pourquoi aucun métier ne sera épargné, col bleu, col blanc, commerce service, les pertes d'emplois seront immenses. On le sait.   

Les estimations vont de quatre emplois sur 10 pris par des machines d'ici 15 ans, à 30% d'ici 2030, jusqu'à 99% à terme pour les plus pessimistes, en passant par 0 pour ceux qui croient que l'Intelligence artificielle, IA pour les intimes, créera plus d'emplois qu'elle n'en détruira.     

Cartographie des enjeux et différents domaines d'intelligence artificielle.
Cartographie des enjeux et différents domaines d'intelligence artificielle.
- WEF, Forum de Davos

Un nouveau métier : expert en éthique et intelligence artificielle

Parmi ces nouveaux métiers, on peut déjà citer ... expert en éthique des systèmes d'intelligence artificielle.   Ah l'éthique, c'est important... Google, Microsoft, Facebook, IBM, Amazon... toutes les entreprises qui développent ces systèmes et ont une image de marque à défendre ont des comités ethique sur l'IA, des chartes éthiques sur l'IA, participent à des partenariats éthiques sur l'IA.    

Les Pays aussi s'engagent. L'Union Européenne a publié récemment   une liste de lignes directrices pour "je cite" des intelligences artificielles dignes de confiance et cette semaine 42 pays dont la France, les États Unis et les autres pays de l'OCDE se sont engagés à respecter aussi des principes. Il y a un an, le mathématicien et député d'En Marche Cédric Villani a publié son rapport intitulé " Donner un sens à l'intelligence artificielle" avec un hashtag : AIforhumanity.   La CNIL (Commission Nationale Informatique et Libertés) a aussi publié le sien.       

Les préconisations sont semblables, on peut les regrouper en quatre catégories.        

  • garantir que la technologie elle même est sûre, robuste, sans faille, qu'elle ne produit pas de biais ou d'erreurs.  
  • s'assurer qu'elle soit compréhensible, explicable, que les humains soient au courant quand il interagissent avec une machine, qu'ils puisse contester ses décisions.  
  • évaluer l'impact environnemental de l'IA que l'on développe, sa consommation d'énergie, la capacité de recyclage de ses composants.  
  • responsabiliser les acteurs, autrement dit les entreprises qui effectuent les recherches.  

Ne pas limiter la recherche en l'encadrant  Ces principes sont louables, mais aucun d'eux n'est contraignant. Encadrer, réglementer, au nom de dangers potentiels, cela briderait l'innovation, a expliqué cette semaine à l'OCDE, Michael Kratsios, le conseiller en technologie de Donald Trump. Et ce serait de surcroit, laisser le champ libre aux Etats moins regardants sur l'éthique.   Son discours ici.   

Nous sommes convaincus que se précipiter pour imposer des règles couteuses et multiples ce serait céder notre avantage concurrenciels à des gouvernements qui ne partagent pas nos valeurs.   We firmly believe that a rush to impose onerous and duplicative regulations will only cede our competitive edge to authoritarian governments who do not share our same values. Mikael Kratsios, conseiller en technologie de Donald Trump. 

Énoncer des principes et laisser faire ...

Sur l'Intelligence artificielle, comme sur tant d'autres sujets d'envergure internationale, la régulation est vue comme un frein à la compétivité, un boulet, or tous les Etats veulent faciliter l'essor de champions nationaux, la France ne fait pas exception. Ici le discours d'Emmanuel Macron il y a un an sur l'Intelligence artificielle.    

Alors pour le moment, c'est le marché qui choisit les projets de recherche qui méritent d'être financés. Or le marché ne pense pas Ethique quand il pense Intelligence artificielle, il pense Ruée vers l'or.   

Le nombre d'accord d'investissement dans l'IA augmente chaque année de 35% depuis 2011.   

ll y a 8 ans, les start ups spécialisées dans l'intelligence artificielle avaient recueilli 3% des fonds de capital investissement mondiaux, l'an dernier 11%. Les États Unis font la course en tête, largement, puis vient la Chine, et loin derrière l'Union Européenne et Israël.   

Que finance t'on ? La recherche sur la voiture autonome, beaucoup (23% du total), mais aussi les systèmes de reconnaissance faciale.   

Au début du mois, le leader mondial chinois de cette technologie n'a eu aucun mal à trouver 750 millions de dollars de capitaux, y compris américains, en dépit des critiques sur son usage non éthique en Chine. 

Cette semaine, l'assemblée générale d'Amazon a refusé d'interdire la vente de service de reconnaissance faciale à la police américaine alors que des actionnaires s'étaient inquiétés des erreurs, et des menaces pour la vie privée, mais la majorité a suivi l'avis du conseil d'administration selon lequel "Une technologie nouvelle ne devait pas être interdite ou condamné à cause de mauvais usages potentiels".   

L'an dernier, Google a publié son code éthique au moment même où il adaptait son moteur de recherche aux besoins de censure de l'Etat Chinois.  

Après le green washing, l'ethic washing

Sur l'intelligence artificielle et l'éthique, les doubles discours sont donc légions, on appelle même cela du Ethic Washing.   

Pour le moment, les meilleurs remparts sont la presse, notamment américaine via ses révélations ( voir ici les articles de The Intercept sur le programme Dragonfly de Google), et les salariés de ces entreprises, qui dans le cas de Google ont réussi à faire abandonner le contrat avec les chinois, et un autre contrat avec le Pentagone.    

Vous trouverez ici le témoignage d'un ancien de ses salariés qui a depuis démissionné.         

Peut on compter sur les États ??   

Les États jouent eux aussi double jeu, car s'ils énoncent dans leurs principes la supériorité des intérêts humains sur le progrès technique, ils sont aussi très intéressés par tout ce que l'intelligence artificielle leur permettra de contrôler, de prédire et de surveiller.     

Les associations et ONGs mobilisées sur ces questions existent (voir liste en lien du tweet ci dessous) mais pour le moment le public est peu conscient ou peu soucieux (voire les deux) des risques qui pèsent sur sa vie privée, comme s'il avait déjà déclaré forfait, suggèrent des experts cités par cet article du Financial Times sur les "formidables" nouvelles capacités de surveillance des salariés par les IA.    

Marie Viennot   

Bonus, une autre chanson composée par une IA, mais à la façon de  "Irving Berlin, Duke Ellington, George Gershwin et Cole Porter".    

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

L'équipe