Non seulement l'Intelligence artificielle va supprimer de nombreux emplois, en permettant au consommateur de concevoir et de créer lui-même les biens qu'il désire, mais elle risque de déshumaniser la guerre, en confiant à des robots programmés, la sélection des cibles.
J'ai commencé à évoquer, hier, l’œuvre du philosophe italien Luciano Floridi, spécialiste des conséquences morales de l’Intelligence artificielle. La grande question, celle qui nous préoccupe de la manière la plus existentielle, concerne l’avenir du travail. Les robots intelligents et capables d’apprendre par eux-mêmes vont-ils nous remplacer ?
Luciano Floridi fait, à ce propos, une autre remarque intéressante : l’intelligence artificielle va donner davantage de pouvoir à l’usager. La participation du client sera de plus en plus sollicitée – comme on l’observe déjà dans les supermarchés, qui nous incitent à scanner nous-mêmes nos achats. Mais l’intelligence artificielle va surtout renforcer la possibilité du consommateur de participer activement à l’élaboration et à la création d’un produit véritablement sur-mesure. En supprimant, une fois encore, de nombreux métiers au passage – et pas seulement celui des caissières. Beaucoup d’emplois, situés entre les désirs du consommateur et leur réalisation, vont faire l’objet d’une sorte de court-circuit ; comme on le voit déjà avec les plateformes numériques, qui sont des systèmes de désintermédiation. Les machines connaissent bien nos goûts, nos aspirations, nos besoins. Et pour ce qui est de les satisfaire, leur imagination est sans limites.
C’est pourquoi le philosophe italien se montre pessimiste quant aux retombées sociales de ces nouvelles machines intelligentes : « le risque est que l’Intelligence artificielle continue à polariser nos sociétés – entre ceux qui possèdent et ceux qui ne possèderont jamais », écrit-il. « Il n’est pas difficile d’imaginer une hiérarchie sociale qui, dans l’avenir, placerait une poignée de patriciens au-dessus non seulement des machines intelligentes, mais d’une énorme nouvelle sous-classe plébéienne. »
Margaret A. Boden, de son côté, s’inquiète de voir, dans un proche avenir, des intelligences artificielles se substituer aux contacts humains interindividuels. Ainsi, certains imaginent déjà des robots « compagnons pour personnes âgées » isolées. Luciano Floridi écrit : « nous allons devoir repenser la sociabilité elle-même, avec l’apparition de compagnons artificiels, d’hologrammes, de domestiques en 3 dimensions, ou de robots sexuels, aptes à procurer des alternatives à l’interaction humaine pratiquement indiscernables des relations interpersonnelles. » Personnellement, je souhaiterais disposer d’un hologramme de mes penseurs favoris, programmés à partir de leurs écrits, afin d’avoir avec – disons Montesquieu, Tocqueville et Raymond Aron, des discussions enrichissantes… Mon cadeau de Noël 2027...
Il n’y a pas que les relations humaines que nous pourrions être amenés à « repenser », d’après Floridi. Ce sera aussi et surtout le cas du concept de liberté. Qu’en reste-t-il, en effet, dans un monde où des systèmes d’Intelligence artificielle peuvent prédire et manipuler nos choix ? Mais n’y sommes-nous pas déjà exposés, depuis que la publicité sur Google cible nos centres d’intérêt, que le moteur de recherche semble connaître mieux que nous ? A force de chercher à prédire nos comportements, n’y a-t-il pas un risque à nous enfermer dans un répertoire culturel limité, aggravé par les réseaux sociaux ?
J'évoquai aussi, hier, les retombées militaires de l’Intelligence artificielle. Allons-nous vers la guerre des robots ?
Dans le numéro de la revue britannique Propect qui vient juste de paraître, le philosophe AC Grayling publie justement un article consacré à cette question. Comme bien des spécialistes de la stratégie, il fait le constat que ce sont les technologies et leur évolution qui scandent le développement de la pensée stratégique. L’invention du canon ruine le château-fort, comme celle du tank met fin à la guerre de tranchées et la guerre du Vietnam marque l’entrée dans la guerre de l’hélicoptère.
Mais à ses yeux, je cite « le prochain tournant dans la longue histoire de la guerre pourrait bien être les machines autonomes à tuer des gens ». Des drones tueurs sont employés par les Etats-Unis au-dessus de l’Afghanistan et de l’Iraq. « Ces systèmes suggèrent une guerre du futur dans lequel le combat sera l’affaire de machines de plus en plus libres de contrôle humain. »
A l’heure actuelle, ces drones tueurs sont pilotés à une distance confortable par des militaires basés en particulier dans la base de Creech près de Las Vegas. Ce qui pose déjà de sérieux problèmes moraux. Cette forme de guerre est jugée déloyale par les insurgés, combattant du « faible au fort ». Mais Grayling relève des glissements sémantiques bien propres à inquiéter. On est sur le point de passer de systèmes contrôlés en temps réel par des humains, comme disent les militaires « avec humain dans la boucle » (human-on-the-loop systems), à de nouvelles armes qualifiées « d’humain hors de la boucle » (human-out-of-the-loop), c’est-à-dire complètement autonomes, programmés pour rechercher, identifier et attaquer des cibles sans contrôle humain.
Comme l’écrit le philosophe britannique, "l’idée de déléguer une décision de tuer à des machines contredit les lois humanitaires." Car celles-ci comportent, du côté des démocraties, le devoir de discriminer entre les cibles militaires et celles qui ne le sont pas. Mais comme il le remarque également, les guerres du XX° siècle nous ont vu les populations civiles urbaines écrasées sous des « tapis de bombes ». Et de rappeler qu’en 1899, a été signé par les grandes puissances de l’époque, à La Haye, un traité prescrivant les bombardements aériens – on pensait alors au risque de lancer de grenades depuis des ballons dirigeables… Alors, l’espoir de voir interdire la guerre des robots est bien mince…
L'équipe
- Production