L’intelligence artificielle en débat

 

 

L’intelligence artificielle

L’IA (Intelligence Artificielle) est de plus en plus utilisée. Et nous ne sommes, très probablement, qu’au tout début d’une utilisation de plus en plus généralisée.

Les héritiers de la pensée de Jacques Ellul ne peuvent que développer une opposition vis-à-vis de l’IA, un des derniers avatars particulièrement puissants de nos technologies. Surtout si l’on tire les déductions pratiques auxquelles conduisent, ipso facto, cette opposition. Le théologien protestant Frédéric Rognon, admirateur et adepte de Jacques Ellul, écrit un article intitulé "Jacques Ellul et l'Intelligence Artificielle" (Paroles protestantes, édition Paris, septembre 2020).

Comme, à son époque, J. Ellul ne pouvait pas stigmatiser l’IA, on ne peut qu’en déduire que Fréderic Rognon fait siennes les conclusions de Jacques Ellul sur les techniques en les appliquant, tout naturellement, à l’IA : « sacralisée », « ambivalente », qui doit être « profanée au nom du Dieu vivant ».

Une telle position, au nom de la foi chrétienne, n’est pas sans susciter plusieurs interrogations. Vous trouverez ci-dessous les questions suscitées et les réponses que nous donnons.

* * * * *

L’intelligence artificielle (IA) est une des technologies de plus en plus généralisée. Est-elle « sacralisée » ? Est-elle « ambivalente », doit être « profanée au nom du Dieu vivant » ?

Il est inquiétant d’abandonner au nom du Dieu vivant une composante essentielle de notre être, notre intelligence, qui contribue à nous rendre créateur, à l’image de notre Créateur. L’utilisation de l’IA, comme de beaucoup d’autres techniques, nous conduit à en obtenir tantôt le meilleur tantôt le pire, mais pas à la fois le meilleur et le pire. L’IA est-elle sacralisée par ses créateurs et ses utilisateurs ? Non, en aucune façon. En milieu religieux, le qualificatif me semble attribué pour disqualifier l’IA en la « démonisant » et pour déclarer qu’il faut la « profaner au nom du Dieu vivant »

On a le plus fréquemment l’habitude d’entendre que les techniques ne sont ni bonnes, ni mauvaises en elle-même. Tout dépend ce qu’on en fait. Autrement dit, au départ, elles sont neutres. Cette qualification ne convient pas aux détracteurs de l’IA qui la qualifient d’ambivalente. Le terme d’ambivalent convient-il ?

Je n’adhère pas au qualificatif d’ambivalent qui signifie, par définition, ambiguë, c’est-à-dire pouvant servir simultanément à deux usages distincts. Ce sont plutôt nos caractères, à nous humains, qui sont ambivalents, pouvant manifester simultanément deux sentiments opposés à l’égard d’une même personne (amour et haine, joie et tristesse, etc.) ; il en résulte des utilisations ambivalentes de nos créations les plus performantes ou même les plus belles. Ainsi, bien qu’une voiture puisse être utilisée comme véhicule, pour convoyer quelqu’un, elle peut être, dans le même temps, utilisée, par un chauffard ou par un terroriste, pour l’écraser (tristement illustré récemment à Nice). Alors, pour le motif de la soi-disant ambivalence des techniques, devrait-on refuser de les utiliser pour construire des voitures, pour générer et conduire l’électricité, pour maîtriser l’énergie atomique, la force marémotrice, etc. ? La réponse évidente est non. A moins que la crainte de notre ambivalence humaine amène à la non utilisation de certaines technologies, considérées comme diaboliques (en fait c’est nous qui le sommes !!!), comme le font, actuellement encore, les Amish … Bien sûr toute technologie a le potentiel d’être dangereuse. Cependant, une autre manière de faire face aux risques c’est d’émettre des règles de sécurité (code de la route par exemple). L'utilisation des nouvelles technologies a d’ailleurs toujours été encadrée (cf. le comité national d'éthique, entre autre, dans le domaine du vivant)[i]. La dissuasion nucléaire a servi, pendant la guerre froide, à protéger l’humanité contre sa propre folie … en jouant sur notre réflexe de survie profondément enraciné en nous. Certains, comme J. Moltmann, considèrent que le temps de l’utilisation dissuasive du nucléaire est à présent révolu en raison de l’existence de nations terroristes qui cultivent une idéologie de mort affirmant : Nous ne voulons pas gagner ; nous voulons tuer et être tués. Les dispositifs de dissuasion nucléaire ne fonctionnent que tant que tous les belligérants ont la volonté de vivre et veulent survivre.

Certes, toute technologie a le potentiel d’être dangereuse. Récemment, l’utilisation de l’IA a influencé les électeurs d’au moins deux grands Etats de notre planète. Devons-nous pour cette raison s’en méfier au point d’aller jusqu’à la « profanation » ?

Nous sommes déjà habitués, et depuis fort longtemps, au lancement de nombreux sondages, simplistes ou/et à questions pré-orientées, amenant à répondre de façon binaire à des questions complexes. Le résultat de tels sondages est ensuite utilisé pour infléchir l’opinion des indécis ou même modifié l’opinion de ceux s’étant déjà déterminés. Moins sophistiquée comme démarche mais aussi dangereuse et efficace que l’utilisation de l’IA, pour obtenir les mêmes résultats faussement représentatifs de l’opinion.

Il est exact que la puissance d’analyse des données par l’IA permet de détecter au sein des populations les profils d’individus les plus vulnérables (physiquement ou psychologiquement) puis permet de les influencer en leur envoyant des messages (subliminaux et temporaires, parfois) amenant, subrepticement, sans qu’ils s’en rendent compte, à les faire changer d’opinion. Trump a fait ainsi basculer, grâce aux informaticiens, une frange de l’opinion et a remporté, de façon “inattendue” l’élection à la présidence des USA. De même, Johnson pour faire adopter le Brexit au Royaume Uni. Cependant, si l’on veut être complet dans l’information, il faut ajouter que pour se faire élire les candidats ont proféré directement, verbalement, ouvertement, des propos du même type ; ces propos ont été relayés par les grands quotidiens d’information et par les réseaux sociaux. Ces derniers sont, nous le savons, particulièrement dangereux pour véhiculer fake news, et haine … sans discontinuer. Il ne s’agit donc pas de condamner une technique, nullement diabolique, mais les instigateurs des nouvelles diffusées par différemment moyens et tous ceux qui les ont volontairement retransmises.

La « profanation au nom du Dieu vivant » de certaines techniques, en raison de leur sacralisation paraît-elle opportune ?

Je répondrai : la création fait courir des risques. Aucune création ne s’est jamais courue sans risques. Dieu n’en a-t-il pas couru lui-même en nous créant ? Dans le domaine de la santé, de la médecine et de la chirurgie, pensons aux réalisations techniques fantastiques ayant rendu possible l’allongement de notre durée de vie. Si l’IA est utilisée dans les années avenir pour guérir, bravo ! Au lieu de refuser de s’impliquer, on doit mettre les mains dans le cambouis pour contribuer à orienter l’utilisation des techniques d’IA vers le meilleur plutôt que vers le pire. Cela me semble une attitude éminemment plus intelligente, plus constructive et plus solidaire que de « jeter le bébé avec l’eau du bain ». Rester sur la touche en condamnant et en attendant le salut venant du ciel constitue une attitude irresponsable, que je considère non conforme au mandat que nous a confié notre Créateur. Dieu nous préserve de telles attitudes négatives, qu’elles soient encouragées par certains extrémismes religieux ou non. Que les hommes, nos frères, quelle que soit leur croyance, soient préservés[ii] de tels contre-témoignages, on ne peut plus désastreux ! Non à l’obscurantisme au nom du Dieu vivant !

Philippe Vernet

* * * * *

 

 

 

La vie, en elle-même, est un risque que nous n’avons pas voulu,
nous sommes invités à le courir

 



[i] Lire le rapport de Cédric Villani remis en mars 2018 à Edouard Philippe: https://urlz.fr/dztt . Notamment la “Partie 5” qui préconise la création d’un comité d’éthique des technologies numériques et de l’IA ouvert sur la société.

 

[ii] Les articles de Liens Protestants sur l’IA d’octobre 2020 sont beaucoup objectifs et équilibrés (http://www.erf-hainaut.net/Actualite/2016_11_13_pub_PRP_LP.html)