Antiqua et Nova (sur l'IA) Quand le Vatican se mêle d'IA
14 février 2025Quelle parole intéressante sur l’IA peut bien prononcer l’Église, réputée pour ses positions souvent conservatrices ? Une énième déclaration proclamant que la technique est neutre et que c’est à l’utilisateur d’en faire bon usage ? Il semble que non.
De la même manière qu’il l’a fait pour les questions écologiques avec Laudato Si’, le Vatican s’est d’abord adressé à des experts mondialement reconnus de l’intelligence artificielle avant de prendre la parole en publiant une note sur les relations entre l’intelligence artificielle et l’intelligence humaine intitulée Antiqua et Nova (sur l'IA).
Plusieurs rencontres préalables à cette note, publiée en janvier 2025, furent organisées à Rome et ailleurs, où les géants de la « tech » se sont retrouvés. Le Vatican est-il tombé sous leur charme, comme le font tant et tant d’États aujourd’hui ? Pas si sûr. En effet, le Vatican possède des ressources dont peu de nations peuvent se targuer : des experts férus de théologie, sciences exactes, sciences sociales, spiritualité et financièrement indépendants.
Que ce soit pour l’environnement, l’astronomie ou l’intelligence artificielle (IA), le Vatican peut compter sur une communauté solide de conseillers reconnus. Pour l’IA, le plus connu est le frère franciscain, Paolo Benanti, expert en éthique numérique à l’Université grégorienne de Rome, conseiller du parlement italien et membre de l’organe consultatif des Nations unies sur l’IA.
Reconnu par les informaticiens de la « Silicon Valley », il sait de quoi il parle. Inspirateur de plusieurs notes du Vatican sur l’IA, il permet à ce dernier de produire un texte intéressant à lire car enraciné dans l’expérience concrète des acteurs et utilisateurs de l’IA. Qui sait, cette note prépare peut-être une encyclique sur la technique ou sur l’intelligence, dans la pure tradition de la Pensée Sociale Catholique.
La note « Antiqua et Nova »
La note se focalise sur les relations entre intelligence artificielle et intelligence humaine. Le début est classique, dans le sens où il réfute catégoriquement l’utilisation du terme « intelligence » pour toute technologie. Seul l’être humain est doté d’intelligence. Car la soi-disant intelligence artificielle n’est que fonctionnelle, c’est-à-dire conçue pour répondre à des questions, comme l’a définie Turing en 1950.
Or, l’intelligence humaine est définie, comme la capacité non pas à répondre, mais à comprendre et à appréhender le sens du réel. « On peut apprendre beaucoup [...] d’un simple coucher de soleil ».
L’intérêt de ces paragraphes est de critiquer vivement de toute anthropologie dualiste, séparant le corps de l’esprit, pour offrir une vision de l'être humain comme être relationnel et incarné dans une histoire collective. Cette anthropologie, bien résumée ici, est clairement celle développée par le pape François dans ses prises de parole.
Le texte aborde l’IA de façon équilibrée, montrant les bénéfices et les dangers de son usage : « l’IA peut être utilisée à des fins positives ou négatives ». Classiquement, la dimension morale est réservée aux personnes : « entre une machine et un être humain, seul ce dernier est véritablement un agent moral ». La question devient celle de la responsabilité : à qui l’attribuer parmi toutes les parties prenantes ?
D’où la demande de transparence des processus de décision basée sur l’IA et de réglementation permettant de « garantir la transparence, la confidentialité et la responsabilité » des prises de décisions des agents humains. On retrouve ici des débats bien connus en éthique environnementale.
On aurait aimé une analyse de la responsabilité éthique moins individuelle, qui reprenne la notion de structure de péché ou de bien commun. Car les systèmes d’IA sont des structures pouvant fortement influencer l’agir des concepteurs, des informaticiens ou des utilisateurs, que ce soit en bien ou en mal. Heureusement, ce type d’analyse trouve un écho dans le chapitre des applications.
Les questions spécifiques
Cette partie est intéressante à mon avis, non pas tant par des idées nouvelles ou des prises de position novatrices, que par l’exhaustivité des thématiques abordées. En effet, la majorité d’entre nous abordons l’IA par le petit bout de la lorgnette, souvent par l’utilisation bluffante de l’IA générative ou conversationnelle (ChatGPT, Copilot, Siri, Alexa…). Or, l’IA a « envahi » bien d’autres domaines, pour le meilleur comme pour le pire.
La note passe en revue, successivement : (1) les questions sociales, (2) les relations humaines, (3) le monde du travail et de l’économie, (4) la santé, (5) l’éducation, (6) l’information, (7) le contrôle de la vie privée, (8) l’environnement, (9) la guerre et (10) la spiritualité, ce qui lui donne sa place dans la Doctrine sociale de l’Église.
Pour presque chaque domaine, le texte mentionne quelques opportunités de l’IA, telles qu’un accès plus aisé et compréhensible à l’héritage intellectuel de l’humanité, une aide bienvenue à la détection de maladies ou à la décision médicale, des pédagogies novatrices, des procédures innovantes contre le réchauffement climatique ou un développement des protections pour plus de (cyber) sécurité. Mais, et c’est là que l’aspect structurellement dangereux d’une IA non régulée émerge, la note souligne majoritairement les dérives potentielles d’un usage non contrôlé des IA.
Le danger principal est l’anthropomorphisation des IA, qui, dans une visée transhumaniste, artificialise nos relations, entend remplacer les travailleurs et les éducateurs et formater nos intelligences, au point d’en faire une entité supérieure, semblable aux idoles de l’ancien Testament, dans la lignée d’un penseur comme Ellul.
La conception uniquement fonctionnelle des IA conduit à une vision réductrice de l'humain et du monde. Tout se réduit à ce qui peut être mesuré ou, pour être exact, à ce qui peut être résolu. Cela donne un futur très unidimensionnel, malgré le développement d’une IA générale prétendant répondre à tout. Plusieurs passages questionnent le rapport à la vérité, dont les deepfakes2sont la partie émergée, alors que l’objet propre de l’intelligence humaine est la recherche de la vérité.
Dans la lignée de la pensée sociale catholique, le texte avertit des dangers d’un fossé grandissant entre les puissants et les laissés-pour-compte du numérique. Ces derniers risquent d’être surveillés, dominés par des systèmes IA de management, sans parler de l’exploitation des « petites mains » du Sud qui alimentent en permanence le système. Ou de l’empreinte carbone exponentielle de ces centres de données.
Finalement, c’est dans le domaine militaire que l’IA est la plus dangereuse. C’est là que la nécessité d’une transparence et d’une responsabilité éthique est la plus urgente. Le Vatican réaffirme qu’aucune arme, aussi « intelligente » soit-elle, ne peut être autonome et « décider » de tuer ou non, sans validation humaine.
En conclusion, si cette note n’est pas d’une originalité inédite, elle constitue un résumé pertinent et accessible de ce que l’Église, dans sa sagesse, pense de l’IA.
1 https://www.doctrine-sociale-catholique.fr/textes-complementaires-du-magistere/437-antiqua-et-nova-sur-l-ia
2 Technique de synthèse multimédia reposant sur l'intelligence artificielle, générée à partir d’éléments préexistants, pouvant servir à superposer des fichiers vidéo ou audio sur d'autres fichiers vidéo ou audio.
7 mars 2025