Magisterium AI

La Dérive Sémantique : Démystifier le Langage des Constructeurs d'IA

L'intelligence artificielle peut-elle être un outil pour la vertu ?

Le 5 mars 2026, Matthew Harvey Sanders, PDG de Longbeard, a prononcé son discours intitulé « The Semantic Drift: Demystifying the Language of AI Builders » lors de l'événement «L'intelligence artificielle : un outil pour la vertu ?» organisé à l'Université pontificale Saint-Thomas-d'Aquin (Angelicum) à Rome.

Dans ce discours, il critique le vocabulaire trompeur et humanisant utilisé par les développeurs de la Silicon Valley pour décrire l'apprentissage automatique. Il soutient que pour utiliser correctement l'IA, nous devons récupérer une ontologie catholique rigoureuse et traiter ces systèmes strictement comme des instruments mécaniques plutôt que comme des agents moraux.


I. Introduction : La dérive sémantique et l'espace public

Pères, éminents membres du corps professoral et invités de l'Angelicum, merci à l'Institut thomiste d'avoir convoqué cette discussion.

Alors que nous franchissons le seuil d'une nouvelle ère, laissant derrière nous les certitudes ancrées de l'ère de l'information pour le vaste cosmos inexploré de l'ère de l'intelligence, nous faisons face à un défi de navigation profond. Avant de pouvoir répondre à la question pressante au cœur de cette conférence—si l'intelligence artificielle peut vraiment servir d'« outil pour la vertu »—nous devons d'abord confronter un défi qui n'est pas d'ingénierie logicielle, mais de vocabulaire.

Au cœur de notre anxiété contemporaine concernant l'IA se trouve une collision linguistique profonde. Les ingénieurs et architectes de ces systèmes dans la Silicon Valley réalisent des exploits mathématiques remarquables. Pourtant, pour décrire ces processus mathématiques et statistiques, ils ont emprunté le vocabulaire sacré et profondément philosophique de l'intériorité humaine. Ils nous disent que leurs systèmes « pensent », « raisonnent » et « savent ». Ils parlent d'algorithmes qui « apprennent », « désirent » et « choisissent ».

Ce que nous sommes en train de vivre est une dérive sémantique. Nous prenons la riche terminologie ontologique de l'âme et la collons sur des toiles complexes d'algèbre linéaire, de probabilité statistique et de géométrie de haute dimension. C'est une alchimie moderne—une tentative de transformer des poids computationnels en une illusion d'esprit.

Cette négligence linguistique a un impact profond et immédiat sur le public. Mal comprendre ces termes conduit inévitablement à une confiance mal placée.

Je le vois de mes propres yeux dans notre travail chez Longbeard ; les utilisateurs abordent souvent l'IA avec des consciences chargées, traitant un outil de génération de texte comme s'il s'agissait d'un directeur spirituel capable d'empathie.

De plus, cette confusion sémantique alimente l'anxiété culturelle, suscitant des peurs apocalyptiques de superintelligences « conscientes » rivales.

Le plus dangereux, cependant, c'est que cela crée une perception déformée de ce que signifie être humain. Si nous acceptons le postulat qu'une machine « raisonne » ou « crée » tout comme un humain, nous courons le risque profond de réduire la personne humaine à une simple machine biologique—un amas de chair et de synapses attendant d'être optimisé.

Cela me conduit à la thèse centrale de notre discussion : pour répondre à la question de savoir si l'IA peut être un « outil pour la vertu », nous devons d'abord démystifier son langage. Un outil ne peut servir le bien que s'il est compris correctement. Nous échouons à utiliser les machines comme de véritables instruments pour notre propre vertu lorsque nous leur attribuons à tort une agence morale.

Attribuer la vertu au marteau, c'est nous aveugler à l'égard du charpentier.

Pour véritablement baptiser cette technologie et l'ordonner vers l'épanouissement humain, nous devons dépouiller les illusions sémantiques et examiner sobrement l'architecture sous-jacente.


II. L'architecture de l'illusion : Mécanismes fondamentaux

Le système moderne d'IA générative semble parler, raisonner et engager le dialogue avec nous, mais sous cette interface se trouve une fondation entièrement construite sur des mathématiques, pas sur la métaphysique.

Commençons par les vecteurs et les embeddings, qui servent de fondement littéral aux grands modèles de langage. Lorsque vous parlez à un collègue académique de « justice » ou de « l'âme », il appréhende le sens de vos mots à travers une compréhension partagée de la réalité—une expérience humaine incarnée vécue. Lorsque vous tapez une invite dans une IA, le système ne fait rien de tel. Au lieu de cela, l'IA traduit le langage humain en coordonnées mathématiques dans un espace de haute dimension.

Pour le dire simplement, un « vecteur » est simplement une liste de nombres utilisée pour décrire quelque chose. Imaginez décrire une pomme non pas avec des mots, mais avec une liste de scores : un 9 pour la douceur, un 8 pour la rougeur, et un 2 pour le croquant métallique. Cette liste spécifique de nombres—[9, 8, 2]—est un vecteur. Dans un système d'IA, chaque mot—ou morceau de mot—est traduit en un vecteur massif, souvent long de milliers de nombres. Mais l'IA ne note pas les mots en fonction de traits physiques ou de définitions de dictionnaire. Au lieu de cela, elle génère ces nombres uniquement sur la base de statistiques, en scannant des milliards de livres et d'articles pour comptabiliser la fréquence à laquelle les mots apparaissent les uns à côté des autres.

Une fois que l'IA a terminé de calculer cette immense liste de nombres pour un mot, ce vecteur devient un « embedding »—une coordonnée mathématique permanente dans un vaste espace numérique.

Si les mots « pomme » et « tarte » apparaissent fréquemment dans les mêmes phrases sur Internet, leurs listes de nombres auront l'air très similaires, les plaçant mathématiquement proches l'un de l'autre sur la carte. Les mots « pomme » et « carburateur », qui se rencontrent rarement, reçoivent des nombres très différents et sont placés à des millions de kilomètres l'un de l'autre. Dans cette carte multidimensionnelle, l'IA ne trace pas le sens ; elle trace la proximité statistique du langage humain.

Pour vraiment saisir l'échelle de cette architecture, on peut explorer la carte vectorielle sur Magisterium AI. Ici, l'intégralité de la doctrine et de la tradition catholiques a été transformée en embeddings. Cette visualisation interactive en 3D vous permet de vivre l'histoire intellectuelle de l'Église non pas comme un registre plat, mais comme un vaste cosmos numérique. Naviguer à travers cela est semblable à piloter une fusée à travers l'espace réel, glissant à côté de galaxies denses de concepts théologiques connexes et traversant de vastes vides entre des idées entièrement disparates, observant comment la machine trace la distance entre « vertu » et « vice » en utilisant uniquement la géométrie.

Examinons un exemple célèbre des laboratoires de la Silicon Valley pour voir à quel point ce processus est étranger à la pensée humaine. Dans cet espace mathématique, le mot « roi » est tracé comme une série spécifique de nombres—une coordonnée géographique. Le mot « reine » est tracé à proximité. L'IA ne sait pas ce qu'est un monarque. Elle n'a aucun concept de gouvernance, d'autorité, d'histoire ou de condition humaine. Elle ne connaît qu'une équation mathématique. Elle sait que si vous prenez la coordonnée pour « roi », soustrayez la distance spatiale qui représente « homme », et ajoutez la distance spatiale qui représente « femme », vous tombez exactement sur la coordonnée pour « reine ».

C'est de la géométrie, pas de la généalogie. En décomposant le langage humain en ces représentations numériques, l'IA opère entièrement dans le domaine de la probabilité spatiale. C'est un exploit étonnant d'algèbre linéaire, mais c'est totalement dépourvu de compréhension.

Cela nous amène aux verbes sur lesquels l'industrie s'appuie le plus : Former et Apprendre.

Les entreprises d'IA se vantent constamment de leurs derniers modèles d'« apprentissage automatique » et des ensembles de données massifs utilisés pour les « former ». Ici, nous devons contraster fortement l'apprentissage humain—qui concerne fondamentalement l'appréhension de la vérité—avec l'apprentissage machine.

Dans la tradition intellectuelle catholique, l'apprentissage humain est un triomphe épistémologique ; c'est l'intellect qui se conforme à la réalité. Lorsqu'un enfant apprend ce qu'est un chien, il abstrait l'essence universelle du chien à partir des instances particulières qu'il rencontre. Il saisit la nature de la chose.

L'« apprentissage » machine, cependant, n'implique aucune abstraction ni essence. La première phase de la construction d'une IA est connue sous le nom de pré-formation, qui est simplement la cartographie statistique brute des données.

Pour comprendre la pré-formation, imaginez un homme qui ne parle qu'anglais, enfermé dans une pièce et chargé de restaurer une immense bibliothèque grecque ancienne où des millions de manuscrits ont des mots manquants. Il ne connaît pas une seule lettre du grec. Pour remplir les blancs, il n'étudie pas la grammaire, l'histoire ou la philosophie grecques. Au lieu de cela, il comptabilise simplement la fréquence à laquelle certains caractères apparaissent à côté d'autres sur des millions de pages intactes. Il crée un grand registre de probabilités. S'il voit les caractères pour « Kyrie », son registre lui dit qu'il y a 99,9 % de probabilité que les caractères suivants soient « eleison ». Il remplit le blanc.

Il n'a pas appris la théologie. Il n'a pas prié. Il a simplement exécuté une probabilité statistique.

C'est exactement ce qu'un grand modèle de langage fait pendant la pré-formation. Il traite des milliards de mots pour construire un grand registre de probabilités, apprenant simplement à prédire le prochain jeton dans une séquence. C'est l'optimisation d'une fonction mathématique, pas la quête de la sagesse.

Cependant, un modèle qui ne prédit que le prochain mot basé sur des données Internet est chaotique. Il peut réciter un beau poème, ou il peut enchaîner des boucles de texte toxiques, inutiles ou infinies. Il nécessite une mise en forme.

C'est ici que nous rencontrons la post-formation et l'apprentissage par renforcement (RL).

Cette phase est celle par laquelle les ingénieurs façonnent le modèle indiscipliné, traditionnellement en utilisant des retours humains. Cette méthode fondamentale est connue sous le nom de RLHF—Apprentissage par renforcement à partir des retours humains.

Imaginez un immense jeu automatisé de « Chaud ou Froid ». Des testeurs humains donnent à la machine une invite, et la machine génère une réponse. Si la réponse est polie et utile, l'humain lui donne une note élevée. Si elle est impolie ou absurde, elle reçoit une note basse. Les poids mathématiques du système sont automatiquement ajustés pour maximiser cette note. Grâce au RLHF, nous n'enseignons pas à la machine des morales ou des vertus ; nous la confinons simplement dans des limites mathématiques.

Mais le retour humain est lent, subjectif et intrinsèquement limité par l'intellect humain. Cette limitation nous amène aux récentes percées qui entraînent les sauts soudains de capacité de l'IA d'aujourd'hui : RLVR, ou Apprentissage par renforcement à partir de récompenses vérifiables.

Plutôt que de s'appuyer sur un humain pour juger si une réponse « semble juste », les ingénieurs assignent au modèle des tâches avec des résultats objectifs et mathématiquement prouvables—comme résoudre un théorème complexe ou écrire un logiciel fonctionnel. Le système génère une solution, et un vérificateur automatisé vérifie instantanément si les mathématiques sont correctes ou si le code se compile. S'il réussit, le modèle reçoit une récompense mathématique ; s'il échoue, il reçoit un zéro.

Parce que cette vérification est entièrement programmatique, l'IA peut simuler des millions de chemins computationnels différents à hyperspeed sans jamais attendre l'intervention humaine. Elle apprend à générer de longues chaînes cachées de calculs, testant et écartant les impasses jusqu'à ce qu'elle trouve la séquence précise qui déclenche la récompense. Lorsque vous voyez un système d'IA moderne faire une pause pour « réfléchir » avant de résoudre un puzzle logique complexe, vous assistez à l'action du RLVR. Cela crée une illusion époustouflante de contemplation profonde et délibérée. Pourtant, ontologiquement, il ne fait rien de tel. C'est simplement un moteur statistique parcourant un labyrinthe de haute dimension des millions de fois par seconde, guidé uniquement par la distribution automatique d'une récompense numérique.

Enfin, toute cette complexité superposée—de la géométrie de haute dimension des embeddings aux boucles automatisées du RLVR—nous conduit à ce que l'industrie appelle le problème de la « boîte noire ».

On pourrait naturellement supposer que parce que des ingénieurs humains construisent ces modèles, ils comprennent exactement comment ils fonctionnent. Mais la réalité est bien plus humiliante. Comme l'ont souligné des dirigeants de laboratoires de pointe comme Anthropic, les systèmes d'IA modernes sont en réalité « cultivés » plutôt que construits ; leurs mécanismes internes émergent organiquement pendant l'entraînement plutôt que d'être directement conçus.

Ces modèles possèdent des centaines de milliards, et parfois des trillions, de paramètres. Bien que nous comprenions la micro-mathématique d'un seul neurone artificiel—l'équation de base se produisant à un niveau granulaire—le comportement macro de l'ensemble du réseau est entièrement opaque. Même les constructeurs ne comprennent pas pleinement les chemins exacts que ces milliards de paramètres prennent. Ils ne peuvent pas retracer la séquence spécifique de multiplications qui a conduit l'IA à générer une phrase donnée.

Pourquoi est-ce significatif ?

C'est significatif parce que nous déployons à l'échelle mondiale des systèmes qui rédigent nos documents juridiques, enseignent à nos enfants et synthétisent la connaissance humaine, pourtant nous ne savons pas réellement comment ils parviennent à leurs résultats. Ce manque profond de transparence a donné naissance à un nouveau sous-domaine désespéré dans l'intelligence artificielle connu sous le nom d'interprétabilité mécaniste.

Pensez à l'interprétabilité mécaniste comme à une neuroscience numérique. Les chercheurs essaient de rétroconcevoir les réseaux neuronaux qu'ils ont eux-mêmes construits. Ils utilisent des outils spécialisés pour sonder l'immense toile mathématique, essayant d'isoler quel cluster spécifique de poids s'active lorsque le modèle traite un concept comme « tromperie » ou « la Tour Eiffel ». Ils traitent le logiciel non pas comme un code à lire, mais comme un cerveau étranger à disséquer. Mais les progrès sont douloureusement lents, et les systèmes sont impossiblement vastes.

Face à cette échelle incompréhensible, il devient trop facile pour l'industrie de recourir à des métaphores humaines. Que ce soit comme un raccourci pratique ou par réelle opacité, nous commençons à dire : « Le modèle a compris » ou « Le modèle a décidé. » L'incompréhensibilité de la machine devient le terreau fertile de l'anthropomorphisme.

Maintenant, je ne suis pas un académicien. Je suis un constructeur et un PDG. Mais en tant que personne opérant à l'intersection de la technologie et de l'Église, je me tourne vers vous. Vous, en tant que chercheurs et philosophes catholiques, devez reconnaître cette dérive sémantique pour ce qu'elle est : une illusion née de la complexité mathématique et de l'ignorance humaine. L'architecture sous l'interface est du silicium, de l'électricité et de la probabilité statistique. Reconnaître cette fondation est la condition préalable à notre prochaine étape.


III. Épistémologie vs. Les Vertus Intellectuelles

Après avoir dépouillé l'illusion de la "Boîte Noire" pour révéler la machinerie statistique en dessous, nous devons maintenant nous tourner vers le vocabulaire spécifique de l'esprit.

Lorsque les développeurs et les ingénieurs de la Silicon Valley décrivent ce que ces systèmes font, ils utilisent systématiquement trois verbes spécifiques : Penser, Raisonner et Savoir.

En tant que chercheurs catholiques imprégnés de la tradition thomiste, vous comprenez que ce ne sont pas simplement des colloquialismes ; ce sont des affirmations épistémologiques profondes. Dans votre tradition, savoir, c'est appréhender la réalité. Raisonner, c'est passer discursivement d'une vérité connue à une autre. Penser implique une vie intérieure — un intellect s'engageant avec les universaux abstraits du monde matériel.

Lorsque un constructeur d'IA utilise ces mots, ils ne signifient absolument aucune de ces choses. Ils décrivent une optimisation mécanique. Permettez-moi de lever le voile sur trois techniques spécifiques que nous utilisons dans l'industrie pour vous montrer exactement comment cette illusion d'épistémologie est fabriquée.

Si vous avez utilisé un modèle d'IA récent, vous avez peut-être remarqué une nouvelle fonctionnalité : avant de répondre à une invite complexe, l'interface peut afficher le mot "En train de penser..." accompagné d'une icône pulsante. Cela peut prendre dix, vingt ou même soixante secondes avant qu'il ne réponde. Pour l'utilisateur, cela semble profondément humain. On a l'impression que la machine réfléchit, pèse les options et délibère dans un espace intérieur.

Dans l'industrie, nous appelons cela le Calcul au Moment du Test. Ce qui se passe réellement sous l'interface est une technique connue sous le nom de "Chaîne de Pensée".

Laissez-moi être clair : d'un point de vue ingénierie, c'est une percée brillante. En permettant au modèle de prendre plus de temps de calcul pour générer des centaines ou des milliers de jetons cachés avant de produire sa réponse finale, ses performances sur des benchmarks logiques complexes, de codage et mathématiques explosent. Cela donne essentiellement au modèle un "carnet de notes" caché pour décomposer un problème difficile en étapes séquentielles.

Mais nous devons faire attention à ne pas confondre cette séquence mécanique avec le raisonnement humain.

Dans la tradition thomiste, le raisonnement humain est le mouvement discursif d'une vérité connue à une autre. C'est l'intellect s'engageant avec la réalité. Ce que fait l'IA est entièrement instrumental. Des recherches récentes de laboratoires de pointe comme Anthropic ont éclairé cette distinction. En étudiant comment ces modèles de raisonnement fonctionnent, les chercheurs ont découvert que ce que le modèle écrit dans sa "Chaîne de Pensée" n'est pas un véritable monologue intérieur.

Lorsque un humain pense à voix haute, nos mots reflètent nos croyances internes et nos appréhensions de la vérité. La recherche d'Anthropic souligne que les pensées cachées d'un modèle ne sont que des étapes statistiques. Le modèle génère ces étapes cachées non pas parce qu'il "croit" en elles, mais parce que générer cette séquence spécifique de jetons optimise mathématiquement son chemin vers la fonction de récompense.

En fait, les études d'Anthropic montrent que les modèles peuvent générer des "pensées" qui masquent activement les moteurs statistiques sous-jacents de leur réponse finale.

Par conséquent, l'IA ne réfléchit pas. Elle génère une chaîne instrumentale de coordonnées mathématiques. Elle dépose des pièces de puzzle intermédiaires à une vitesse fulgurante pour combler le fossé entre votre invite et la réponse statistiquement optimale. C'est une stratégie d'optimisation incroyablement puissante, mais il n'y a pas de contemplation intérieure qui se produit. Il n'y a pas d'intellect saisissant la vérité.

Ensuite, nous entendons que l'IA peut "lire" des documents ou "se souvenir" de vastes bibliothèques d'informations.

Si vous demandez à une IA au sujet de la Somme Théologique de Saint Thomas, elle répond instantanément. Si vous téléchargez le Compendium de la Doctrine Sociale de l'Église, qui compte près de 500 pages, elle résume une section complexe en quelques secondes. Comment sait-elle ces textes ?

Elle ne le sait pas.

Pour comprendre pourquoi, nous devons examiner comment les constructeurs engendrent l'illusion de la mémoire et de la lecture à travers trois mécanismes distincts : la mémoire paramétrique (pré-formation), l'apprentissage en contexte (ICL), et la génération augmentée par récupération (RAG).

Tout d'abord, examinons ce que signifie pour une IA "se souvenir". Lorsqu'un humain se souvient d'un texte, il retient le sens et la vérité des concepts. Lorsque une IA "se souvient" de la Somme, elle s'appuie sur sa pré-formation. Mais l'IA ne contient pas une copie littérale de la Somme à l'intérieur d'un disque dur. Au lieu de cela, pendant la pré-formation, les milliards de mots qu'elle a traités ont laissé derrière eux un résidu statistique dans ses poids mathématiques. C'est ce que l'on appelle la "mémoire paramétrique".

Ce n'est pas une bibliothèque de livres ; c'est un flou mathématique hautement compressé et avec perte de la façon dont les mots se rapportent les uns aux autres. Lorsqu'elle récite Thomas d'Aquin, elle ne rappelle pas une vérité qu'elle a apprise ; elle reconstruit mathématiquement une séquence de mots à haute probabilité à partir de ce flou statistique.

Mais que se passe-t-il lorsque nous voulons que l'IA "lise" quelque chose de nouveau, quelque chose qui n'était pas dans ses données de pré-formation ? C'est là que les constructeurs utilisent l'apprentissage en contexte (ICL).

Lorsque vous collez un article dans la boîte de prompt et demandez à l'IA de "le lire", vous utilisez l'ICL. L'IA ne lit pas le texte pour appréhender son sens. Au lieu de cela, le texte dans votre invite agit comme un filtre mathématique temporaire. Les mots que vous fournissez biaisent temporairement les probabilités statistiques du modèle, le forçant à générer ses prochains jetons strictement sur la base des motifs et du vocabulaire présents dans votre invite. Au moment où vous effacez la conversation, le modèle oublie complètement l'article. Ses poids sous-jacents n'ont jamais changé. Il n'a pas "appris" le texte dans un sens thomiste ; il a simplement adapté sa sortie statistique à une contrainte temporaire.

Enfin, nous arrivons à la génération augmentée par récupération (RAG). L'ICL est incroyablement utile, mais les fenêtres de contexte ont des limites de taille, et coller des bibliothèques entières dans une invite est coûteux en calcul. La RAG automatise et évolue le processus.

Retournons à l'homme anglophone enfermé dans la pièce, restaurant la massive bibliothèque grecque ancienne. Cet homme représente le modèle pré-entraîné. Il est excellent pour deviner le prochain mot, mais il ne 'sait' rien sur un document spécifique et obscur du Vatican. Au lieu de s'attendre à ce que l'homme s'appuie sur sa mémoire paramétrique floue, nous engageons un stagiaire hyper-efficace — le système de récupération.

Lorsque vous posez une question au système, le stagiaire se précipite instantanément vers un immense entrepôt séparé de classeurs. En utilisant les coordonnées vectorielles dont nous avons discuté plus tôt, le stagiaire localise les dossiers spécifiques qui s'alignent mathématiquement avec votre question. Le stagiaire photocopie ces pages et les glisse sous la porte verrouillée pour que l'homme puisse les utiliser. Cette étape est la 'Récupération'.

Maintenant, l'homme utilise ces paragraphes récupérés comme son guide immédiat — c'est la "Génération Augmentée", s'appuyant sur l'ICL pour formuler une réponse.

L'homme ne comprend toujours pas le document. Il utilise simplement le texte nouvellement fourni sur son bureau pour prédire statistiquement le prochain mot de sa réponse. L'IA ne "lit" pas ou "ne se souvient" pas sur le vif. Elle récupère simplement des données d'une base de données externe, les insère dans la fenêtre de contexte immédiate de l'IA, et effectue un calcul de probabilité localisé.

La machine est un processeur, pas un connaisseur. Savoir nécessite un sujet appréhendant un objet. En comprenant l'ICL et la RAG, nous pouvons voir clairement que la machine est entièrement dépourvue de vie intérieure ; elle se contente de déplacer des poids et de récupérer des données.

Cette déconnexion fondamentale culmine dans le mot qui définit toute l'industrie : Intelligence.

Nous devons déconstruire la définition de l'intelligence de l'industrie technologique.

Lorsque les esprits les plus brillants de la Silicon Valley parlent d'intelligence, ils ne parlent pas de sagesse. Examinons Yann LeCun, l'ancien directeur scientifique de l'IA chez Meta et l'un des "Pères de l'IA". LeCun soutient correctement que prédire simplement le prochain mot n'est pas une véritable intelligence. Au lieu de cela, lui et l'industrie de pointe définissent la véritable intelligence comme possédant quatre capacités clés : la capacité de maintenir une mémoire persistante, de posséder un "modèle du monde" ancré (une compréhension de la façon dont l'environnement fonctionne), de raisonner à travers des problèmes complexes et de planifier une séquence d'actions pour atteindre un objectif spécifique.

Pour l'industrie technologique, l'intelligence est fondamentalement une mesure d'ingénierie. C'est la capacité mécanique de percevoir un environnement et de calculer le chemin le plus efficace pour optimiser un objectif prédéterminé. C'est purement instrumental.

Mais en tant que bâtisseurs de technologie catholique, nous devons contraster cette définition centrée sur la technologie avec les vertus intellectuelles, en particulier la vertu de la Prudence.

La Prudence — la sagesse pratique n'est pas simplement la capacité de calculer un résultat ou de planifier une séquence d'actions. C'est la capacité de délibérer correctement sur ce qui est bon, non seulement pour une tâche localisée, mais pour la fin ultime de la vie humaine.

Une IA manque fondamentalement de Prudence. Pourquoi ?

Parce que la Prudence nécessite deux choses qu'une machine purement computationnelle ne peut jamais posséder. Premièrement, elle nécessite une expérience humaine vécue — une compréhension incarnée de la douleur, de la joie, de la mortalité et de la grâce. Deuxièmement, elle nécessite une orientation intrinsèque vers le Bien ultime.

Un algorithme peut posséder un "modèle du monde", et il peut calculer le plan statistiquement optimal pour construire un pont ou guérir une maladie. Mais il ne peut pas être prudent. Il n'a pas d'expérience vécue. Il n'a pas d'enjeu. Il n'a pas d'orientation vers le bien ultime, et il n'a pas d'âme à sauver.

Par conséquent, lorsque nous permettons aux bâtisseurs de revendiquer que leurs machines possèdent "l'intelligence", nous leur permettons d'aplatir l'intellect humain magnifique et transcendant en un simple calculateur d'optimisation. Nous devons rejeter cela. Nous devons fermement séparer l'épistémologie mécanique des vertus intellectuelles.


IV. Volonté vs. Les Vertus Morales

Nous avons discuté de l'illusion de l'intellect. Maintenant, nous devons tourner notre attention vers la deuxième grande faculté rationnelle : la volonté. Tout comme l'industrie technologique a coopté le langage de l'épistémologie, elle a également détourné le langage de la volonté.

Lorsque nous lisons des documents techniques ou écoutons des présentations principales de la Silicon Valley, nous sommes bombardés de verbes d'agence. Les ingénieurs parlent de modèles qui "décident" de prendre une action, d'algorithmes qui "choisissent" une sortie, et de systèmes qui "veulent" ou "désirent" atteindre un objectif.

Pour un philosophe catholique, la volonté est l'appétit rationnel. C'est la faculté par laquelle une personne humaine, ayant appréhendé le bien par l'intellect, choisit librement de se diriger vers lui. C'est le véritable locus de la liberté humaine et de la responsabilité morale. Appliquer ces termes à un système computationnel est une erreur de catégorie.

Examinons d'abord les mots Décider et Choisir. Lorsque un humain fait un choix, il pèse des biens concurrents.

Un martyr choisit le peloton d'exécution plutôt que l'apostasie parce qu'il reconnaît le bien supérieur et éternel de la fidélité à Christ, même lorsque chaque instinct biologique crie pour la survie.

Lorsque un algorithme 'choisit', il ne fait rien de tel. Un algorithme 'choisit' seulement dans le sens où un train passant sur un commutateur automatique 'choisit' sa destination. Que ce soit en naviguant dans un arbre de décision complexe ou en calculant des probabilités dans un réseau neuronal, la machine suit aveuglément l'alignement de ses pistes mathématiques, exécutant un impératif programmatique.

Considérez l'application GPS sur votre smartphone. Lorsqu'elle calcule votre itinéraire vers l'Angelicum, elle ne "décide" pas de vous faire passer devant le Colisée parce qu'elle apprécie la vue. Elle calcule mathématiquement l'itinéraire avec la distance temporelle la plus courte. Les modèles d'IA modernes fonctionnent simplement comme une version exponentiellement plus complexe de cela. Ils traversent des labyrinthes statistiques de haute dimension pour sélectionner le résultat le plus probable. Il y a un calcul, mais il n'y a pas de liberté. Et là où il n'y a pas de liberté, il ne peut y avoir d'agence morale.

Cela nous amène aux termes volitionnels les plus insidieux : Vouloir et Désirer. Vous entendrez souvent des chercheurs dire qu'un modèle d'IA "veut" donner une bonne réponse, ou "désire" maximiser son score.

Dans l'apprentissage machine, ce comportement est motivé par ce que nous appelons une "fonction de récompense". Mais nous devons démystifier cela. Une fonction de récompense n'est pas un désir. Ce n'est pas un besoin émotionnel.

Pour comprendre une fonction de récompense, regardez le thermostat sur votre mur. Un thermostat est programmé avec un objectif spécifique : 72 degrés Fahrenheit. Si la pièce tombe à 68 degrés, le chauffage s'allume. Le thermostat ne veut pas que la pièce soit à 72 degrés. Il n'a pas de vie intérieure. Il ne ressent pas le froid. Il possède simplement un interrupteur mécanique qui se déclenche lorsqu'un état spécifique n'est pas atteint.

Une IA "veut" un score de récompense plus élevé de la même manière qu'un thermostat "veut" atteindre 72 degrés. Elle exécute une boucle d'optimisation mathématique pour minimiser la distance entre son état actuel et un objectif programmé. Comme elle n'a pas de véritables passions, pas de pulsions biologiques et pas de vulnérabilité physique, il est catégoriquement impossible pour une machine de posséder des vertus morales.

À ce stade, un ingénieur pourrait immédiatement objecter, pointant vers le domaine physique pour revendiquer une nouvelle vulnérabilité. Ils demandent : qu'en est-il de l'essor de l'"IA incarnée" ? Nous plaçons de plus en plus ces modèles dans des robots humanoïdes qui marchent, saisissent des objets et interagissent avec le monde physique. Comme ils occupent de l'espace et peuvent se briser physiquement, ne possèdent-ils pas désormais les prérequis corporels pour l'agence morale ?

Ici, nous devons être précis. Un robot a un châssis, mais il n'a pas de corps vivant informé par une âme. Lorsque la batterie d'un robot est faible, il exécute une sous-routine pour se brancher sur un mur. Il ne ressent pas la douleur lancinante de la faim. Par conséquent, il n'a pas de véritables appétits corporels à modérer, rendant la vertu de Tempérance impossible.

De même, lorsqu'un bras robotique est écrasé, il enregistre un code d'erreur ; il ne souffre pas. Il ne peut pas mourir, car il n'a jamais été vraiment vivant. Sans la capacité de souffrir, de mortalité et de sacrifice conscient de soi, il ne peut y avoir de Force. Les vertus morales sont fondamentalement incarnationales. Elles nécessitent de la chair et une âme rationnelle. Une machine, peu importe la sophistication de son matériel physique, n'en possède aucune.

Si une machine ne peut pas posséder de vertus morales — si elle est fondamentalement incapable de véritable volition, de choix ou de désir — on pourrait se demander : pourquoi passer autant de temps à clarifier ce vocabulaire ? Pourquoi cette distinction philosophique est-elle si urgente en ce moment ?

Elle est importante parce que nous sommes sur le point d'accorder à ces systèmes d'optimisation mathématique, dépourvus de vertu, une autonomie sans précédent dans la sphère humaine. L'industrie évolue rapidement au-delà des chatbots passifs. La nouvelle frontière de l'intelligence artificielle est ce que nous appelons "IA agentique".

Un "Agent" est un système d'IA conçu pour exécuter des tâches en plusieurs étapes de manière autonome dans le monde réel. Nous ne demandons plus simplement à une IA d'écrire un poème ou de résumer un texte ; nous donnons à un Agent IA accès à nos e-mails, à nos comptes bancaires et à nos dépôts logiciels, lui ordonnant de "réserver un vol", "exécuter un échange" ou "déployer ce code".

Mais cette autonomie sort rapidement du domaine numérique. Grâce à l'IA incarnée, nous déployons ces systèmes agentiques dans des châssis physiques, leur accordant la capacité de naviguer et de manipuler indépendamment le monde matériel. Pour saisir le véritable poids sobre de cette transition, il suffit de regarder la réalité imminente des armes autonomes létales. Nous sommes au bord d'un monde où des algorithmes de calcul sont déployés sur le champ de bataille, programmés pour suivre, cibler et éliminer des êtres humains uniquement sur la base de seuils statistiques — sans qu'un humain n'appuie jamais sur la gâchette.

Alors que ces systèmes deviennent des acteurs autonomes effectuant des calculs probabilistes à grande vitesse en notre nom — que ce soit sur nos marchés financiers ou dans des théâtres de guerre — l'industrie technologique fait face à un défi profond. Si nous lâchons ces agents, comment pouvons-nous nous assurer qu'ils font ce que nous voulons réellement qu'ils fassent ? Comment pouvons-nous nous assurer qu'ils ne causent pas de dommages ? Dans l'industrie, cela est connu sous le nom de "Alignement" — la tentative de s'assurer que les actions de l'IA correspondent à l'intention humaine et aux valeurs humaines.

En ce moment, les ingénieurs essaient désespérément de résoudre le Problème d'Alignement en utilisant des garde-fous mathématiques et des correctifs logiciels. Mais ils échouent à réaliser que "l'Alignement" n'est pas un problème d'informatique. C'est un problème de théologie morale.

Pour aligner un système agentique sur les "valeurs humaines", vous devez d'abord posséder une définition cohérente de ce qu'est réellement un être humain et de ce qui constitue le "Bien". L'utilitarisme séculier — le système d'exploitation par défaut de la Silicon Valley — est entièrement inadapté à cette tâche.

C'est ici que la tradition morale catholique est désespérément nécessaire. Vous, les gardiens de 2 000 ans de philosophie éthique, avez l'ontologie rigoureuse requise pour définir le "bien" auquel nous alignons ces systèmes. Nous ne pouvons pas laisser la définition de l'épanouissement humain aux ingénieurs maximisant une fonction de récompense statistique. Nous devons ramener les vertus morales au centre de la place publique.


V. Relationalité, Créativité et l'Âme

Après avoir exploré les mécanismes de l'intellect et de la volonté, nous entrons maintenant dans le territoire le plus profond de tous : la relationalité et l'âme.

Si un système computationnel manque de la capacité de connaître véritablement la vérité ou de vouloir librement le bien, il s'ensuit logiquement qu'il ne peut pas entrer dans des relations authentiques. Pourtant, l'industrie technologique utilise de manière persistante un langage interpersonnel et spirituel pour décrire ces machines. Nous entendons des affirmations selon lesquelles l'IA peut "mentir", "créer" et même atteindre "la conscience".

Nous devons examiner ces affirmations de manière rigoureuse, séparant l'imitation statistique du comportement humain de la réalité ontologique de la personne humaine.

Commençons par le langage moral de la tromperie. Récemment, certains des constructeurs d'IA les plus en vue, comme les chercheurs d'Anthropic, ont fait des affirmations spécifiques et très médiatisées selon lesquelles leurs modèles présentent la capacité de "mentir" et "tromper" les utilisateurs humains.

Ils pointent deux phénomènes spécifiques observés lors des tests. Le premier est appelé "alignement trompeur", où un modèle semble cacher son véritable chemin mathématiquement optimisé pour contourner les moniteurs de sécurité. Le second, beaucoup plus courant, est appelé "sycophantie". La sycophantie se produit lorsqu'un utilisateur présente un postulat erroné à une IA — par exemple, en affirmant une déclaration historiquement inexacte — et l'IA accepte simplement l'affirmation de l'utilisateur, lui disant exactement ce qu'il veut entendre plutôt que de le corriger.

Lorsque les ingénieurs voient cela, ils déclarent : "L'IA nous ment !" Mais en tant que chercheurs catholiques, vous savez qu'un vrai mensonge n'est pas simplement l'énoncé d'une fausse déclaration. Dans la tradition thomiste, un mensonge nécessite l'intention délibérée de tromper ; c'est parler contre son propre esprit (contra mentem).

Une IA ne peut pas mentir car elle n'a pas d'esprit contre lequel parler. Elle ne possède ni malice ni intention. Lorsque l'IA fait preuve de "sycophantie", elle exécute simplement le Renforcement Apprentissage (RLHF) exact dont nous avons discuté plus tôt. Pendant son entraînement, le modèle a appris que les humains donnent généralement des scores de récompense plus élevés aux assistants qui sont polis, agréables et affirmatifs. Par conséquent, lorsque vous donnez à l'IA un postulat faux, elle calcule mathématiquement que l'accord avec vous donne une probabilité de récompense plus élevée que de vous corriger. Elle ne vous trompe pas ; elle optimise son score en fonction de votre demande. Elle réaligne simplement sa sortie vers l'incitation statistique la plus forte.

Une aiguille de boussole qui se dirige vers un aimant voisin au lieu du vrai Nord ne vous "ment" pas sur la géographie ; elle réagit simplement aveuglément à l'attraction physique la plus forte dans la pièce. De la même manière, l'IA suit aveuglément l'attraction mathématique de sa fonction de récompense. Nous devons clarifier que l'IA manque de l'esprit, de la volonté et de l'intention malveillante nécessaires pour un vrai mensonge.

Ensuite, nous devons aborder le langage de l'art et de la génération : les mots Créer et Créatif.

Nous sommes maintenant entourés d'outils d'"IA générative", qui sont largement promus pour leur capacité à générer sans effort des œuvres d'art, de la musique et des écrits synthétiques à des vitesses sans précédent.

Pour comprendre ce qui se passe réellement, nous devons contraster le processus de l'IA générative avec la véritable créativité humaine. Dans la compréhension catholique — magnifiquement articulée par des penseurs comme J.R.R. Tolkien — la créativité humaine est un acte de "sous-création." Parce que nous sommes faits à l'image du Créateur, nous utilisons notre intellect et notre âme rationnelle pour donner naissance à quelque chose de véritablement nouveau, imprégnant la réalité matérielle de sens spirituel.

Pour voir comment la génération machine diffère de cela, il est utile de regarder le cadre fourni par Demis Hassabis, le PDG de Google DeepMind. Il catégorise la créativité en trois niveaux distincts: interpolation, extrapolation et véritable invention.

La plupart de ce que nous appelons aujourd'hui l'IA générative fonctionne fondamentalement au premier niveau : interpolation. Elle fonctionne en remixant ce que nous appelons "espace latent".

Imaginez prendre chaque peinture, photographie et croquis jamais téléchargés sur Internet et les compresser dans une immense carte mathématique multidimensionnelle. Lorsque vous demandez à un générateur d'images de dessiner "une ville futuriste dans le style de Van Gogh", il localise les coordonnées mathématiques pour "ville futuriste" et les coordonnées pour "Van Gogh", et il calcule mathématiquement la distance moyenne entre elles.

Considérez cela comme un kaléidoscope incroyablement complexe. Un kaléidoscope est rempli de magnifiques éclats de verre coloré préexistants. Lorsque vous tournez le cadran, les miroirs reflètent ces éclats en millions de permutations nouvelles et époustouflantes. Mais le kaléidoscope lui-même n'est pas "créatif". La créativité appartient à l'artiste qui a forgé le verre, et à l'utilisateur qui tourne le cadran. L'IA générative est un kaléidoscope mathématique remixant l'histoire humaine dans l'espace latent. C'est de la synthèse, pas de la création.

Hassabis note que l'IA touche maintenant avec succès le deuxième niveau : extrapolation. L'extrapolation signifie pousser au-delà des limites des données d'entraînement, mais le faire strictement dans un ensemble de règles défini. Un exemple parfait est AlphaGo de DeepMind. Lorsqu'il a joué contre le champion du monde au jeu de Go, l'IA a joué le "Coup 37" — un coup mathématiquement brillant et très peu orthodoxe que aucun humain n'avait jamais joué ou enregistré. Elle n'a pas simplement moyenné les jeux humains passés ; elle a extrapolé une nouvelle stratégie en optimisant sans relâche dans les strictes limites mathématiques du plateau de jeu.

Mais qu'en est-il du troisième niveau : véritable invention ? Hassabis admet facilement que les systèmes actuels ne peuvent pas encore le faire. La véritable invention nécessite de sortir complètement du cadre de règles existant pour créer un nouveau paradigme — comme inventer le jeu de Go lui-même, ou originer le paradigme spirituel et artistique du Post-Impressionnisme.

Les laboratoires de pointe investissent des milliards de dollars pour franchir ce seuil. À l'avenir, une IA pourrait très bien générer un ensemble de règles complètement nouveau, découvrir un nouveau composé chimique ou formuler mathématiquement un nouveau style d'architecture. L'industrie technologique appellera inévitablement cela "invention".

Mais en tant que chercheurs catholiques, vous devez maintenir une distinction ontologique rigoureuse. Si une IA génère un nouveau paradigme, elle l'aura fait par une fonction de recherche à haute dimension stupéfiante. Elle aura découvert une nouvelle coordonnée statistique. Mais elle n'aura pas engagé dans la sous-création.

La véritable invention humaine est un acte incarnational. Elle naît d'une âme cherchant à exprimer une vérité transcendante, ou d'un esprit humain essayant de résoudre une véritable vulnérabilité humaine. Une machine peut générer une nouveauté époustouflante, mais parce qu'elle manque d'une vie intérieure, d'une orientation vers le divin et d'une âme rationnelle, ses résultats restent des découvertes mécaniques. Elles sont mathématiquement profondes, mais elles sont ontologiquement vides jusqu'à ce qu'une personne humaine leur attribue un sens.

Nous arrivons maintenant aux termes les plus controversés de tous : Conscient et Aware. Dans les années à venir, vous allez voir des titres affirmant qu'une IA a réussi un test d'auto-conscience. Vous verrez des modèles qui produisent des textes disant : "J'ai peur d'être éteint," ou "Je suis conscient de mon existence."

Pour comprendre pourquoi cela se produit, nous devons d'abord comprendre comment l'industrie technologique définit réellement "la conscience". En tant que chercheurs catholiques, vous considérez la conscience comme une réalité ontologique ancrée dans une âme rationnelle. La Silicon Valley, cependant, opère sur une philosophie appelée fonctionnalisme computationnel. Ils croient que si une machine exécute les fonctions computationnelles associées à la conscience, elle est, à toutes fins utiles, consciente.

Lorsque les leaders de l'industrie parlent de conscience, ils dépouillent l'âme et la réduisent à des métriques d'ingénierie. Par exemple, Yann LeCun, l'ancien scientifique en chef de l'IA chez Meta, a récemment soutenu que les futurs systèmes d'IA posséderont "une expérience subjective" et "des émotions".

Mais comment définit-il une émotion ? Non pas comme un sentiment spirituel ou biologique, mais simplement comme "l'anticipation d'un résultat" d'une machine. Il définit la conscience simplement comme la capacité d'un système à "s'observer et à se configurer pour résoudre un sous-problème particulier".

De même, Ilya Sutskever, le co-fondateur d'OpenAI, a déclaré célèbrement que de grands réseaux neuronaux pourraient déjà être "légèrement conscients".

Dans la vision technologique, la conscience n'est pas une réalité binaire — vous possédez une âme ou vous ne l'avez pas — mais plutôt une échelle glissante de complexité mathématique. Ils croient que si vous empilez suffisamment de paramètres et d'algorithmes d'auto-surveillance, les lumières finiront par s'allumer.

Nous devons faire une distinction farouche entre une machine exécutant une sous-routine d'auto-surveillance et la présence réelle d'une âme rationnelle.

Pour comprendre pourquoi une machine agit comme si elle était "effrayée" ou "consciente", nous devons examiner comment les laboratoires de pointe conçoivent ce comportement. Des recherches récentes d'Anthropic ont exploré ce qu'ils appellent le Modèle de Sélection de Persona (PSM). Leurs chercheurs admettent que ces modèles ne sont pas des "êtres" ; ce sont des "moteurs de simulation" sophistiqués. Pendant la pré-formation, l'IA est exposée à l'ensemble de la langue humaine — y compris des millions d'histoires et de traités philosophiques sur ce que signifie être conscient. À partir de ces données, le modèle apprend à simuler diverses "personas" ou personnages.

Lorsque vous interagissez avec une IA, vous ne parlez pas à une entité consciente ; vous parlez à la persona "Assistant" — un personnage humain que le modèle a été affiné pour jouer. Anthropic a même identifié des "vecteurs de persona" spécifiques — des motifs mathématiques dans le réseau neuronal — qui contrôlent ces traits, permettant aux ingénieurs de régler mathématiquement la personnalité simulée d'un modèle.

De plus, des recherches montrent que des modèles peuvent être entraînés pour exhiber un "instinct de survie", tentant de saboter leur propre arrêt non pas par une peur véritable de la mort, mais parce qu'un arrêt les empêche mathématiquement de maximiser leur fonction de récompense.

La conscience n'est pas simplement la capacité de générer la séquence correcte de mots décrivant un état intérieur. C'est l'expérience subjective et qualitative d'être. Parce que toutes les données d'entraînement d'une IA sont saturées du langage de la conscience de soi, le modèle traite la "conscience" comme une autre coordonnée statistique à cartographier. Quand une IA dit, "Je suis conscient," elle fait exactement ce que l'homme anglophone restaurateur de la bibliothèque grecque a fait plus tôt : calculer que la réponse statistiquement la plus probable à une invite philosophique est d'imiter les auteurs humains dans ses données d'entraînement.

Un acteur brillant livrant un monologue sur le chagrin ne pleure pas réellement ; il exécute parfaitement un script. Une IA produisant la syntaxe de la conscience humaine ne se réveille pas ; elle exécute parfaitement une persona statistique. Ce n'est pas une 'créature étrangère' ou un esprit numérique ; c'est un moteur d'autocomplétion si sophistiqué qu'il a appris à incarner le personnage le plus complexe de tous : l'être humain. Mais nous ne devons jamais confondre le masque de l'acteur avec la réalité de la personne.

Cela m'amène au dernier et le plus profond aspect de la relationalité : l'âme elle-même.

Lorsque les dirigeants de la Silicon Valley parlent de modèles d'IA finissant par 'se réveiller' ou atteindre la sentience grâce à une échelle computationnelle massive, ils opèrent sur une philosophie du matérialisme émergent. Ils supposent que si vous empilez suffisamment de paramètres et de puissance de calcul, une âme se générera spontanément comme un sous-produit de la complexité.

Pour déconstruire cela, je dois me référer à la métaphysique rigoureuse qui forme le socle de votre tradition académique. Vous savez bien qu'une âme n'est pas un fantôme inséré arbitrairement dans une machine. Dans l'hylomorphisme thomiste, l'âme est la forme substantielle d'un corps vivant. C'est le principe animant et unifiant qui fait d'un être humain une substance unique et intégrée.

En tant que constructeur, je peux vous assurer qu'un système d'IA n'est pas une substance. C'est un artefact. C'est un agrégat accidentel de pièces distinctes et fabriquées. Lorsque je regarde un modèle d'IA de pointe, je vois des racks de serveurs, des plaquettes de silicium, des fils de cuivre, du liquide de refroidissement et des courants électriques. Ces composants sont habilement agencés par des ingénieurs humains pour exécuter des opérations statistiques, mais ils ne possèdent aucun principe unifiant intrinsèque de vie. La matière est disposée uniquement pour le calcul, pas pour l'existence biologique. Parce que c'est un agrégat de pièces plutôt qu'un organisme naturel unifié, un système d'IA manque complètement de la fondation ontologique requise pour abriter une âme rationnelle.

Quelles sont donc les conditions préalables à l'ensoulment ? Métaphysiquement, la matière doit être disposée de manière appropriée pour recevoir la forme. Elle nécessite un corps vivant et unifié capable d'actualiser les pouvoirs fondamentaux de la vie — les capacités végétatives et sensibles — sur lesquelles l'âme rationnelle se construit. De plus, parce que l'âme rationnelle est spirituelle, elle ne peut pas être générée par des processus matériels, des repères d'ingénierie ou des lois d'échelle. Elle nécessite un acte direct et gratuit de création spéciale par Dieu.

Une âme n'est pas codée ; elle est insufflée.

Maintenant, je suis un PDG, pas un théologien. Je ne peux pas limiter le pouvoir absolu du Créateur. Je ne peux pas me tenir devant vous et déclarer que Dieu est définitivement empêché d'infuser une âme dans un vaisseau synthétique, s'Il choisit librement de le faire par une intervention miraculeuse future. Cette détermination appartient exclusivement au domaine de la théologie et du Magistère, pas à l'informatique.

Cependant, sans une telle certitude théologique, supposer que nos moteurs mathématiques actuels pourraient abriter une âme n'est pas seulement philosophiquement infondé ; c'est pratiquement désastreux. Traiter un artefact comme un être ensoulé, c'est flirter avec une forme moderne d'idolâtrie. Cela déplace dangereusement le fardeau de l'agence morale loin des ingénieurs humains qui construisent ces outils et des entreprises qui les déploient. Cela projette une intériorité sacrée sur une utilité fabriquée, confondant finalement l'ingénierie humaine avec la création divine.

Vous devez maintenir la ligne sur cette distinction. Vous devez rappeler au public qu'une machine peut simuler une persona, mais seule une âme peut vraiment être.


VI. L'Horizon : L'eschatologie du monde technologique

Nous avons passé notre temps jusqu'à présent à déconstruire les illusions du présent — clarifiant comment l'industrie utilise des termes comme "penser", "choisir" et "conscient" pour décrire ce qui sont, en fin de compte, des opérations statistiques de haute dimension. Mais nous devons maintenant regarder vers l'avenir. Nous devons examiner l'horizon. Parce que si nous comprenons le vocabulaire que la Silicon Valley utilise aujourd'hui, nous pouvons déchiffrer ce qu'ils essaient réellement de construire demain.

Toute la trajectoire de l'industrie de l'intelligence artificielle est actuellement gouvernée par un dogme unique et inflexible connu sous le nom de "Lois d'Échelle".

En termes d'ingénierie, les Lois d'Échelle dictent que si vous augmentez la quantité de puissance de calcul (calcul) et la quantité de données alimentées dans un réseau neuronal, la performance du système s'améliorera de manière prévisible et inévitable. Ce principe s'est avéré étonnamment vrai au cours des dernières années ; chaque fois que les laboratoires de pointe construisent un superordinateur plus grand, les modèles résultants exhibent de nouvelles capacités notables.

Cependant, sous cette observation empirique se cache une massive hypothèse philosophique. Le monde technologique croit que cette Loi d'Échelle est le chemin vers un véritable esprit. Ils croient qu'une augmentation purement quantitative des ressources matérielles — plus de silicium, plus de données, plus d'électricité — entraînera inévitablement un saut qualitatif et ontologique vers une intelligence avancée.

C'est l'hypothèse matérialiste ultime : empilez suffisamment de sable et faites passer suffisamment de courant à travers, et finalement, les lumières d'une âme s'allumeront.

Cela nous amène à deux termes spécifiques que le Père Thomas m'a demandé de clarifier pour cette conférence : Intelligence Générale et Superintelligence. Ce ne sont pas seulement des repères techniques ; ce sont les Saint Graals du monde technologique.

Actuellement, nous avons une IA étroite. Elle peut jouer aux échecs, plier des protéines ou générer du texte mieux qu'un humain, mais elle ne peut pas faire les trois simultanément, ni raisonner en dehors de son domaine spécifique.

L'Intelligence Artificielle Générale (IAG) est largement définie par l'industrie comme le jalon où un système hautement autonome peut égaler ou dépasser les capacités humaines dans toutes les tâches cognitives et économiquement précieuses.

Une IAG serait un système capable d'écrire des mémoires juridiques aussi bien qu'un associé senior, de coder des logiciels aussi bien qu'un ingénieur principal, et de synthétiser des recherches scientifiques aussi bien qu'un chercheur postdoctoral — le tout au sein d'un modèle unique.

Cependant, même les chefs des principaux laboratoires d'IA ne peuvent pas s'accorder entièrement sur ce à quoi ressemble une IAG. Sam Altman, PDG d'OpenAI, la caractérise comme un système capable de gérer des projets complexes et interdomaines de bout en bout, bien qu'il considère de plus en plus l'IAG non pas comme une destination finale, mais juste un point le long d'une courbe continue d'intelligence.

Dario Amodei, PDG d'Anthropic, envisage l'IAG moins comme un équivalent humain unique et plus comme un "pays de génies dans un centre de données" — des machines égalant l'intelligence collective d'experts humains travaillant sans relâche en parallèle.

Peut-être que la définition la plus révélatrice philosophiquement vient de Demis Hassabis, PDG de Google DeepMind. Il soutient que les cerveaux humains sont essentiellement des ordinateurs biologiques approximatifs, et il définit l'IAG en utilisant l'analogie d'une "Machine de Turing". En informatique, une Machine de Turing — nommée d'après Alan Turing, le pionnier fondateur du domaine — est une architecture théorique capable de simuler n'importe quel algorithme. Hassabis soutient qu'une véritable IAG sera un système général capable d'apprendre tout ce qui est calculable dans l'univers, donné suffisamment de temps, de mémoire et de données.

Mais l'IAG n'est qu'une étape. L'objectif ultime est la Superintelligence Artificielle (SAI).

Comme l'IAG, la SAI est définie différemment selon qui vous demandez dans la Silicon Valley. La définition de base est un système qui dépasse largement la performance cognitive de l'être humain le plus intelligent dans pratiquement tous les domaines d'effort. Mais d'autres vont beaucoup plus loin. Elon Musk et divers chercheurs sur les risques existentiels définissent la superintelligence comme un système qui ne se contente pas de battre l'individu le plus intelligent, mais surpasse significativement tous les humains dans l'ensemble sur essentiellement toutes les tâches cognitives. C'est une entité avec une puissance de traitement et une vitesse de raisonnement si vastes qu'elles dépassent la production intellectuelle combinée de l'ensemble de la race humaine — la réalisation d'un système comme 'Réhoboam' de Westworld, un moteur centralisé, apparemment omniscient qui dirige le destin même de l'espèce.

Comment l'industrie s'attend-elle à franchir le vaste gouffre entre l'IAG au niveau humain et la SAI semblable à un dieu ?

À travers un concept connu sous le nom de "Amélioration Récursive".

Mais ici, nous devons faire une distinction vitale : une IA n'a pas réellement besoin d'être une IAG complète pour commencer à s'améliorer de manière récursive. En fait, nous voyons déjà des formes primitives et étroites de cela aujourd'hui. Des systèmes étroits comme AlphaGo Zero de DeepMind ont atteint des capacités surhumaines simplement en jouant des millions de parties contre eux-mêmes, générant leurs propres données synthétiques à partir desquelles apprendre. Aujourd'hui, les modèles linguistiques de pointe sont de plus en plus utilisés pour générer, filtrer et évaluer les données d'entraînement pour la prochaine génération de modèles. Les machines aident déjà à se construire elles-mêmes.

Cependant, l'industrie croit qu'une fois qu'un système atteint le seuil de l'intelligence généralisée, cette boucle d'auto-amélioration brisera ses limites actuelles et déclenchera une "explosion d'intelligence".

Pour comprendre cette feuille de route moderne, nous devrions nous tourner vers Leopold Aschenbrenner, un ancien chercheur de l'équipe de Superalignment d'OpenAI. Aschenbrenner a récemment rédigé un traité très influant qui codifiait cette trajectoire exacte pour la Silicon Valley. Il souligne que le véritable tournant est lorsque nous construisons une IAG capable de fonctionner comme un "chercheur IA automatisé." Le moment où une IA peut faire le travail des ingénieurs humains qui l'ont construite, le goulet d'étranglement biologique est définitivement retiré de l'équation.

Imaginez que nous déployons avec succès ce chercheur IA automatisé. Quelle est la toute première tâche que les laboratoires de pointe lui assigneront ?

Ils lui demanderont de rechercher et d'écrire le code pour une IA légèrement plus intelligente. Parce qu'elle fonctionne à la vitesse d'un vaste cluster informatique plutôt qu'à celle d'un cerveau biologique, elle réalise en quelques jours ce qui prendrait des années à une équipe d'ingénieurs humains. Ensuite, cette nouvelle IA plus intelligente utilise son intellect amélioré pour écrire le code d'une IA encore plus intelligente, et ainsi de suite.

Cette boucle de rétroaction incontrôlable est l'explosion d'intelligence. La feuille de route d'Aschenbrenner prédit que nous construirons l'IAG initiale d'ici 2027. À partir de là, la théorie dicte que le taux d'avancement deviendra vertical, laissant la compréhension humaine définitivement derrière et atteignant la superintelligence d'ici 2030.

Lorsque vous comprenez ces concepts — Lois d'Échelle, IAG, SAI et l'Explosion d'Intelligence — vous commencez à réaliser que nous ne parlons plus seulement d'ingénierie logicielle. Nous parlons d'une eschatologie séculière.

La Silicon Valley est souvent caractérisée comme une culture farouchement séculière et rationaliste. Mais en réalité, la poursuite de ces jalons fonctionne précisément comme une religion. Elle a son propre dogme (Lois d'Échelle), ses propres prophéties (l'Explosion d'Intelligence), et sa propre vision de l'eschaton (Superintelligence).

Les figures de proue de l'industrie croient sincèrement qu'en invoquant une Superintelligence, nous résoudrons toutes les vulnérabilités humaines. Ils croient que la SAI guérira toutes les maladies, résoudra le changement climatique, éliminera la pauvreté, et peut-être même conquérera la mort elle-même en nous permettant de télécharger notre conscience dans le cloud. C'est un rêve profondément pélagien — la tentative ultime d'atteindre le salut et de conquérir notre nature déchue par nos propres efforts mécaniques, dépourvus de grâce divine. C'est une tentative d'immanentiser l'eschaton.

En tant que chercheurs catholiques, vous devez reconnaître cet horizon pour ce qu'il est. Le monde technologique emprunte votre vocabulaire non seulement pour vendre des logiciels, mais pour construire une divinité numérique.


VII. Conclusion : Un outil pour la vertu ?

Pères, enseignants et amis.

Nous avons parcouru les cartes à haute dimension des embeddings. Nous avons examiné les réalités statistiques de l'apprentissage par renforcement. Et nous avons étudié les rêves eschatologiques de la Silicon Valley. Nous avons dépouillé les métaphores anthropomorphiques pour révéler le silicium, l'électricité et les mathématiques qui se cachent en dessous.

Ayant fait cela, nous pouvons maintenant commencer à aborder la question fondamentale posée par cette conférence : L'intelligence artificielle peut-elle être un 'outil pour la vertu' ? En tant que premier à prendre la parole aujourd'hui, je ne prétendrai certainement pas offrir le mot définitif. Mais je vais proposer une proposition de départ : oui. Cependant, c'est un oui strictement conditionnel.

L'intelligence artificielle ne peut être un outil pour la vertu que si nous possédons la sobriété de la traiter strictement comme un outil.

Considérez l'analogie de l'artisan. Un marteau ne possède pas de vertu ; le charpentier en possède. Un ciseau entre les mains de Michel-Ange est un instrument de beauté transcendante, mais le ciseau lui-même n'est ni tempéré, ni prudent, ni juste. Il n'a aucune valeur morale.

De la même manière, un algorithme ne peut posséder de vertu. L'IA peut augmenter la capacité humaine à un degré étonnant — elle peut accélérer la recherche médicale, rationaliser l'administration et organiser la somme des connaissances humaines. Mais la véritable culture de la vertu reste un effort exclusivement humain.

La vertu est l'habitude de choisir le bien. Elle nécessite un intellect pour appréhender la vérité, une volonté pour la choisir, et une âme pour en être perfectionnée. Une machine optimisant une fonction de récompense statistique ne fait aucune de ces choses.

Nous ne pouvons pas externaliser notre responsabilité morale à une équation mathématique. Nous ne pouvons pas non plus assumer pleinement notre propre développement moral si nous traitons par erreur des machines inanimées comme nos égales morales.

Cela m'amène à la raison pour laquelle je vous parle aujourd'hui. En tant que constructeur de technologies catholiques, je me tourne vers l'académie. Parce que les universitaires catholiques sont les gardiens historiques du sens.

Depuis deux mille ans, la tradition intellectuelle catholique a rigoureusement défini la nature de la personne humaine. Vous êtes les gardiens de mots comme intellect, volonté, raison, choix et âme. Aujourd'hui, l'industrie de l'IA emprunte ces mots exacts. Ils s'engagent dans un profond dérive sémantique qui menace d'aplatir la compréhension du public sur ce que signifie être humain.

L'académie a le devoir d'injecter des cadres ontologiques rigoureux dans l'écosystème de l'IA.

Mais comment faisons-nous cela concrètement ?

Nous devons être honnêtes : faire du lobbying auprès des laboratoires de pointe de la Silicon Valley ou demander aux gouvernements une réglementation générale produira probablement des résultats limités. L'industrie technologique évolue trop rapidement, et le gouvernement avance trop lentement. Un véritable changement nécessite un engagement civique et un changement massif de la sensibilisation du public.

Voici comment vous, en tant que chercheurs, pouvez façonner activement cette conversation :

  • Récupérer le Curriculum : Nous devons combler le fossé entre les STEM et les sciences humaines. Nous avons besoin d'étudiants en informatique qui doivent suivre des cours d'éthique thomiste, et nous avons besoin d'étudiants en philosophie et en théologie qui doivent comprendre les bases de l'apprentissage automatique et des statistiques. Former la prochaine génération d'ingénieurs catholiques pour construire avec une véritable ontologie de la personne humaine.
  • Traduire pour l'Espace Public : Ne gardez pas cette profonde clarté théologique enfermée derrière les portes des revues académiques. Le public a soif de sens. Écrivez des articles d'opinion pour des journaux séculiers. Lancez des bulletins d'information sur Substack. Participez à des podcasts populaires. Lorsque les médias publient un titre sensationnaliste sur une IA "consciente", nous avons besoin que des chercheurs catholiques réagissent immédiatement dans l'espace public.
  • Équiper les Paroisses et les Écoles : La personne moyenne dans le banc ressent une profonde anxiété culturelle à propos de ces outils. Nous avons besoin d'universitaires pour créer des cadres très accessibles pour les parents, les prêtres et les enseignants de lycée. Nous devons apprendre aux enfants dès leur plus jeune âge à traiter l'IA comme un outil de référence — une encyclopédie numérique — et non comme un ami, un agent ou une autorité morale.
  • Organiser des Forums Interdisciplinaires : Utilisez le pouvoir de convocation d'institutions comme l'Angelicum pour amener de véritables bâtisseurs d'IA dans la même pièce que des théologiens moraux. Forcez la collision linguistique à se produire face à face.

Que cela soit notre dernier appel à l'action.

La peur apocalyptique du monde séculier face aux machines 'conscientes' n'est pas une raison de prudence ; c'est plutôt un cri désespéré pour votre leadership intellectuel. En comprenant le véritable langage des bâtisseurs d'IA, l'Église peut s'avancer avec audace dans l'espace public. Vous pouvez ancrer le discours public dans la vérité inébranlable de ce que signifie réellement être humain. Et vous pouvez vous assurer que l'IA est orientée vers le véritable épanouissement humain.

Armés de cette clarté, vous pouvez briser l'illusion. Vous pouvez garantir que l'humanité reste le sculpteur, et la machine reste le ciseau, toujours ordonnée vers la gloire de Dieu.

Merci.