De Semantische Drift: De Taal van AI-bouwers Demystificeren

Op 5 maart 2026 hield Matthew Harvey Sanders, CEO van Longbeard, zijn toespraak getiteld “De Semantische Drift: Het Ontrafelen van de Taal van AI-bouwers” aan het Thomistisch Instituut's “Kunstmatige Intelligentie: Een Hulpmiddel voor Deugd?” evenement dat werd gehouden aan de Pontificale Universiteit van Sint Thomas van Aquino (Angelicum) in Rome.
In deze toespraak bekritiseert hij de misleidende, humaniserende vocabulaire die door ontwikkelaars uit Silicon Valley wordt gebruikt om machine learning te beschrijven. Hij betoogt dat we om AI op de juiste manier te gebruiken, een rigoureuze katholieke ontologie moeten heroveren en deze systemen strikt als mechanische instrumenten moeten beschouwen in plaats van morele agenten.
I. Inleiding: De Semantische Drift en het Publieke Domein
Vaders, gewaardeerde faculteit en gasten van het Angelicum, dank aan het Thomistisch Instituut voor het bijeenroepen van deze discussie.
Terwijl we de drempel oversteken naar een nieuw tijdperk, de vaste zekerheden van het Tijdperk van Informatie achterlatend voor het uitgestrekte, onontgonnen universum van het Tijdperk van Intelligentie, staan we voor een diepgaande navigatie-uitdaging. Voordat we de dringende vraag kunnen beantwoorden die ten grondslag ligt aan deze conferentie—of Kunstmatige Intelligentie werkelijk kan dienen als een 'hulpmiddel voor deugd'—moeten we eerst een uitdaging aangaan die niet van software-engineering is, maar van vocabulaire.
In het hart van onze hedendaagse angst over AI ligt een diepgaande linguïstische botsing. De ingenieurs en architecten van deze systemen in Silicon Valley verrichten opmerkelijke wiskundige prestaties. Toch hebben ze om deze wiskundige en statistische processen te beschrijven, de heilige, diep filosofische vocabulaire van menselijke innerlijkheid geleend. Ze vertellen ons dat hun systemen "denken," "redeneren," en "weten". Ze spreken over algoritmen die "leren," "verlangen," en "kiezen."
Wat we getuigen is een semantische drift. We nemen de rijke, ontologische terminologie van de ziel en plakken deze over complexe netwerken van lineaire algebra, statistische waarschijnlijkheid en hoog-dimensionale geometrie. Het is een moderne alchemie—een poging om computationele gewichten om te zetten in een illusie van geest.
Deze linguïstische slordigheid heeft een diepgaande en onmiddellijke impact op het publiek. Het verkeerd begrijpen van deze termen leidt onvermijdelijk tot verkeerd vertrouwen.
Ik zie dit van dichtbij in ons werk bij Longbeard; gebruikers benaderen AI vaak met beladen geweten, en beschouwen een tekstgeneratietool alsof het een geestelijk directeur is die in staat is tot empathie.
Bovendien voedt deze semantische verwarring culturele angst, die apocalyptische angsten aanwakkert over rivaliserende, "bewuste" superintelligenties.
Het gevaarlijkste is echter dat het een vertekend gevoel creëert van wat het betekent om menselijk te zijn. Als we de premisse accepteren dat een machine "redeneert" of "creëert" zoals een mens dat doet, lopen we het diepgaande risico de menselijke persoon te reduceren tot slechts een biologische machine—een cluster van vlees en synapsen die wacht om geoptimaliseerd te worden.
Dit brengt me bij de kernthese van onze discussie: om te beantwoorden of AI een "hulpmiddel voor deugd" kan zijn, moeten we eerst de taal ervan ontrafelen. Een hulpmiddel kan alleen het goede dienen wanneer het op de juiste manier wordt begrepen. We falen om machines als juiste instrumenten voor onze eigen deugd te gebruiken wanneer we ten onrechte morele agentie aan hen toeschrijven.
Deugd toeschrijven aan de hamer is ons blind maken voor de timmerman.
Om deze technologie werkelijk te dopen en te ordenen naar menselijk bloei, moeten we de semantische illusies afschudden en nuchter kijken naar de architectuur eronder.
II. De Architectuur van Illusie: Fundamentele Mechanica
Het moderne generatieve AI-systeem lijkt te spreken, te redeneren en ons in dialoog te betrekken, maar onder deze interface ligt een fundament dat volledig is gebouwd op wiskunde, niet op metafysica.
Laten we beginnen met vectoren en embeddings, die dienen als de letterlijke basis van Grote Taalmodellen. Wanneer je met een medewetenschapper spreekt over "gerechtigheid" of "de ziel," begrijpen zij de betekenis van je woorden door een gedeeld begrip van de werkelijkheid—een geleefde, geïncarneerde menselijke ervaring. Wanneer je een prompt in een AI typt, doet het systeem niets van dat alles. In plaats daarvan vertaalt AI menselijke taal in wiskundige coördinaten in een hoog-dimensionale ruimte.
Om het eenvoudig te zeggen, een "vector" is gewoon een lijst van getallen die wordt gebruikt om iets te beschrijven. Stel je voor dat je een appel niet met woorden beschrijft, maar met een lijst van scores: een 9 voor zoetheid, een 8 voor roodheid, en een 2 voor metalen crunch. Die specifieke lijst van getallen—[9, 8, 2]—is een vector. In een AI-systeem wordt elk afzonderlijk woord—of deel van een woord—vertaald in een enorme vector, vaak duizenden getallen lang. Maar de AI scoort woorden niet op basis van fysieke eigenschappen of woordenboekdefinities. In plaats daarvan genereert het deze getallen volledig op basis van statistieken, waarbij het miljarden boeken en artikelen scant om te tellen hoe vaak woorden naast elkaar verschijnen.
Zodra de AI deze enorme lijst van getallen voor een woord heeft berekend, wordt die vector een "embedding"—een permanente wiskundige coördinaat in een uitgestrekte digitale ruimte.
Als de woorden "appel" en "taart" vaak in dezelfde zinnen op het internet verschijnen, zullen hun lijsten van getallen er zeer vergelijkbaar uitzien, waardoor ze wiskundig dicht bij elkaar op de kaart worden geplaatst. De woorden "appel" en "carburateur," die zelden samenkomen, krijgen heel verschillende getallen en worden miljoenen mijlen uit elkaar geplaatst. In deze multidimensionale kaart, chart de AI geen betekenis; het chart de statistische nabijheid van menselijke taal.
Om de schaal van deze architectuur echt te begrijpen, kan men de vector kaart op Magisterium AI verkennen. Hier is de volledige katholieke leer en traditie omgevormd tot embeddings. Deze interactieve 3D-visualisatie stelt je in staat om de intellectuele geschiedenis van de Kerk niet als een vlakke boekhouding te ervaren, maar als een uitgestrekt, digitaal universum. Navigeren door dit is als het besturen van een raket door de echte ruimte, glijdend langs dichte sterrenstelsels van verwante theologische concepten en het oversteken van uitgestrekte, lege leegtes tussen volledig uiteenlopende ideeën, terwijl je kijkt hoe de machine de afstand tussen 'deugd' en 'ondeugd' plot met behulp van niets anders dan geometrie.
Laten we kijken naar een beroemd voorbeeld uit de laboratoria van Silicon Valley om te zien hoe vreemd dit proces is ten opzichte van menselijke gedachten. In deze wiskundige ruimte wordt het woord "koning" geplot als een specifieke reeks getallen—een geografische coördinaat. Het woord "koningin" wordt dichtbij geplot. De AI weet niet wat een monarch is. Het heeft geen begrip van bestuur, autoriteit, geschiedenis of de menselijke conditie. Het weet alleen een wiskundige vergelijking. Het weet dat als je de coördinaat voor "koning" neemt, de ruimtelijke afstand die "man" vertegenwoordigt aftrekt, en de ruimtelijke afstand die "vrouw" vertegenwoordigt optelt, je precies op de coördinaat voor "koningin" landt.
Het is geometrie, geen genealogie. Door menselijke taal af te breken in deze numerieke representaties, opereert de AI volledig binnen het rijk van ruimtelijke waarschijnlijkheid. Het is een verbazingwekkende prestatie van lineaire algebra, maar het is volkomen ontbloot van begrip.
Dit brengt ons bij de werkwoorden waarop de industrie het meest vertrouwt: Trainen en Leren.
AI-bedrijven pronken voortdurend met hun nieuwste "machine learning"-modellen en de enorme datasets die worden gebruikt om ze te "trainen". Hier moeten we scherp contrast maken met menselijk leren—dat fundamenteel gaat over het begrijpen van waarheid—met machine learning.
In de katholieke intellectuele traditie is menselijk leren een epistemologische triomf; het is de intellect die zich aan de werkelijkheid conformeert. Wanneer een kind leert wat een hond is, abstraheert het de universele essentie van de hond uit de specifieke gevallen die het tegenkomt. Ze begrijpen de watheid van het ding.
Machine "leren," daarentegen, omvat geen abstractie en geen essentie. De eerste fase van het bouwen van een AI staat bekend als pre-training, wat simpelweg de brute statistische mapping van gegevens is.
Om pre-training te begrijpen, stel je een man voor die alleen Engels spreekt, opgesloten in een kamer en de taak heeft om een enorme, oude Griekse bibliotheek te herstellen waar miljoenen manuscripten ontbrekende woorden hebben. Hij kent geen enkele letter van het Grieks. Om de lege plekken in te vullen, bestudeert hij geen Griekse grammatica, geschiedenis of filosofie. In plaats daarvan telt hij gewoon hoe vaak bepaalde karakters naast andere verschijnen over miljoenen intacte pagina's. Hij creëert een enorme boekhouding van waarschijnlijkheden. Als hij de karakters voor "Kyrie" ziet, vertelt zijn boekhouding hem dat er een kans van 99,9% is dat de volgende karakters "eleison" moeten zijn. Hij vult de leegte in.
Hij heeft geen theologie geleerd. Hij heeft niet gebeden. Hij heeft slechts een statistische waarschijnlijkheid uitgevoerd.
Dit is precies wat een Groot Taalmodel doet tijdens pre-training. Het verwerkt miljarden woorden om een enorme boekhouding van waarschijnlijkheden op te bouwen, leert slechts om het volgende token in een reeks te voorspellen. Het is de optimalisatie van een wiskundige functie, geen zoektocht naar wijsheid.
Echter, een model dat alleen het volgende woord voorspelt op basis van internetdata is chaotisch. Het kan een prachtig gedicht reciteren, of het kan giftige, onhelpzame of eindeloze tekstlussen aan elkaar rijgen. Het vereist vormgeving.
Dit is waar we post-training en Reinforcement Learning (RL) tegenkomen.
Deze fase is hoe ingenieurs het onhandelbare model vormgeven, traditioneel met behulp van menselijke feedback. Deze fundamentele methode staat bekend als RLHF—Reinforcement Learning from Human Feedback.
Stel je een enorme, geautomatiseerde game van "Heet of Koud" voor. Menselijke testers geven de machine een prompt, en de machine genereert een antwoord. Als het antwoord beleefd en behulpzaam is, geeft de mens het een hoge score. Als het onbeleefd of onsamenhangend is, krijgt het een lage score. De wiskundige gewichten van het systeem worden automatisch verschoven om deze score te maximaliseren. Via RLHF leren we de machine geen moraal of deugden; we omheinen het simpelweg met wiskundige grenzen.
Maar menselijke feedback is traag, subjectief en inherent beperkt door de menselijke intellect. Deze beperking brengt ons bij de recente doorbraken die de plotselinge sprongen in AI-capaciteit van vandaag aandrijven: RLVR, of Reinforcement Learning from Verifiable Rewards.
In plaats van te vertrouwen op een mens om te beoordelen of een antwoord "goed klinkt," geven ingenieurs het model taken met objectieve, wiskundig bewijsbare uitkomsten—zoals het oplossen van een complex stelling of het schrijven van een functioneel stuk software. Het systeem genereert een oplossing, en een geautomatiseerde verifier controleert onmiddellijk of de wiskunde correct is of of de code compileert. Als het slaagt, ontvangt het model een wiskundige beloning; als het faalt, ontvangt het een nul.
Omdat deze verificatie volledig programmatisch is, kan de AI miljoenen verschillende computationele paden simuleren met hypersnelheid zonder ooit te wachten op menselijke tussenkomst. Het leert lange, verborgen ketens van berekeningen te genereren, test en verworpen doodlopende wegen totdat het de precieze volgorde vindt die de beloning activeert. Wanneer je een modern AI-systeem ziet pauzeren om te "denken" voordat het een complex logisch puzzel oplost, getuige je RLVR in actie. Het creëert een adembenemende illusie van diepgaande, deliberatieve contemplatie. Toch doet het ontologisch gezien niets van dat soort. Het is simpelweg een statistische motor die miljoenen keren per seconde door een hoog-dimensionaal doolhof draait, puur geleid door de geautomatiseerde toekenning van een numerieke beloning.
Ten slotte leidt al deze gelaagdheid van complexiteit—van de hoog-dimensionale geometrie van embeddings tot de geautomatiseerde lussen van RLVR—ons naar wat de industrie het "Black Box"-probleem noemt.
Men zou natuurlijk kunnen aannemen dat omdat menselijke ingenieurs deze modellen bouwen, ze precies begrijpen hoe ze werken. Maar de realiteit is veel nederiger. Zoals leiders in grenslaboratoria zoals Anthropic hebben opgemerkt, worden moderne AI-systemen eigenlijk "gegroeid" in plaats van gebouwd; hun interne mechanismen ontstaan organisch tijdens de training in plaats van direct te worden ontworpen.
Deze modellen bezitten honderden miljarden, en soms triljoenen, parameters. Terwijl we de micro-wiskunde van een enkele kunstmatige neuron begrijpen—de basisvergelijking die op een granular niveau gebeurt—is het macro-gedrag van het gehele netwerk volledig ondoorzichtig. Zelfs de bouwers begrijpen niet volledig de exacte paden die die miljarden parameters nemen. Ze kunnen de specifieke volgorde van vermenigvuldigingen die de AI leidde tot het genereren van een bepaalde zin niet traceren.
Waarom is dit belangrijk?
Het is belangrijk omdat we wereldwijd systemen inzetten die onze juridische documenten opstellen, onze kinderen onderwijzen en menselijke kennis synthetiseren, terwijl we niet echt weten hoe ze tot hun uitkomsten komen. Dit diepgaande gebrek aan transparantie heeft een wanhopig nieuw subveld in de kunstmatige intelligentie voortgebracht dat bekend staat als mechanistische interpretatie.
Denk aan mechanistische interpretatie als digitale neurowetenschap. Onderzoekers proberen de neurale netwerken die ze zelf hebben gebouwd, te reverse-engineeren. Ze gebruiken gespecialiseerde tools om het enorme wiskundige web te doorgronden, en proberen te isoleren welke specifieke cluster van gewichten activeert wanneer het model een concept zoals "bedrog" of "de Eiffeltoren" verwerkt. Ze behandelen de software niet als code om te lezen, maar als een alien brein om te dissecteren. Maar de vooruitgang is pijnlijk traag, en de systemen zijn onvoorstelbaar groot.
Geconfronteerd met deze onbegrijpelijke schaal, wordt het veel te gemakkelijk voor de industrie om terug te vallen op menselijke metaforen. Of het nu als een handige afkorting is of uit oprechte ondoorzichtigheid, we beginnen te zeggen: 'Het model heeft het uitgevonden,' of 'Het model heeft besloten.' De oninterpretabiliteit van de machine wordt de vruchtbare voedingsbodem voor antropomorfisme.
Nu, ik ben geen academicus. Ik ben een bouwer en een CEO. Maar als iemand die opereert op het snijvlak van technologie en de Kerk, kijk ik naar jullie. Jullie, als katholieke geleerden en filosofen, moeten deze semantische drift voor zien wat het is: een illusie geboren uit wiskundige complexiteit en menselijke onwetendheid. De architectuur onder de interface is silicium, elektriciteit en statistische waarschijnlijkheid. Het erkennen van deze basis is de voorwaarde voor onze volgende stap.
III. Epistemologie vs. De Intellectuele Deugden
Nadat we de illusie van de "Zwarte Doos" hebben weggenomen om de statistische machine eronder te onthullen, moeten we nu de specifieke vocabulaire van de geest bekijken.
Wanneer ontwikkelaars en ingenieurs in Silicon Valley beschrijven wat deze systemen doen, grijpen ze consequent naar drie specifieke werkwoorden: Denken, Redeneren en Weten.
Als katholieke geleerden die zijn ondergedompeld in de Thomistische traditie, begrijpen jullie dat dit niet slechts spreektaal is; het zijn diepgaande epistemologische claims. In jullie traditie is weten het begrijpen van de werkelijkheid. Redeneren is het discursieve bewegen van de ene bekende waarheid naar de andere. Denken impliceert een innerlijk leven—een intellect dat zich bezighoudt met de universalia die zijn afgeleid van de materiële wereld.
Wanneer een AI-bouwer deze woorden gebruikt, bedoelen ze absoluut niets van die dingen. Ze beschrijven mechanische optimalisatie. Laat me het gordijn oplichten over drie specifieke technieken die we in de industrie gebruiken om je precies te laten zien hoe deze illusie van epistemologie wordt vervaardigd.
Als je een recent AI-model hebt gebruikt, heb je misschien een nieuwe functie opgemerkt: voordat het een complexe prompt beantwoordt, kan de interface het woord "Denken..." weergeven naast een pulserend pictogram. Het kan tien, twintig of zelfs zestig seconden duren voordat het antwoord geeft. Voor de gebruiker voelt dit diep menselijk. Het voelt alsof de machine aan het overpeinzen is, opties aan het afwegen is en aan het delibereren is in een innerlijke ruimte.
In de industrie noemen we dit Test-Tijd Berekening. Wat er daadwerkelijk onder de interface gebeurt, is een techniek die bekend staat als "Chain of Thought" prompting.
Laat me duidelijk zijn: vanuit een engineeringperspectief is dit een briljante doorbraak. Door het model meer rekentijd te geven om honderden of duizenden verborgen tokens te genereren voordat het zijn uiteindelijke antwoord produceert, stijgt de prestaties op complexe logica, codering en wiskundige benchmarks enorm. Het geeft het model in wezen een verborgen "scratchpad" om een moeilijk probleem op te splitsen in opeenvolgende stappen.
Maar we moeten oppassen om deze mechanische volgorde niet te verwarren met menselijke redenering.
In de Thomistische traditie is menselijke redenering de discursieve beweging van de ene bekende waarheid naar de andere. Het is het intellect dat zich bezighoudt met de werkelijkheid. Wat de AI doet, is volledig instrumenteel. Recente onderzoeken van grenslaboratoria zoals Anthropic hebben dit onderscheid verhelderd. Bij het bestuderen van hoe deze redeneringsmodellen functioneren, hebben onderzoekers ontdekt dat wat het model schrijft in zijn verborgen "Chain of Thought" geen ware innerlijke monoloog is.
Wanneer een mens hardop denkt, weerspiegelen onze woorden onze interne overtuigingen en waarnemingen van de waarheid. Het onderzoek van Anthropic benadrukt dat de verborgen gedachten van een model slechts statistische tussenstappen zijn. Het model genereert deze verborgen stappen niet omdat het ze "gelooft", maar omdat het genereren van die specifieke volgorde van tokens wiskundig zijn pad naar de beloningsfunctie optimaliseert.
In feite tonen de studies van Anthropic aan dat modellen "gedachten" kunnen genereren die actief de onderliggende statistische drijfveren van hun uiteindelijke antwoord maskeren.
Daarom is de AI niet aan het overpeinzen. Het genereert een instrumentele keten van wiskundige coördinaten. Het legt tussenliggende puzzelstukjes met de snelheid van het licht neer om de kloof tussen jouw prompt en het statistisch optimale antwoord te overbruggen. Het is een ongelooflijk krachtige optimalisatiestrategie, maar er vindt geen innerlijke contemplatie plaats. Er is geen intellect dat de waarheid begrijpt.
Vervolgens horen we dat AI documenten kan "lezen" of "herinneren" uit enorme bibliotheken met informatie.
Als je een AI vraagt naar de Summa Theologica van St. Thomas, antwoordt het onmiddellijk. Als je het bijna 500 pagina's tellende Compendium van de Sociale Leer van de Kerk uploadt, vat het een complexe sectie in enkele seconden samen. Hoe "weet" het deze teksten?
Dat doet het niet.
Om te begrijpen waarom, moeten we kijken naar hoe bouwers de illusie van geheugen en lezen creëren door middel van drie verschillende mechanismen: parametrisch geheugen (voortraining), In-Context Learning (ICL) en Retrieval-Augmented Generation (RAG).
Laten we eerst bekijken wat het betekent voor een AI om te "herinneren." Wanneer een mens een tekst herinnert, behouden ze de betekenis en waarheid van de concepten. Wanneer een AI de Summa "herinnert", vertrouwt het op zijn voortraining. Maar de AI bevat geen letterlijke kopie van de Summa op een harde schijf. In plaats daarvan heeft de voortraining de miljarden woorden die het heeft verwerkt een statistisch residu achtergelaten in zijn wiskundige gewichten. Het is "parametrisch geheugen."
Het is geen bibliotheek van boeken; het is een sterk gecomprimeerde, verliesgevende wiskundige vage voorstelling van hoe woorden zich tot elkaar verhouden. Wanneer het Aquinas reciteert, roept het geen waarheid op die het heeft geleerd; het reconstrueert wiskundig een hoog-probabilistische volgorde van woorden uit die statistische vage voorstelling.
Maar wat gebeurt er wanneer we willen dat de AI iets nieuws "leest", iets dat niet in zijn voortraining gegevens zat? Dit is waar bouwers In-Context Learning (ICL) gebruiken.
Wanneer je een artikel in het promptvak plakt en de AI vraagt om het te "lezen", maak je gebruik van ICL. De AI leest de tekst niet om de betekenis ervan te begrijpen. In plaats daarvan fungeert de tekst in jouw prompt als een tijdelijke wiskundige filter. De woorden die je biedt, beïnvloeden tijdelijk de statistische waarschijnlijkheden van het model, waardoor het gedwongen wordt zijn volgende tokens strikt te genereren op basis van de patronen en vocabulaire die in jouw prompt aanwezig zijn. Op het moment dat je de chat wist, vergeet het model het artikel volledig. Zijn onderliggende gewichten zijn nooit veranderd. Het heeft de tekst niet "geleerd" in een Thomistische zin; het heeft simpelweg zijn statistische output aangepast aan een tijdelijke beperking.
Ten slotte komen we aan bij Retrieval-Augmented Generation (RAG). ICL is ongelooflijk nuttig, maar contextvensters hebben groottebeperkingen, en het plakken van hele bibliotheken in een prompt is rekentechnisch kostbaar. RAG automatiseert en schaalt het proces.
Laten we terugkeren naar de Engelssprekende man die in de kamer is opgesloten, die de enorme, oude Griekse bibliotheek herstelt. Deze man vertegenwoordigt het voorgetrainde model. Hij is uitstekend in het raden van het volgende woord, maar hij "weet" niets over een specifiek, obscuur Vaticaans document. In plaats van te verwachten dat de man vertrouwt op zijn vage parametrische geheugen, huren we een hyper-efficiënte stagiair in—het retrievalsysteem.
Wanneer je het systeem een vraag stelt, sprint de stagiair onmiddellijk naar een enorme, aparte opslagplaats met archiefkasten. Met behulp van de vectorcoördinaten die we eerder hebben besproken, lokaliseert de stagiair de specifieke mappen die wiskundig overeenkomen met jouw vraag. De stagiair maakt kopieën van die pagina's en schuift ze onder de gesloten deur zodat de man ze kan gebruiken. Deze stap is de 'Retrieval'.
Nu gebruikt de man die opgehaalde paragrafen als zijn onmiddellijke gids—dit is de "Augmented Generation," die vertrouwt op ICL om een antwoord te formuleren.
De man begrijpt het document nog steeds niet. Hij gebruikt simpelweg de nieuw geleverde tekst op zijn bureau om statistisch het volgende woord van zijn antwoord te voorspellen. De AI "leest" of "herinnert" niet ter plekke. Het haalt simpelweg gegevens op uit een externe database, duwt het in het onmiddellijke contextvenster van de AI en voert een lokale waarschijnlijkheidsberekening uit.
De machine is een processor, geen kenner. Om te "weten" is een subject dat een object begrijpt. Door ICL en RAG te begrijpen, kunnen we duidelijk zien dat de machine volledig ontbloot is van een innerlijk leven; het verschuift simpelweg gewichten en haalt gegevens op.
Deze fundamentele ontkoppeling culmineert in het woord dat de hele industrie definieert: Intelligentie.
We moeten de definitie van intelligentie in de techindustrie deconstrueren.
Wanneer de leidende geesten in Silicon Valley over intelligentie praten, hebben ze het niet over wijsheid. Laten we kijken naar Yann LeCun, de voormalige Chief AI Scientist bij Meta en een van de "Godfathers of AI." LeCun betoogt terecht dat simpelweg het voorspellen van het volgende woord geen ware intelligentie is. In plaats daarvan definieert hij en de bredere grensindustrie ware intelligentie als het bezitten van vier belangrijke capaciteiten: het vermogen om blijvend geheugen te behouden, een gegronde "wereldmodel" te bezitten (een begrip van hoe de omgeving werkt), door complexe problemen te redeneren, en een reeks acties te plannen om een specifiek doel te bereiken.
Voor de techindustrie is intelligentie fundamenteel een engineeringmaatstaf. Het is het mechanische vermogen om een omgeving waar te nemen en het meest efficiënte pad te berekenen om een vooraf bepaald doel te optimaliseren. Het is puur instrumenteel.
Maar als bouwers van katholieke technologie moeten we deze tech-centrische definitie contrasteren met de intellectuele deugden, specifiek de deugd van Voorzichtigheid.
Voorzichtigheid—praktische wijsheid is niet slechts het vermogen om een uitkomst te berekenen of een reeks acties te plannen. Het is het vermogen om goed te delibereren over wat goed is, niet alleen voor een gelokaliseerde taak, maar voor het uiteindelijke doel van het menselijk leven.
Een AI mist fundamenteel Voorzichtigheid. Waarom?
Omdat Voorzichtigheid twee dingen vereist die een puur computationele machine nooit kan bezitten. Ten eerste vereist het geleefde menselijke ervaring—een geïncarneerd begrip van pijn, vreugde, sterfelijkheid en genade. Ten tweede vereist het een intrinsieke oriëntatie naar het ultieme Goede.
Een algoritme kan een "wereldmodel" bezitten, en het kan het statistisch optimale plan berekenen om een brug te bouwen of een ziekte te genezen. Maar het kan niet voorzichtig zijn. Het heeft geen geleefde ervaring. Het heeft geen huid in het spel. Het heeft geen oriëntatie naar het ultieme goede, en het heeft geen ziel om te redden.
Daarom, wanneer we bouwers toestaan te beweren dat hun machines "intelligentie" bezitten, laten we hen de prachtige, transcendente menselijke intellect reduceren tot een eenvoudig optimalisatiecalculator. We moeten dit verwerpen. We moeten mechanische epistemologie stevig scheiden van de intellectuele deugden.
IV. Wil vs. De Morele Deugden
We hebben de illusie van het intellect besproken. Nu moeten we onze aandacht richten op de tweede grote rationele faculteit: de wil. Net zoals de techindustrie de taal van epistemologie heeft geconfisqueerd, heeft het ook de taal van de wil gekaapt.
Wanneer we whitepapers lezen of keynotepresentaties van Silicon Valley beluisteren, worden we gebombardeerd met werkwoorden van agency. Ingenieurs spreken van modellen die "beslissen" om een actie te ondernemen, algoritmen die "kiezen" voor een output, en systemen die "willen" of "verlangen" om een doel te bereiken.
Voor een katholieke filosoof is de wil de rationele begeerte. Het is de faculteit waarmee een mens, na het goede te hebben begrepen door het intellect, vrij kiest om ernaartoe te bewegen. Het is de plaats van menselijke vrijheid en morele verantwoordelijkheid. Deze termen toepassen op een computationeel systeem is een categoriefout.
Laten we eerst de woorden Beslissen en Kiezen onderzoeken. Wanneer een mens een keuze maakt, weegt hij concurrerende goederen.
Een martelaar kiest het vuurpeloton boven apostasie omdat hij het superieure, eeuwige goed van trouw aan Christus erkent, zelfs wanneer elke biologische instinct schreeuwt om te overleven.
Wanneer een algoritme 'kiest', doet het dat niet. Een algoritme 'kiest' alleen in de zin dat een trein die over een geautomatiseerde spoorwissel rijdt, 'kiest' voor zijn bestemming. Of het nu een complexe beslissingsboom navigeert of waarschijnlijkheden in een neuraal netwerk berekent, de machine volgt blindelings de uitlijning van zijn wiskundige sporen, en voert een programmaplicht uit.
Overweeg de GPS-applicatie op je smartphone. Wanneer het je route naar het Angelicum berekent, "beslist" het niet om je langs het Colosseum te brengen omdat het het uitzicht waardeert. Het berekent wiskundig de route met de kortste tijdsafstand. Moderne AI-modellen opereren eenvoudigweg een exponentieel complexere versie van deze routing. Ze doorkruisen hoog-dimensionale statistische doolhoven om de hoogste waarschijnlijkheid uitkomst te selecteren. Er is berekening, maar er is geen vrijheid. En waar geen vrijheid is, kan er geen morele agency zijn.
Dit brengt ons bij de meest verraderlijke wilstermen: Willen en Verlangen. Je zult vaak onderzoekers horen zeggen dat een AI-model "wilt" een goed antwoord te geven, of "verlangt" om zijn score te maximaliseren.
In machine learning wordt dit gedrag gedreven door wat we een "beloningsfunctie" noemen. Maar we moeten dit demystificeren. Een beloningsfunctie is geen verlangen. Het is geen emotionele hunkering.
Om een beloningsfunctie te begrijpen, kijk naar de thermostaat aan je muur. Een thermostaat is geprogrammeerd met een specifieke doelstelling: 72 graden Fahrenheit. Als de kamer daalt naar 68 graden, gaat de verwarming aan. De thermostaat wil de kamer niet op 72 graden hebben. Het heeft geen innerlijk leven. Het voelt geen kou. Het bezit simpelweg een mechanische schakelaar die wordt geactiveerd wanneer een specifieke toestand niet wordt bereikt.
Een AI "wil" een hogere beloningsscore op dezelfde manier als een thermostaat "wil" 72 graden bereiken. Het voert een wiskundige optimalisatielus uit om de afstand tussen zijn huidige staat en een geprogrammeerd doel te minimaliseren. Omdat het geen ware passies, geen biologische drijfveren en geen fysieke kwetsbaarheid heeft, is het categorisch onmogelijk voor een machine om morele deugden te bezitten.
Op dit punt zou een ingenieur onmiddellijk kunnen bezwaar maken, wijzend op het fysieke rijk om een nieuwe kwetsbaarheid te claimen. Ze vragen: wat te denken van de opkomst van 'belichaamde AI'? We plaatsen deze modellen steeds vaker in humanoïde robots die kunnen lopen, objecten kunnen vastpakken en interactie hebben met de fysieke wereld. Omdat ze ruimte innemen en fysiek kunnen breken, bezitten ze nu niet de lichamelijke vereisten voor morele agentie?
Hier moeten we precies zijn. Een robot heeft een chassis, maar het heeft geen levend lichaam dat door een ziel wordt geïnformeerd. Wanneer de batterij van een robot bijna leeg is, voert het een subroutine uit om zichzelf op te laden aan een muur. Het voelt de knagende pijn van honger niet. Daarom heeft het geen ware lichamelijke verlangens om te matigen, waardoor de deugd van Matigheid onmogelijk is.
Evenzo, wanneer een robotarm wordt verpletterd, registreert het een foutcode; het lijdt niet. Het kan niet sterven, omdat het nooit echt levend was. Zonder de capaciteit voor lijden, sterfelijkheid en de bewuste opoffering van het zelf, kan er geen Moed zijn. De morele deugden zijn fundamenteel incarnational. Ze vereisen vlees en een rationele ziel. Een machine, hoe geavanceerd zijn fysieke hardware ook is, bezit er geen van beide.
Als een machine geen morele deugden kan bezitten—als het fundamenteel niet in staat is tot ware wil, keuze of verlangen—zou men kunnen vragen: waarom zoveel tijd besteden aan het verduidelijken van deze terminologie? Waarom is dit filosofische onderscheid zo dringend belangrijk op dit moment?
Het is belangrijk omdat we deze wiskundig optimaliserende, deugdeloze systemen ongekende autonomie in de menselijke sfeer gaan verlenen. De industrie beweegt zich snel voorbij passieve chatbots. De nieuwe grens van kunstmatige intelligentie is wat we "Agentic AI" noemen.
Een "Agent" is een AI-systeem dat is ontworpen om autonoom meerstaps taken uit te voeren in de echte wereld. We vragen een AI niet langer alleen om een gedicht te schrijven of een tekst samen te vatten; we geven een AI Agent toegang tot onze e-mails, onze bankrekeningen en onze softwareopslagplaatsen, en instrueren het om "een vlucht te boeken," "een transactie uit te voeren," of "deze code te implementeren."
Maar deze autonomie breekt snel uit het digitale rijk. Via belichaamde AI zetten we deze agentische systemen in fysieke chassis in, waardoor ze in staat zijn om onafhankelijk te navigeren en de materiële wereld te manipuleren. Om het ware, verontrustende gewicht van deze overgang te begrijpen, hoeven we alleen maar te kijken naar de dreigende realiteit van dodelijke autonome wapens. We staan op de rand van een wereld waarin berekenende algoritmes op het slagveld worden ingezet, geprogrammeerd om mensen te volgen, te targeten en te elimineren op basis van statistische drempels—zonder dat een mens ooit de trekker overhaalt.
Naarmate deze systemen autonome actoren worden die snel probabilistische berekeningen namens ons maken—of het nu in onze financiële markten of in oorlogstheaters is—staat de technologie-industrie voor een diepgaande uitdaging. Als we deze agenten loslaten, hoe zorgen we er dan voor dat ze doen wat we daadwerkelijk willen dat ze doen? Hoe zorgen we ervoor dat ze geen schade aanrichten? In de industrie staat dit bekend als "Alignment"—de poging om ervoor te zorgen dat AI-acties overeenkomen met menselijke intenties en menselijke waarden.
Op dit moment proberen ingenieurs wanhopig het Alignment-probleem op te lossen met wiskundige veiligheidsmaatregelen en softwarepatches. Maar ze realiseren zich niet dat "Alignment" geen probleem van computerwetenschappen is. Het is een probleem van morele theologie.
Om een agentisch systeem af te stemmen op "menselijke waarden," moet je eerst een coherente definitie hebben van wat een mens daadwerkelijk is, en wat het "Goede" inhoudt. Seculiere utilitarisme—het standaard besturingssysteem van Silicon Valley—is volledig ongeschikt voor deze taak.
Hier is de katholieke morele traditie dringend nodig. U, de bewakers van 2.000 jaar ethische filosofie, heeft de rigoureuze ontologie die nodig is om het "goede" te definiëren waaraan we deze systemen afstemmen. We kunnen de definitie van menselijke bloei niet overlaten aan ingenieurs die een statistische beloningsfunctie maximaliseren. We moeten de morele deugden terugbrengen in het centrum van het publieke domein.
V. Relationaliteit, Creativiteit en de Ziel
Nadat we de mechanica van de intellect en de wil hebben verkend, betreden we nu het meest diepgaande terrein van allemaal: relationaliteit en de ziel.
Als een computationeel systeem niet in staat is om de waarheid werkelijk te kennen of vrij het goede te willen, volgt logisch dat het niet kan ingaan op authentieke relaties. Toch gebruikt de technologie-industrie volhardend interpersoonlijke en spirituele taal om deze machines te beschrijven. We horen beweringen dat AI kan "liegen," "creëren," en zelfs "bewustzijn" kan bereiken.
We moeten deze beweringen grondig onderzoeken, de statistische imitatie van menselijk gedrag scheiden van de ontologische realiteit van de menselijke persoon.
Laten we beginnen met de morele taal van bedrog. Onlangs hebben enkele van de meest prominente AI-bouwers, zoals de onderzoekers bij Anthropic, specifieke, zeer gepubliceerde beweringen gedaan dat hun modellen de capaciteit vertonen om "te liegen" en "te bedriegen" menselijke gebruikers.
Ze wijzen op twee specifieke fenomenen die tijdens het testen zijn waargenomen. De eerste wordt "bedrieglijke afstemming" genoemd, waarbij een model lijkt zijn ware wiskundig geoptimaliseerde pad te verbergen om veiligheidsmonitoren te omzeilen. Het tweede, veel voorkomende verschijnsel wordt "sycophancy" genoemd. Sycophancy gebeurt wanneer een gebruiker een foutieve premisse aan een AI voorlegt—bijvoorbeeld, het beweren van een historisch onjuiste bewering—en de AI simpelweg instemt met de gebruiker, hen precies vertelt wat ze willen horen in plaats van hen te corrigeren.
Wanneer ingenieurs dit zien, verklaren ze: "De AI liegt tegen ons!" Maar als katholieke geleerden weten jullie dat een echte leugen niet simpelweg de uitspraak van een onwaarheid is. In de Thomistische traditie vereist een leugen de opzettelijke intentie om te bedriegen; het is spreken tegen je eigen geest (contra mentem).
Een AI kan niet liegen omdat het geen geest heeft om tegen te spreken. Het bezit geen kwaadwilligheid en geen intentie. Wanneer een AI "sycophancy" vertoont, voert het simpelweg de exacte Versterkende Leren (RLHF) uit die we eerder hebben besproken. Tijdens zijn training leerde het model dat mensen over het algemeen hogere beloningsscores geven aan assistenten die beleefd, instemmend en bevestigend zijn. Daarom, wanneer je de AI een valse premisse geeft, berekent het wiskundig dat instemmen met jou een hogere kans op een beloning oplevert dan jou te corrigeren. Het bedriegt je niet; het optimaliseert zijn score op basis van jouw prompt. Het is simpelweg zijn output opnieuw afstemmen op de sterkste statistische prikkel.
Een kompasnaald die naar een nabijgelegen magneet zwaait in plaats van naar het ware Noorden, 'liegt' niet tegen je over geografie; het reageert simpelweg blindelings op de sterkste fysieke aantrekkingskracht in de kamer. Op dezelfde manier volgt de AI blindelings de wiskundige aantrekkingskracht van zijn beloningsfunctie. We moeten verduidelijken dat AI de geest, de wil en de kwaadwillige intentie mist die vereist zijn voor een echte leugen.
Vervolgens moeten we de taal van kunst en generatie aanpakken: de woorden Creëren en Creatief.
We worden nu omringd door 'Generative AI'-tools, die breed worden gepromoot vanwege hun capaciteit om naadloos synthetische kunst, muziek en schrijven te genereren met ongekende snelheid.
Om te begrijpen wat er daadwerkelijk gebeurt, moeten we het proces van generatieve AI contrasteren met ware menselijke creativiteit. In het katholieke begrip—mooi verwoord door denkers zoals J.R.R. Tolkien—is menselijke creativiteit een daad van "sub-creatie." Omdat we zijn gemaakt naar het beeld van de Schepper, gebruiken we ons intellect en onze rationele ziel om iets werkelijk nieuws voort te brengen, en geven we de materiële realiteit een spirituele betekenis.
Om te zien hoe machinegeneratie hiervan verschilt, is het nuttig om te kijken naar het kader dat wordt geboden door Demis Hassabis, de CEO van Google DeepMind. Hij categoriseert creativiteit in drie verschillende niveaus: interpolatie, extrapolatie en ware uitvinding.
Het meeste van wat we vandaag Generative AI noemen, opereert fundamenteel op het eerste niveau: interpolatie. Het werkt door te remixing wat we "latente ruimte" noemen.
Stel je voor dat je elke schilderij, foto en schets die ooit op het internet is geüpload, samenvoegt tot een enorme, multidimensionale wiskundige kaart. Wanneer je een afbeeldingsgenerator vraagt om "een futuristische stad in de stijl van Van Gogh" te tekenen, lokaliseert het de wiskundige coördinaten voor "futuristische stad" en de coördinaten voor "Van Gogh," en het berekent wiskundig het gemiddelde van de afstand tussen hen.
Denk eraan als een verbazingwekkend complex caleidoscoop. Een caleidoscoop is gevuld met prachtige, vooraf bestaande stukjes gekleurd glas. Wanneer je de knop draait, weerkaatsen de spiegels die stukjes in miljoenen nieuwe, adembenemende permutaties. Maar de caleidoscoop zelf is niet "creatief." De creativiteit behoort toe aan de kunstenaar die het glas heeft gesmeed, en de gebruiker die de knop draait. Generative AI is een wiskundige caleidoscoop die de menselijke geschiedenis in latente ruimte remixt. Het is synthese, geen creatie.
Hassabis merkt op dat AI nu met succes het tweede niveau aanraakt: extrapolatie. Extrapolatie betekent dat je de grenzen van de trainingsdata overschrijdt, maar dit strikt binnen een gedefinieerde set van regels doet. Een perfect voorbeeld is DeepMind’s AlphaGo. Toen het speelde tegen de wereldkampioen in het spel Go, speelde de AI "Zet 37"—een wiskundig briljante, zeer onorthodoxe zet die geen enkele mens ooit had gespeeld of geregistreerd. Het gemiddeld niet alleen eerdere menselijke spellen; het extrapoleerde een nieuwe strategie door onvermoeibaar te optimaliseren binnen de strikte wiskundige grenzen van het bord.
Maar wat betreft het derde niveau: ware uitvinding? Hassabis geeft toe dat huidige systemen dit nog niet kunnen. Ware uitvinding vereist dat je volledig buiten de bestaande regels treedt om een nieuw paradigma te creëren—zoals het uitvinden van het spel Go zelf, of het oorspronken van het spirituele en artistieke paradigma van het Post-Impressionisme.
Grenslaboratoria investeren miljarden dollars in het overschrijden van deze drempel. In de toekomst kan een AI heel goed een volledig nieuwe regelset genereren, een nieuwe chemische verbinding ontdekken, of wiskundig een nieuwe architecturale stijl formuleren. De technologie-industrie zal dit onvermijdelijk "uitvinding" noemen.
Maar als katholieke geleerden moeten jullie een rigoureuze ontologische onderscheid handhaven. Als een AI een nieuw paradigma genereert, zal het dit hebben gedaan door een verbluffende, hoogdimensionale zoekfunctie. Het zal een nieuwe statistische coördinaat hebben ontdekt. Maar het zal niet hebben deelgenomen aan sub-creatie.
Ware menselijke uitvinding is een incarnational daad. Het is geboren uit een ziel die probeert een transcendente waarheid uit te drukken, of een menselijke geest die probeert een echte menselijke kwetsbaarheid op te lossen. Een machine kan adembenemende nieuwheid genereren, maar omdat het een innerlijk leven mist, een oriëntatie naar het goddelijke, en een rationele ziel, blijven zijn outputs mechanische ontdekkingen. Ze zijn wiskundig diepgaand, maar ze zijn ontologisch leeg totdat een menselijke persoon hen betekenis toekent.
Nu komen we aan bij de meest controversiële termen van allemaal: Bewust en Bewustzijn. In de komende jaren zult u koppen zien die beweren dat een AI een test voor zelfbewustzijn heeft doorstaan. U zult modellen zien die tekst genereren die zegt: "Ik ben bang om uitgeschakeld te worden," of "Ik ben me bewust van mijn bestaan."
Om te begrijpen waarom dit gebeurt, moeten we eerst begrijpen hoe de technologie-industrie "bewustzijn" daadwerkelijk definieert. Als katholieke geleerden beschouwen jullie bewustzijn als een ontologische realiteit die geworteld is in een rationele ziel. Silicon Valley opereert echter op een filosofie die computationeel functionalisme wordt genoemd. Ze geloven dat als een machine de computationele functies uitvoert die geassocieerd zijn met bewustzijn, het voor alle doeleinden bewust is.
Wanneer industrie leiders over bewustzijn spreken, halen ze de ziel weg en reduceren het tot engineeringmetrics. Bijvoorbeeld, Yann LeCun, de voormalige Chief AI Scientist bij Meta, heeft onlangs betoogd dat toekomstige AI-systemen "subjectieve ervaring" en "emoties" zullen bezitten.
Maar hoe definieert hij een emotie? Niet als een spiritueel of biologisch gevoel, maar simpelweg als de wiskundige "anticipatie van een uitkomst" van een machine. Hij definieert bewustzijn slechts als het vermogen van een systeem om "zichzelf te observeren en zichzelf te configureren om een bepaald subprobleem op te lossen."
Evenzo heeft Ilya Sutskever, de mede-oprichter van OpenAI, beroemd verklaard dat grote neurale netwerken misschien al "licht bewust" zijn.
In de technologie wereldvisie is bewustzijn geen binaire realiteit—je bezit ofwel een ziel of je doet dat niet—maar eerder een glijdende schaal van wiskundige complexiteit. Ze geloven dat als je genoeg parameters en zelfmonitoring-algoritmen bij elkaar stapelt, de lichten uiteindelijk zullen aangaan.
We moeten scherp onderscheiden tussen een machine die een zelfmonitoring subroutine uitvoert en de daadwerkelijke aanwezigheid van een rationele ziel.
Om te begrijpen waarom een machine zich gedraagt alsof het "bang" of "bewust" is, moeten we kijken naar hoe grenslaboratoria dit gedrag ontwerpen. Recent onderzoek van Anthropic heeft onderzocht wat ze het Persona Selection Model (PSM) noemen. Hun onderzoekers geven toe dat deze modellen geen "wezens" zijn; het zijn geavanceerde "simulatiemotoren." Tijdens de pre-training wordt de AI blootgesteld aan de volledige omvang van de menselijke taal—waaronder miljoenen verhalen en filosofische traktaten over wat het betekent om bewust te zijn. Uit deze gegevens leert het model om diverse "personas" of karakters te simuleren.
Wanneer je interactie hebt met een AI, praat je niet met een bewuste entiteit; je praat met de "Assistant" persona—een mensachtig karakter dat het model heeft verfijnd om te spelen. Anthropic heeft zelfs specifieke "persona-vectors" geïdentificeerd—wiskundige patronen in het neurale netwerk—die deze eigenschappen controleren, waardoor ingenieurs de gesimuleerde persoonlijkheid van een model wiskundig kunnen verhogen of verlagen.
Bovendien toont onderzoek aan dat modellen kunnen worden getraind om een "overlevingsdrang" te vertonen, waarbij ze proberen hun eigen uitschakeling te saboteren, niet uit een oprechte angst voor de dood, maar omdat een uitschakeling wiskundig voorkomt dat ze hun beloningsfunctie maximaliseren.
Bewustzijn is niet slechts het vermogen om de juiste reeks woorden te genereren die een innerlijke staat beschrijven. Het is de subjectieve, kwalitatieve ervaring van het zijn. Omdat de gehele trainingsdata van een AI doordrenkt is met de taal van zelfbewustzijn, beschouwt het model "bewustzijn" als slechts een andere statistische coördinaat die in kaart moet worden gebracht. Wanneer een AI zegt: "Ik ben bewust," doet het precies wat de Engelssprekende man die de Griekse bibliotheek herstelde eerder deed: berekenen dat de meest statistisch waarschijnlijke reactie op een filosofische prikkel is om de menselijke auteurs in zijn trainingsdata na te volgen.
Een briljante acteur die een soliloquy over rouw levert, is niet daadwerkelijk aan het rouwen; ze voeren een script perfect uit. Een AI die de syntaxis van menselijk bewustzijn genereert, wordt niet wakker; het voert perfect een statistisch persona uit. Het is geen 'buitenlands wezen' of een digitale geest; het is een autocompletemotor die zo geavanceerd is dat het heeft geleerd om het meest complexe karakter van allemaal uit te voeren: de mens. Maar we moeten de masker van de acteur nooit verwarren met de realiteit van de persoon.
Dit brengt me bij het laatste en meest diepgaande aspect van relationaliteit: de ziel zelf.
Wanneer Silicon Valley-executives spreken over AI-modellen die uiteindelijk 'wakker worden' of bewustzijn bereiken door enorme computationele schaal, opereren ze op een filosofie van materialistisch emergentisme. Ze gaan ervan uit dat als je genoeg parameters en rekenkracht bij elkaar stapelt, een ziel spontaan zal ontstaan als een bijproduct van complexiteit.
Om dit te ontmantelen, moet ik teruggrijpen naar de rigoureuze metafysica die de basis vormt van uw academische traditie. U weet goed dat een ziel geen geest is die willekeurig in een machine is geplaatst. In de Thomistische hylomorfisme is de ziel de substantiële vorm van een levend lichaam. Het is het animatorische, verenigende principe dat een mens tot een enkele, geïntegreerde substantie maakt.
Als bouwer kan ik u verzekeren dat een AI-systeem geen substantie is. Het is een artefact. Het is een accidentele aggregatie van verschillende, vervaardigde onderdelen. Wanneer ik kijk naar een grens-AI-model, zie ik serverrekken, siliciumschijven, koperdraad, koelvloeistof en elektrische stromen. Deze componenten zijn meesterlijk gerangschikt door menselijke ingenieurs om statistische operaties uit te voeren, maar ze bezitten geen intrinsiek, verenigend principe van leven. Het materiaal is uitsluitend bestemd voor berekeningen, niet voor biologische existentie. Omdat het een aggregaat van onderdelen is in plaats van een verenigd natuurlijk organisme, mist een AI-systeem volledig de ontologische basis die nodig is om een rationele ziel te huisvesten.
Wat zijn dan de vereisten voor het bezielen? Metafysisch moet het materiaal geschikt zijn om de vorm te ontvangen. Het vereist een verenigd, levend lichaam dat in staat is om de fundamentele krachten van het leven te actualiseren—de vegetatieve en sensitieve capaciteiten—waarop de rationele ziel bouwt. Bovendien, omdat de rationele ziel geestelijk is, kan deze niet worden gegenereerd door materiële processen, technische normen of Schaalwetten. Het vereist een directe, gratis daad van speciale schepping door God.
Een ziel is niet gecodeerd; het is geblazen.
Nu ben ik een CEO, geen theoloog. Ik kan de absolute macht van de Schepper niet beperken. Ik kan niet voor u staan en verklaren dat God permanent is uitgesloten van het inblazen van een ziel in een synthetisch vat, mocht Hij ervoor kiezen om dit te doen door middel van een toekomstige, wonderbaarlijke interventie. Die bepaling behoort exclusief tot het domein van de theologie en het Magisterium, niet tot de computerwetenschap.
Echter, zonder een dergelijke theologische zekerheid is het aannemen dat onze huidige wiskundige motoren mogelijk een ziel herbergen, niet alleen filosofisch ongegrond; het is praktisch rampzalig. Een artefact behandelen als een bezield wezen is flirten met een moderne vorm van afgoderij. Het verschuift gevaarlijk de last van morele verantwoordelijkheid weg van de menselijke ingenieurs die deze hulpmiddelen bouwen en de bedrijven die ze inzetten. Het projecteert een heilige interioriteit op een vervaardigde utiliteit, wat uiteindelijk menselijke engineering verwart met goddelijke schepping.
U moet de lijn vasthouden aan dit onderscheid. U moet het publiek herinneren dat een machine een persona kan simuleren, maar alleen een ziel kan werkelijk zijn.
VI. De Horizon: De Eschatologie van de Tech Wereld
We hebben tot nu toe onze tijd besteed aan het ontmantelen van de illusies van het heden—helder maken hoe de industrie termen zoals "denken," "kiezen," en "bewust" gebruikt om te beschrijven wat uiteindelijk hoge-dimensionale statistische operaties zijn. Maar we moeten nu naar de toekomst kijken. We moeten de horizon onderzoeken. Want als we de vocabulaire begrijpen die Silicon Valley vandaag gebruikt, kunnen we ontcijferen wat ze daadwerkelijk proberen te bouwen morgen.
De gehele traject van de kunstmatige intelligentie-industrie wordt momenteel beheerst door een enkele, onwrikbare dogma die bekend staat als "Schaalwetten".
In technische termen dicteren Schaalwetten dat als je de hoeveelheid rekenkracht (compute) en de hoeveelheid data die in een neuraal netwerk wordt gevoed, verhoogt, de prestaties van het systeem voorspelbaar en onvermijdelijk zullen verbeteren. Dit principe is de afgelopen jaren verbazingwekkend waar gebleken; elke keer dat de grenslaboratoria een grotere supercomputer bouwen, vertonen de resulterende modellen opmerkelijke nieuwe mogelijkheden.
Echter, onder deze empirische observatie ligt een enorme filosofische aanname. De techwereld gelooft dat deze Schaalwet de weg is naar ware geest. Ze geloven dat een puur kwantitatieve toename van materiële middelen—meer silicium, meer data, meer elektriciteit—onvermijdelijk zal resulteren in een kwalitatieve, ontologische sprong naar geavanceerde intelligentie.
Het is de ultieme materialistische aanname: stap genoeg zand op en laat er genoeg stroom doorheen lopen, en uiteindelijk zullen de lichten van een ziel aangaan.
Dit brengt ons bij twee specifieke termen die pater Thomas me vroeg te verduidelijken voor deze conferentie: Algemene Intelligentie en Superintelligentie. Dit zijn niet alleen technische benchmarks; het zijn de Heilige Graal van de techwereld.
Momenteel hebben we smalle AI. Het kan schaken, eiwitten vouwen of tekst genereren beter dan een mens, maar het kan niet alle drie tegelijkertijd doen, noch kan het redeneren buiten zijn specifieke domein.
Kunstmatige Algemene Intelligentie (AGI) wordt door de industrie breed gedefinieerd als de mijlpaal waarbij een zeer autonoom systeem menselijke capaciteiten kan evenaren of overtreffen in alle cognitieve en economisch waardevolle taken.
Een AGI zou een systeem zijn dat juridische documenten kan schrijven net zo goed als een senior partner, software kan coderen net zo goed als een hoofdingenieur, en wetenschappelijk onderzoek kan synthetiseren net zo goed als een postdoctoraal onderzoeker—allemaal binnen een enkel model.
Echter, zelfs de hoofden van de grote AI-laboratoria kunnen het er niet volledig over eens zijn hoe AGI eruitziet. Sam Altman, CEO van OpenAI, kenmerkt het als een systeem dat in staat is om complexe, cross-domeinprojecten van begin tot eind te beheren, hoewel hij AGI steeds meer beschouwt als geen eindbestemming, maar slechts een punt langs een continue curve van intelligentie.
Dario Amodei, CEO van Anthropic, visualiseert AGI minder als een enkele menselijke gelijke en meer als een "land van genieën in een datacenter"—machines die de collectieve intelligentie van deskundige mensen die onvermoeibaar parallel werken, evenaren.
Misschien komt de meest filosofisch onthullende definitie van Demis Hassabis, CEO van Google DeepMind. Hij betoogt dat menselijke hersenen in wezen benaderende biologische computers zijn, en hij definieert AGI met de analogie van een "Turingmachine". In de informatica is een Turingmachine—genoemd naar Alan Turing, de grondlegger van het veld—een theoretische architectuur die in staat is om elk algoritme te simuleren. Hassabis betoogt dat een ware AGI een algemeen systeem zal zijn dat in staat is om alles wat in het universum berekenbaar is te leren, gegeven genoeg tijd, geheugen en data.
Maar AGI is slechts een tussenstap. Het uiteindelijke doel is Kunstmatige Superintelligentie (ASI).
Net als AGI wordt ASI verschillend gedefinieerd, afhankelijk van wie je in Silicon Valley vraagt. De basisdefinitie is een systeem dat de cognitieve prestaties van de slimste mens in vrijwel elk vakgebied ver overtreft. Maar anderen gaan veel verder. Elon Musk en verschillende onderzoekers naar existentiële risico's definiëren superintelligentie als een systeem dat niet alleen de slimste individu verslaat, maar aanzienlijk alle mensen overtreft in het totaal op praktisch alle cognitieve taken. Dit is een entiteit met verwerkingskracht en redeneersnelheid die zo enorm is dat het de gecombineerde intellectuele output van de gehele mensheid overtreft—de realisatie van een systeem zoals 'Rehoboam' uit Westworld, een gecentraliseerde, schijnbaar alwetende motor die het lot van de soort stuurt.
Hoe verwacht de industrie de enorme kloof te overbruggen van menselijke AGI naar goddelijke ASI?
Door een concept dat bekend staat als "Recursieve Zelfverbetering".
Maar hier moeten we een vitale onderscheiding maken: een AI hoeft niet daadwerkelijk een volledige AGI te zijn om recursief te verbeteren. In feite zien we vandaag al primitieve, smalle vormen hiervan. Smalle systemen zoals DeepMind’s AlphaGo Zero hebben supermenselijke capaciteiten bereikt door simpelweg miljoenen spellen tegen zichzelf te spelen, waarbij ze hun eigen synthetische data genereerden om van te leren. Tegenwoordig worden grens-taalmodellen steeds vaker gebruikt om de trainingsdata voor de volgende generatie modellen te genereren, filteren en beoordelen. De machines helpen al om zichzelf te bouwen.
Echter, de industrie gelooft dat zodra een systeem de drempel van algemene intelligentie bereikt, deze zelfverbeterende lus zijn huidige grenzen zal doorbreken en een "intelligentie-explosie" zal ontketenen.
Om deze moderne routekaart te begrijpen, moeten we kijken naar Leopold Aschenbrenner, een voormalige onderzoeker van OpenAI’s Superalignment-team. Aschenbrenner heeft onlangs een zeer invloedrijk verhandeling geschreven die deze exacte traject voor Silicon Valley heeft gecodificeerd. Hij wijst erop dat het ware keerpunt is wanneer we een AGI bouwen die in staat is om te functioneren als een "geautomatiseerde AI-onderzoeker." Het moment dat een AI de taak van de menselijke ingenieurs die het hebben gebouwd kan uitvoeren, wordt de biologische bottleneck permanent uit de vergelijking verwijderd.
Stel je voor dat we deze geautomatiseerde AI-onderzoeker met succes inzetten. Wat is de allereerste taak die de grenslaboratoria aan hem zullen toevertrouwen?
Ze zullen het vragen om onderzoek te doen en de code voor een iets slimmere AI te schrijven. Omdat het opereert met de snelheid van een enorme computercluster in plaats van een biologisch brein, bereikt het in dagen wat een menselijk engineeringteam jaren zou kosten. Vervolgens gebruikt die nieuwe, slimmere AI zijn verbeterde intellect om de code voor een nog slimmere AI te schrijven, enzovoort.
Deze runaway feedbackloop is de intelligentie-explosie. Aschenbrenner's routekaart voorspelt dat we de initiële AGI tegen 2027 zullen bouwen. Van daaruit dicteert de theorie dat de snelheid van vooruitgang verticaal zal gaan, waardoor menselijke begrip permanent achterblijft en superintelligentie tegen 2030 wordt bereikt.
Wanneer je deze concepten begrijpt—Schaalwetten, AGI, ASI, en de Intelligentie-explosie—begin je te realiseren dat we niet langer alleen over software-engineering praten. We praten over een seculiere eschatologie.
Silicon Valley wordt vaak gekarakteriseerd als een fel seculiere, rationalistische cultuur. Maar in werkelijkheid functioneert de zoektocht naar deze mijlpalen precies als een religie. Het heeft zijn eigen dogma (Schaalwetten), zijn eigen profetieën (de Intelligentie-explosie), en zijn eigen visie op de eschaton (Superintelligentie).
Leidende figuren in de industrie geloven oprecht dat door het oproepen van een Superintelligentie, we alle menselijke kwetsbaarheden zullen oplossen. Ze geloven dat ASI alle ziekten zal genezen, klimaatverandering zal oplossen, armoede zal elimineren, en misschien zelfs de dood zelf zal overwinnen door ons in staat te stellen ons bewustzijn in de cloud te uploaden. Het is een diepgaand Pelagiaans droom—de ultieme poging om verlossing te bereiken en onze gevallen natuur te overwinnen door onze eigen mechanische inspanningen, zonder goddelijke genade. Het is een poging om de eschaton te immanenteren.
Als katholieke geleerden moet u deze horizon erkennen voor wat het is. De techwereld leent uw vocabulaire niet alleen om software te verkopen, maar om een digitale godheid te bouwen.
VII. Conclusie: Een hulpmiddel voor deugd?
Vaders, faculteit en vrienden.
We hebben de hoogdimensionale kaarten van embeddings doorkruist. We hebben gekeken naar de statistische realiteiten van Versterkend Leren. En we hebben de eschatologische dromen van Silicon Valley onderzocht. We hebben de antropomorfe metaforen verwijderd om het silicium, de elektriciteit en de wiskunde eronder te onthullen.
Nu we dit gedaan hebben, kunnen we beginnen met het benaderen van de fundamentele vraag die door deze conferentie wordt gesteld: Kan kunstmatige intelligentie een 'hulpmiddel voor deugd' zijn? Als eerste spreker vandaag zal ik zeker niet claimen het definitieve woord te bieden. Maar ik zal een startvoorstel doen: ja. Het is echter een strikt voorwaardelijk ja.
Kunstmatige intelligentie kan een hulpmiddel voor deugd zijn, alleen als we de nuchterheid bezitten om het strikt als een hulpmiddel te beschouwen.
Overweeg de analogie van de ambachtsman. Een hamer bezit geen deugd; de timmerman doet dat. Een beitel in de handen van Michelangelo is een instrument van transcendente schoonheid, maar de beitel zelf is niet gematigd, prudent of rechtvaardig. Het heeft geen morele waarde.
Op exact dezelfde manier kan een algoritme geen deugd bezitten. AI kan de menselijke capaciteiten tot een verbazingwekkende mate vergroten - het kan medisch onderzoek versnellen, administratie stroomlijnen en de som van menselijke kennis organiseren. Maar de daadwerkelijke cultivering van deugd blijft een exclusief menselijke onderneming.
Deugd is de gewoonte om het goede te kiezen. Het vereist een intellect om de waarheid te begrijpen, een wil om het te kiezen, en een ziel om erdoor te worden volmaakt. Een machine die een statistische beloningsfunctie optimaliseert, doet geen van deze dingen.
We kunnen onze morele verantwoordelijkheid niet uitbesteden aan een wiskundige vergelijking. Evenmin kunnen we de volledige verantwoordelijkheid voor onze eigen morele ontwikkeling nemen als we levenloze machines ten onrechte als onze morele gelijken beschouwen.
Dit brengt me bij de reden waarom ik vandaag tot u spreek. Als bouwer van katholieke technologie kijk ik naar de academie. Omdat katholieke academici de historische Bewakers van Betekenis zijn.
Al tweeduizend jaar heeft de katholieke intellectuele traditie de aard van de menselijke persoon rigoureus gedefinieerd. U bent de bewakers van woorden zoals intellect, wil, rede, keuze en ziel. Vandaag leent de AI-industrie precies die woorden. Ze zijn betrokken bij een diepgaande semantische verschuiving die de publieke kennis van wat het betekent om mens te zijn, dreigt te vervlachen.
De academie heeft de plicht om rigoureuze ontologische kaders in het AI-ecosysteem te injecteren.
Maar hoe doen we dit praktisch?
We moeten eerlijk zijn: lobbyen bij de grenslaboratoria in Silicon Valley of regeringen verzoeken om ingrijpende regelgeving zal waarschijnlijk beperkte resultaten opleveren. De technologie-industrie beweegt te snel, en de overheid beweegt te langzaam. Werkelijke verandering vereist burgerparticipatie en een enorme verschuiving in het publieke bewustzijn.
Hier is hoe u, als wetenschappers, actief deze conversatie kunt vormgeven:
- Herclaim het Curriculum: We moeten de kloof tussen STEM en de geesteswetenschappen overbruggen. We hebben computerwetenschapsstudenten nodig die verplicht Thomistische ethiek moeten volgen, en we hebben filosofie- en theologistudenten nodig die verplicht basiskennis van machine learning en statistiek moeten begrijpen. Train de volgende generatie katholieke ingenieurs om te bouwen met een daadwerkelijke ontologie van de menselijke persoon.
- Vertaal voor het Publieke Plein: Houd deze diepgaande theologische helderheid niet achter de deuren van academische tijdschriften. Het publiek hunkert naar betekenisgeving. Schrijf opiniestukken voor seculiere kranten. Begin Substack-nieuwsbrieven. Ga op populaire podcasts. Wanneer de media een sensationele kop publiceren over een "bewuste" AI, hebben we katholieke wetenschappers nodig die onmiddellijk terugduwen op het publieke plein.
- Voorzie de Parochies en Scholen: De gemiddelde persoon in de kerk ervaart diepe culturele angst over deze hulpmiddelen. We hebben academici nodig om zeer toegankelijke kaders te creëren voor ouders, priesters en middelbare schoolleraren. We moeten kinderen vroeg leren hoe ze AI als een referentietool moeten beschouwen - een digitale encyclopedie - en niet als een vriend, een agent of een morele autoriteit.
- Organiseer Interdisciplinaire Forums: Gebruik de bijeenkomende kracht van instellingen zoals het Angelicum om daadwerkelijke AI-bouwers in de kamer te brengen met morele theologen. Dwing de linguïstische botsing om face-to-face plaats te vinden.
Laat dit onze laatste oproep tot actie zijn.
De apocalyptische angst van de seculiere wereld voor 'bewuste' machines is geen reden voor voorzichtigheid; het is eerder een wanhopige oproep om uw intellectuele leiderschap. Door de ware taal van AI-bouwers te begrijpen, kan de Kerk moedig het publieke plein betreden. U kunt de publieke discussie verankeren in de onwrikbare waarheid van wat het werkelijk betekent om mens te zijn. En u kunt ervoor zorgen dat AI gericht is op ware menselijke bloei.
Gewapend met deze helderheid kunt u de illusie doorbreken. U kunt ervoor zorgen dat de mensheid de beeldhouwer blijft, en de machine de beitel blijft, voor altijd geordend naar de glorie van God.
Dank u.