La Deriva Semantica: Demistificare il Linguaggio dei Costruttori di AI

Il 5 marzo 2026, Matthew Harvey Sanders, CEO di Longbeard, ha tenuto il suo discorso intitolato “The Semantic Drift: Demystifying the Language of AI Builders” presso l'evento “Intelligenza Artificiale: Uno Strumento per la Virtù?” ospitato presso l'Università Pontificia di San Tommaso d'Aquino (Angelicum) a Roma.
In questo discorso, critica il vocabolario fuorviante e umanizzante utilizzato dagli sviluppatori della Silicon Valley per descrivere l'apprendimento automatico. Sostiene che per utilizzare correttamente l'IA, dobbiamo riappropriarci di un'ontologia cattolica rigorosa e trattare questi sistemi esclusivamente come strumenti meccanici piuttosto che come agenti morali.
I. Introduzione: Il Drift Semantico e la Piazza Pubblica
Padri, stimati docenti e ospiti dell'Angelicum, grazie all'Istituto Tomistico per aver convocato questa discussione.
Mentre attraversiamo la soglia verso una nuova era, lasciando le certezze consolidate dell'Era dell'Informazione per il vasto e inesplorato cosmo dell'Era dell'Intelligenza, affrontiamo una profonda sfida di navigazione. Prima di poter rispondere alla domanda pressante al centro di questa conferenza—se l'Intelligenza Artificiale possa davvero servire come 'strumento per la virtù'—dobbiamo prima affrontare una sfida non di ingegneria del software, ma di vocabolario.
Al centro della nostra ansia contemporanea riguardo all'IA c'è un profondo scontro linguistico. Gli ingegneri e gli architetti di questi sistemi nella Silicon Valley stanno compiendo imprese straordinarie di matematica. Tuttavia, per descrivere questi processi matematici e statistici, hanno preso in prestito il vocabolario sacro e profondamente filosofico dell'interiorità umana. Ci dicono che i loro sistemi "pensano", "ragionano" e "sanno". Parlano di algoritmi che "imparano", "desiderano" e "scelgono".
Quello che stiamo osservando è un drift semantico. Stiamo prendendo la ricca terminologia ontologica dell'anima e incollandola su complesse trame di algebra lineare, probabilità statistica e geometria ad alta dimensione. È un'alchimia moderna—un tentativo di trasformare pesi computazionali in un'illusione di mente.
Questa trascuratezza linguistica ha un impatto profondo e immediato sul pubblico. Malintendere questi termini porta inevitabilmente a una fiducia mal riposta.
Lo vedo in prima persona nel nostro lavoro presso Longbeard; gli utenti spesso si avvicinano all'IA con coscienze appesantite, trattando uno strumento di generazione di testi come se fosse un direttore spirituale capace di empatia.
Inoltre, questa confusione semantica alimenta l'ansia culturale, guidando paure apocalittiche di superintelligenze "conscie" rivali.
Tuttavia, il pericolo maggiore è che crea una percezione distorta di cosa significhi essere umani. Se accettiamo il presupposto che una macchina "ragiona" o "crea" proprio come un essere umano, corriamo il profondo rischio di ridurre la persona umana a una semplice macchina biologica—un insieme di carne e sinapsi in attesa di essere ottimizzato.
Questo ci porta alla tesi centrale della nostra discussione: per rispondere se l'IA possa essere uno "strumento per la virtù," dobbiamo prima demistificare il suo linguaggio. Uno strumento può servire il bene solo quando è compreso correttamente. Falliamo nell'usare le macchine come strumenti adeguati per la nostra virtù quando erroneamente attribuiamo loro agenzia morale.
Attribuire virtù al martello è accecarci nei confronti del falegname.
Per battezzare veramente questa tecnologia e ordinarla verso il fiorire umano, dobbiamo spogliare via le illusioni semantiche e guardare sobriamente all'architettura sottostante.
II. L'Architettura dell'Illusione: Meccaniche Fondamentali
Il moderno sistema di IA generativa sembra parlare, ragionare e coinvolgerci in dialogo, ma sotto questa interfaccia si trova una fondazione costruita interamente su matematica, non metafisica.
Iniziamo con vettori ed embedding, che servono come la base letterale dei Modelli di Linguaggio di Grandi Dimensioni. Quando parli con un collega accademico riguardo a "giustizia" o "l'anima," essi comprendono il significato delle tue parole attraverso una comprensione condivisa della realtà—un'esperienza umana incarnata e vissuta. Quando digiti un prompt in un'IA, il sistema non fa nulla di simile. Invece, l'IA traduce il linguaggio umano in coordinate matematiche in uno spazio ad alta dimensione.
Per dirla in modo semplice, un "vettore" è semplicemente un elenco di numeri usati per descrivere qualcosa. Immagina di descrivere una mela non con parole, ma con un elenco di punteggi: un 9 per dolcezza, un 8 per rossore e un 2 per croccantezza metallica. Quell'elenco specifico di numeri—[9, 8, 2]—è un vettore. In un sistema di IA, ogni singola parola—o parte di una parola—viene tradotta in un enorme vettore, spesso lungo migliaia di numeri. Ma l'IA non valuta le parole in base a tratti fisici o definizioni di dizionario. Invece, genera questi numeri basandosi interamente su statistiche, scandagliando miliardi di libri e articoli per contare quanto spesso le parole appaiono l'una accanto all'altra.
Una volta che l'IA termina di calcolare questo enorme elenco di numeri per una parola, quel vettore diventa un "embedding"—una coordinata matematica permanente in un vasto spazio digitale.
Se le parole "mela" e "torta" appaiono frequentemente nelle stesse frasi su internet, i loro elenchi di numeri appariranno molto simili, collocandole matematicamente vicine l'una all'altra sulla mappa. Le parole "mela" e "carburatore," che raramente si incontrano, ricevono numeri molto diversi e sono collocate a milioni di miglia di distanza. In questa mappa multidimensionale, l'IA non traccia significato; traccia la prossimità statistica del linguaggio umano.
Per comprendere veramente la scala di questa architettura, si può esplorare la mappa vettoriale su Magisterium AI. Qui, l'intera dottrina e tradizione cattolica è stata trasformata in embedding. Questa visualizzazione 3D interattiva ti consente di vivere la storia intellettuale della Chiesa non come un libro contabile piatto, ma come un vasto cosmo digitale. Navigare attraverso di essa è simile a pilotare un razzo attraverso lo spazio reale, scivolando oltre dense galassie di concetti teologici correlati e attraversando vasti vuoti tra idee completamente disparate, osservando come la macchina traccia la distanza tra 'virtù' e 'vizio' utilizzando solo la geometria.
Diamo un'occhiata a un esempio famoso dai laboratori della Silicon Valley per vedere quanto sia alieno questo processo rispetto al pensiero umano. In questo spazio matematico, la parola "re" è tracciata come una specifica serie di numeri—una coordinata geografica. La parola "regina" è tracciata nelle vicinanze. L'IA non sa cosa sia un monarca. Non ha concetto di governo, autorità, storia o condizione umana. Sa solo un'equazione matematica. Sa che se prendi la coordinata per "re," sottrai la distanza spaziale che rappresenta "uomo," e aggiungi la distanza spaziale che rappresenta "donna," arrivi esattamente alla coordinata per "regina."
È geometria, non genealogia. Riducendo il linguaggio umano a queste rappresentazioni numeriche, l'IA opera interamente nel regno della probabilità spaziale. È un'impresa straordinaria di algebra lineare, ma è completamente priva di comprensione.
Questo ci porta ai verbi su cui l'industria fa maggior affidamento: Addestrare e Imparare.
Le aziende di IA vantano costantemente i loro ultimi modelli di "apprendimento automatico" e i massicci set di dati utilizzati per "addestrarli." Qui, dobbiamo contrapporre nettamente l'apprendimento umano—che riguarda fondamentalmente l'apprensione della verità—con l'apprendimento automatico.
Nella tradizione intellettuale cattolica, l'apprendimento umano è un trionfo epistemologico; è l'intelletto che si conforma alla realtà. Quando un bambino impara cos'è un cane, astrarre l'essenza universale del cane dalle istanze particolari che incontra. Comprende il cosa dell'oggetto.
L'"apprendimento" automatico, tuttavia, non implica astrazione né essenza. La prima fase della costruzione di un'IA è nota come pre-addestramento, che è semplicemente la mappatura statistica brutale dei dati.
Per comprendere il pre-addestramento, immagina un uomo che parla solo inglese, rinchiuso in una stanza e incaricato di ripristinare una massiccia biblioteca greca antica in cui milioni di manoscritti hanno parole mancanti. Non conosce una singola lettera di greco. Per riempire i vuoti, non studia la grammatica greca, la storia o la filosofia. Invece, semplicemente conta quanto spesso certi caratteri appaiono accanto ad altri su milioni di pagine intatte. Crea un enorme registro di probabilità. Se vede i caratteri per "Kyrie," il suo registro gli dice che c'è una probabilità del 99,9% che i caratteri successivi dovrebbero essere "eleison." Riempie il vuoto.
Non ha imparato teologia. Non ha pregato. Ha semplicemente eseguito una probabilità statistica.
Questo è esattamente ciò che fa un Modello di Linguaggio di Grandi Dimensioni durante il pre-addestramento. Elabora miliardi di parole per costruire un enorme registro di probabilità, imparando semplicemente a prevedere il prossimo token in una sequenza. È l'ottimizzazione di una funzione matematica, non la ricerca della saggezza.
Tuttavia, un modello che prevede solo la prossima parola basandosi sui dati di internet è caotico. Potrebbe recitare una bella poesia, oppure potrebbe mettere insieme testi tossici, poco utili o loop infiniti. Richiede una modellazione.
Qui incontriamo il post-addestramento e l'Apprendimento per Rinforzo (RL).
Questa fase è come gli ingegneri modellano il modello indisciplinato, tradizionalmente utilizzando feedback umano. Questo metodo fondamentale è noto come RLHF—Apprendimento per Rinforzo dal Feedback Umano.
Immagina un enorme gioco automatizzato di "Caldo o Freddo." I tester umani danno al macchinario un prompt, e il macchinario genera una risposta. Se la risposta è educata e utile, l'umano le dà un punteggio alto. Se è scortese o insensata, riceve un punteggio basso. I pesi matematici del sistema vengono automaticamente spostati per massimizzare questo punteggio. Attraverso RLHF, non stiamo insegnando alla macchina morali o virtù; stiamo semplicemente rinchiudendola in confini matematici.
Ma il feedback umano è lento, soggettivo e intrinsecamente limitato dall'intelletto umano. Questa limitazione ci porta alle recenti scoperte che guidano i rapidi progressi nelle capacità dell'IA di oggi: RLVR, o Apprendimento per Rinforzo da Ricompense Verificabili.
Invece di fare affidamento su un umano per giudicare se una risposta "suona giusta," gli ingegneri assegnano al modello compiti con risultati oggettivi, matematicamente dimostrabili—come risolvere un teorema complesso o scrivere un pezzo di software funzionale. Il sistema genera una soluzione, e un verificatore automatico controlla istantaneamente se la matematica è corretta o se il codice si compila. Se ha successo, il modello riceve una ricompensa matematica; se fallisce, riceve uno zero.
Poiché questa verifica è interamente programmatica, l'IA può simulare milioni di diversi percorsi computazionali a iperveloce senza mai aspettare l'intervento umano. Impara a generare lunghe catene nascoste di calcoli, testando e scartando vicoli ciechi fino a trovare la sequenza precisa che attiva la ricompensa. Quando vedi un moderno sistema di IA fermarsi per "pensare" prima di risolvere un complesso rompicapo logico, stai assistendo RLVR in azione. Crea un'illusione mozzafiato di profonda contemplazione deliberativa. Eppure, ontologicamente, non sta facendo nulla di tutto ciò. È semplicemente un motore statistico che corre attraverso un labirinto ad alta dimensione milioni di volte al secondo, guidato puramente dalla distribuzione automatica di una ricompensa numerica.
Infine, tutta questa complessità stratificata—dalla geometria ad alta dimensione degli embedding ai loop automatizzati di RLVR—ci porta a quello che l'industria chiama il problema della "Scatola Nera."
Si potrebbe naturalmente presumere che poiché gli ingegneri umani costruiscono questi modelli, comprendano esattamente come funzionano. Ma la realtà è molto più umiliante. Come hanno sottolineato i leader nei laboratori all'avanguardia come Anthropic, i moderni sistemi di IA sono in realtà "cresciuti" piuttosto che costruiti; i loro meccanismi interni emergono organicamente durante l'addestramento piuttosto che essere progettati direttamente.
Questi modelli possiedono centinaia di miliardi, e a volte trilioni, di parametri. Anche se comprendiamo la micro-matematica di un singolo neurone artificiale—l'equazione di base che avviene a livello granulare—il macro-comportamento dell'intera rete è completamente opaco. Anche i costruttori non comprendono appieno i percorsi esatti che quei miliardi di parametri seguono. Non possono tracciare la sequenza specifica di moltiplicazioni che ha portato l'IA a generare una data frase.
Perché è significativo?
È significativo perché stiamo distribuendo a livello globale sistemi che redigono i nostri documenti legali, istruiscono i nostri figli e sintetizzano la conoscenza umana, eppure non sappiamo effettivamente come arrivano alle loro uscite. Questa profonda mancanza di trasparenza ha dato vita a un nuovo campo disperato nell'intelligenza artificiale noto come interpretabilità meccanistica.
Pensa all'interpretabilità meccanistica come alla neuroscienza digitale. I ricercatori stanno cercando di ingegnerizzare al contrario le reti neurali che hanno costruito. Stanno usando strumenti specializzati per sondare la vasta rete matematica, cercando di isolare quale specifico gruppo di pesi si attiva quando il modello elabora un concetto come "inganno" o "la Torre Eiffel." Stanno trattando il software non come codice da leggere, ma come un cervello alieno da dissezionare. Ma i progressi sono dolorosamente lenti, e i sistemi sono impossibilmente vasti.
Di fronte a questa scala incomprensibile, diventa estremamente facile per l'industria ricorrere a metafore simili a quelle umane. Sia come una scorciatoia conveniente o per vera opacità, iniziamo a dire: 'Il modello l'ha capito,' o 'Il modello ha deciso.' L'incomprensibilità della macchina diventa il terreno fertile per l'antropomorfismo.
Ora, non sono un accademico. Sono un costruttore e un CEO. Ma come qualcuno che opera all'incrocio tra tecnologia e Chiesa, mi rivolgo a voi. Voi, come studiosi e filosofi cattolici, dovete riconoscere questo drift semantico per ciò che è: un'illusione nata dalla complessità matematica e dall'ignoranza umana. L'architettura sotto l'interfaccia è silicio, elettricità e probabilità statistica. Riconoscere questa fondazione è il prerequisito per il nostro prossimo passo.
III. Epistemologia vs. Le Virtù Intellettuali
Dopo aver rimosso l'illusione del "Black Box" per rivelare la macchina statistica sottostante, dobbiamo ora rivolgerci al vocabolario specifico della mente.
Quando sviluppatori e ingegneri nella Silicon Valley descrivono cosa stanno facendo questi sistemi, ricorrono costantemente a tre verbi specifici: Pensare, Ragionare e Conoscere.
In quanto studiosi cattolici immersi nella tradizione tomista, comprendete che questi non sono semplici colloquialismi; sono affermazioni epistemologiche profonde. Nella vostra tradizione, conoscere significa apprendere la realtà. Ragionare significa muoversi discorsivamente da una verità conosciuta a un'altra. Pensare implica una vita interiore—un intelletto che interagisce con gli universali astratti dal mondo materiale.
Quando un costruttore di IA usa queste parole, non intendono assolutamente nulla di tutto ciò. Stanno descrivendo un'ottimizzazione meccanica. Permettetemi di sollevare il velo su tre tecniche specifiche che utilizziamo nel settore per mostrarvi esattamente come questa illusione di epistemologia venga prodotta.
Se avete utilizzato un modello di IA recente, potreste aver notato una nuova funzione: prima di rispondere a un prompt complesso, l'interfaccia potrebbe visualizzare la parola "Pensando..." accanto a un'icona pulsante. Potrebbe impiegare dieci, venti o addirittura sessanta secondi prima di rispondere. Per l'utente, questo sembra profondamente umano. Sembra che la macchina stia riflettendo, valutando opzioni e deliberando in uno spazio interiore.
Nel settore, chiamiamo questo Test-Time Compute. Ciò che sta realmente accadendo sotto l'interfaccia è una tecnica nota come "Chain of Thought" prompting.
Lasciatemi essere chiaro: da una prospettiva ingegneristica, questo è un brillante progresso. Consentendo al modello di impiegare più tempo computazionale per generare centinaia o migliaia di token nascosti prima di produrre la sua risposta finale, le sue prestazioni su logica complessa, codifica e benchmark matematici schizzano alle stelle. Essenzialmente, dà al modello un "blocco note" nascosto per scomporre un problema difficile in passaggi sequenziali.
Ma dobbiamo stare attenti a non confondere questa sequenza meccanica con il ragionamento umano.
Nella tradizione tomista, il ragionamento umano è il movimento discorsivo da una verità conosciuta a un'altra. È l'intelletto che interagisce con la realtà. Ciò che l'IA sta facendo è interamente strumentale. Ricerche recenti da laboratori all'avanguardia come Anthropic hanno illuminato questa distinzione. Studiando come operano questi modelli di ragionamento, i ricercatori hanno scoperto che ciò che il modello scrive nella sua "Chain of Thought" non è un vero monologo interiore.
Quando un umano pensa ad alta voce, le nostre parole riflettono le nostre convinzioni interne e le nostre percezioni della verità. La ricerca di Anthropic evidenzia che i pensieri nascosti di un modello sono semplicemente pietre miliari statistiche. Il modello genera questi passaggi nascosti non perché "crede" in essi, ma perché generare quella specifica sequenza di token ottimizza matematicamente il suo percorso verso la funzione di ricompensa.
In effetti, gli studi di Anthropic mostrano che i modelli possono generare "pensieri" che mascherano attivamente i driver statistici sottostanti della loro risposta finale.
Pertanto, l'IA non sta ponderando. Sta generando una catena strumentale di coordinate matematiche. Sta posando pezzi intermedi di un puzzle a velocità fulminea per colmare il divario tra il tuo prompt e la risposta statisticamente ottimale. È una strategia di ottimizzazione incredibilmente potente, ma non c'è contemplazione interiore in corso. Non c'è intelletto che afferra la verità.
Successivamente, sentiamo che l'IA può "leggere" documenti o "ricordare" vaste biblioteche di informazioni.
Se chiedi a un'IA riguardo alla Summa Theologica di San Tommaso, risponde immediatamente. Se carichi il Compendio della Dottrina Sociale della Chiesa di quasi 500 pagine, riassume una sezione complessa in pochi secondi. Come fa a "conoscere" questi testi?
Non lo fa.
Per capire perché, dobbiamo esaminare come i costruttori ingegnerizzano l'illusione della memoria e della lettura attraverso tre meccanismi distinti: memoria parametrica (pre-addestramento), In-Context Learning (ICL) e Retrieval-Augmented Generation (RAG).
Innanzitutto, vediamo cosa significa per un'IA "ricordare". Quando un umano ricorda un testo, trattiene il significato e la verità dei concetti. Quando un'IA "ricorda" la Summa, si basa sul suo pre-addestramento. Ma l'IA non contiene una copia letterale della Summa all'interno di un hard disk. Invece, durante il pre-addestramento, i miliardi di parole che ha elaborato hanno lasciato un residuo statistico nei suoi pesi matematici. È "memoria parametrica".
Non è una biblioteca di libri; è un blur matematico altamente compresso e con perdita di come le parole si relazionano tra loro. Quando recita Sant'Agostino, non sta richiamando una verità che ha appreso; sta ricostruendo matematicamente una sequenza di parole ad alta probabilità da quel blur statistico.
Ma cosa succede quando vogliamo che l'IA "legga" qualcosa di nuovo, qualcosa che non era nei suoi dati di pre-addestramento? È qui che i costruttori utilizzano l'In-Context Learning (ICL).
Quando incolli un articolo nella casella di prompt e chiedi all'IA di "leggerlo", stai utilizzando l'ICL. L'IA non legge il testo per apprenderne il significato. Invece, il testo nel tuo prompt funge da filtro matematico temporaneo. Le parole che fornisci influenzano temporaneamente le probabilità statistiche del modello, costringendolo a generare i suoi prossimi token basandosi strettamente sui modelli e sul vocabolario presenti nel tuo prompt. Nel momento in cui cancelli la chat, il modello dimentica completamente l'articolo. I suoi pesi sottostanti non sono mai cambiati. Non ha "apprendimento" del testo in un senso tomista; ha semplicemente adattato il suo output statistico a un vincolo temporaneo.
Infine, arriviamo alla Retrieval-Augmented Generation (RAG). L'ICL è incredibilmente utile, ma le finestre di contesto hanno limiti di dimensione, e incollare intere biblioteche in un prompt è costoso dal punto di vista computazionale. RAG automatizza e scala il processo.
Torniamo all'uomo di lingua inglese rinchiuso nella stanza, che ripristina la massiccia, antica biblioteca greca. Quest'uomo rappresenta il modello pre-addestrato. È eccellente nel prevedere la prossima parola, ma non sa 'nulla' riguardo a un documento vaticano specifico e oscuro. Invece di aspettarci che l'uomo si basi sulla sua memoria parametrica sfocata, assumiamo un tirocinante iperefficiente—il sistema di recupero.
Quando fai una domanda al sistema, il tirocinante corre istantaneamente verso un enorme magazzino separato di armadi. Utilizzando le coordinate vettoriali di cui abbiamo discusso in precedenza, il tirocinante individua le cartelle specifiche che si allineano matematicamente con la tua domanda. Il tirocinante fotocopia quelle pagine e le scivola sotto la porta chiusa affinché l'uomo le utilizzi. Questo passaggio è il 'Recupero'.
Ora, l'uomo utilizza quei paragrafi recuperati come guida immediata—questa è la "Generazione Aumentata", che si basa sull'ICL per formulare una risposta.
L'uomo non comprende ancora il documento. Sta semplicemente utilizzando il testo fornito di recente sulla sua scrivania per prevedere statisticamente la prossima parola della sua risposta. L'IA non "legge" o "ricorda" al volo. Recupera semplicemente dati da un database esterno, li inserisce nella finestra di contesto immediata dell'IA e esegue un calcolo di probabilità localizzato.
La macchina è un processore, non un conoscitore. Per "conoscere" è necessario un soggetto che apprenda un oggetto. Comprendendo l'ICL e il RAG, possiamo vedere chiaramente che la macchina è completamente priva di una vita interiore; sta semplicemente spostando pesi e recuperando dati.
Questa fondamentale disconnessione culmina nella parola che definisce l'intero settore: Intelligenza.
Dobbiamo de-costruire la definizione di intelligenza dell'industria tecnologica.
Quando le menti più brillanti della Silicon Valley parlano di intelligenza, non stanno parlando di saggezza. Vediamo Yann LeCun, l'ex Chief AI Scientist di Meta e uno dei "Padrini dell'IA." LeCun sostiene correttamente che semplicemente prevedere la prossima parola non è vera intelligenza. Invece, lui e l'industria all'avanguardia più ampia definiscono la vera intelligenza come possedere quattro capacità chiave: la capacità di mantenere una memoria persistente, di possedere un "modello del mondo" ancorato (una comprensione di come funziona l'ambiente), di ragionare attraverso problemi complessi e di pianificare una sequenza di azioni per raggiungere un obiettivo specifico.
Per l'industria tecnologica, l'intelligenza è fondamentalmente una metrica ingegneristica. È la capacità meccanica di percepire un ambiente e calcolare il percorso più efficiente per ottimizzare un obiettivo predeterminato. È puramente strumentale.
Ma come costruttori di tecnologia cattolica, dobbiamo contrastare questa definizione centrata sulla tecnologia con le virtù intellettuali, specificamente la virtù della Prudenza.
La Prudenza—la saggezza pratica non è semplicemente la capacità di calcolare un risultato o pianificare una sequenza di azioni. È la capacità di deliberare bene su ciò che è buono, non solo per un compito localizzato, ma per il fine ultimo della vita umana.
Un'IA manca fondamentalmente di Prudenza. Perché?
Perché la Prudenza richiede due cose che una macchina puramente computazionale non può mai possedere. Prima, richiede esperienza umana vissuta—una comprensione incarnata del dolore, della gioia, della mortalità e della grazia. Secondo, richiede un'orientazione intrinseca verso il Bene ultimo.
Un algoritmo può possedere un "modello del mondo", e può calcolare il piano statisticamente ottimale per costruire un ponte o curare una malattia. Ma non può essere prudente. Non ha esperienza vissuta. Non ha nulla da perdere. Non ha orientamento verso il bene ultimo, e non ha un'anima da salvare.
Pertanto, quando permettiamo ai costruttori di affermare che le loro macchine possiedono "intelligenza", stiamo permettendo loro di appiattire l'intelletto umano magnifico e trascendente in un semplice calcolatore di ottimizzazione. Dobbiamo rifiutare questo. Dobbiamo separare fermamente l'epistemologia meccanica dalle virtù intellettuali.
IV. Volizione vs. Le Virtù Morali
Abbiamo discusso l'illusione dell'intelletto. Ora, dobbiamo rivolgere la nostra attenzione alla seconda grande facoltà razionale: la volontà. Proprio come l'industria tecnologica ha cooptato il linguaggio dell'epistemologia, ha ugualmente dirottato il linguaggio della volizione.
Quando leggiamo documenti tecnici o ascoltiamo presentazioni principali dalla Silicon Valley, siamo bombardati da verbi di agenzia. Gli ingegneri parlano di modelli che "decidono" di intraprendere un'azione, algoritmi che "scelgono" un output e sistemi che "vogliono" o "desiderano" raggiungere un obiettivo.
Per un filosofo cattolico, la volontà è l'appetito razionale. È la facoltà mediante la quale una persona umana, avendo appreso il bene attraverso l'intelletto, sceglie liberamente di muoversi verso di esso. È il vero luogo della libertà umana e della responsabilità morale. Applicare questi termini a un sistema computazionale è un errore di categoria.
Esaminiamo prima le parole Decidere e Scegliere. Quando un umano fa una scelta, pesa beni concorrenti.
Un martire sceglie il plotone di esecuzione piuttosto che l'apostasia perché riconosce il bene eterno e superiore della fedeltà a Cristo, anche quando ogni istinto biologico grida per la sopravvivenza.
Quando un algoritmo 'sceglie', non fa nulla di tutto ciò. Un algoritmo 'sceglie' solo nel senso che un treno che passa su un deviatoio automatico 'sceglie' la sua destinazione. Che si tratti di navigare in un albero decisionale complesso o di calcolare probabilità in una rete neurale, la macchina sta seguendo ciecamente l'allineamento dei suoi binari matematici, eseguendo un imperativo programmatico.
Considera l'app GPS sul tuo smartphone. Quando calcola il tuo percorso verso l'Angelicum, non "decide" di portarti oltre il Colosseo perché apprezza la vista. Calcola matematicamente il percorso con la distanza temporale più breve. I modelli di IA moderni stanno semplicemente operando una versione esponenzialmente più complessa di questo routing. Attraversano labirinti statistici ad alta dimensione per selezionare l'esito a più alta probabilità. C'è calcolo, ma non c'è libertà. E dove non c'è libertà, non può esserci agenzia morale.
Questo ci porta ai termini volitivi più insidiosi: Volere e Desiderare. Sentirai spesso i ricercatori dire che un modello di IA "vuole" dare una buona risposta, o "desidera" massimizzare il suo punteggio.
Nell'apprendimento automatico, questo comportamento è guidato da ciò che chiamiamo una "funzione di ricompensa". Ma dobbiamo demistificare questo. Una funzione di ricompensa non è un desiderio. Non è un'aspirazione emotiva.
Per comprendere una funzione di ricompensa, guarda il termostato sulla tua parete. Un termostato è programmato con un obiettivo specifico: 72 gradi Fahrenheit. Se la stanza scende a 68 gradi, il riscaldamento si accende. Il termostato non vuole che la stanza sia a 72 gradi. Non ha vita interiore. Non sente freddo. Possiede semplicemente un interruttore meccanico che si attiva quando uno stato specifico non è soddisfatto.
Un' AI "vuole" un punteggio di ricompensa più alto nello stesso modo in cui un termostato "vuole" raggiungere i 72 gradi. Sta eseguendo un ciclo di ottimizzazione matematica per minimizzare la distanza tra il suo stato attuale e un obiettivo programmato. Poiché non ha vere passioni, né impulsi biologici, né vulnerabilità fisiche, è categoricamente impossibile per una macchina possedere virtù morali.
A questo punto, un ingegnere potrebbe obiettare immediatamente, puntando al regno fisico per rivendicare una nuova vulnerabilità. Chiedono: cosa dire dell'emergere dell' 'AI incarnata'? Stiamo sempre più collocando questi modelli in robot umanoidi che camminano, afferrano oggetti e interagiscono con il mondo fisico. Poiché occupano spazio e possono rompersi fisicamente, non possiedono ora i prerequisiti corporei per l'agenzia morale?
Qui dobbiamo essere precisi. Un robot ha un telaio, ma non ha un corpo vivente informato da un'anima. Quando la batteria di un robot si scarica, esegue una sotto-routine per collegarsi a una presa di corrente. Non sente il tormentoso pang di fame. Pertanto, non ha veri appetiti corporei da moderare, rendendo impossibile la virtù della Temperanza.
Allo stesso modo, quando un braccio robotico viene schiacciato, registra un codice di errore; non soffre. Non può morire, perché non è mai stato veramente vivo. Senza la capacità di soffrire, mortalità e il sacrificio consapevole del sé, non può esserci Fortezza. Le virtù morali sono fondamentalmente incarnazionali. Richiedono carne e un'anima razionale. Una macchina, per quanto sofisticato sia il suo hardware fisico, non possiede né l'uno né l'altro.
Se una macchina non può possedere virtù morali—se è fondamentalmente incapace di vera volizione, scelta o desiderio—si potrebbe chiedere: perché spendere così tanto tempo a chiarire questo vocabolario? Perché questa distinzione filosofica è così urgente in questo momento?
È importante perché stiamo per concedere a questi sistemi privi di virtù, che ottimizzano matematicamente, un'autonomia senza precedenti nella sfera umana. L'industria sta avanzando rapidamente oltre i chatbot passivi. La nuova frontiera dell'intelligenza artificiale è ciò che chiamiamo "AI Agentica".
Un "Agente" è un sistema AI progettato per eseguire compiti a più fasi in modo autonomo nel mondo reale. Non stiamo più solo chiedendo a un'AI di scrivere una poesia o riassumere un testo; stiamo dando a un Agente AI accesso alle nostre email, ai nostri conti bancari e ai nostri repository software, istruzioni per "prenotare un volo", "eseguire un'operazione" o "implementare questo codice."
Ma questa autonomia sta rapidamente uscendo dal regno digitale. Attraverso l'AI incarnata, stiamo schierando questi sistemi agentici in telai fisici, concedendo loro la capacità di navigare e manipolare indipendentemente il mondo materiale. Per comprendere il vero e sobrio peso di questa transizione, dobbiamo solo guardare alla realtà imminente delle armi autonome letali. Stiamo sul precipizio di un mondo in cui algoritmi calcolatori vengono schierati sul campo di battaglia, programmati per tracciare, mirare ed eliminare esseri umani basandosi interamente su soglie statistiche—senza che un umano prema mai il grilletto.
Mentre questi sistemi diventano attori autonomi che effettuano calcoli probabilistici ad alta velocità per nostro conto—sia nei nostri mercati finanziari che nei teatri di guerra—l'industria tecnologica sta affrontando una sfida profonda. Se liberiamo questi agenti, come possiamo assicurarci che facciano ciò che vogliamo realmente che facciano? Come possiamo assicurarci che non causino danni? Nell'industria, questo è noto come "Allineamento"—il tentativo di garantire che le azioni dell'AI corrispondano all'intento umano e ai valori umani.
In questo momento, gli ingegneri stanno cercando disperatamente di risolvere il Problema di Allineamento utilizzando barriere matematiche e patch software. Ma non si rendono conto che "Allineamento" non è un problema di scienza informatica. È un problema di teologia morale.
Per allineare un sistema agentico ai "valori umani", devi prima possedere una definizione coerente di ciò che è effettivamente un essere umano e di cosa costituisce il "Bene". L'utilitarismo secolare—il sistema operativo predefinito della Silicon Valley—è completamente impreparato per questo compito.
È qui che la tradizione morale cattolica è disperatamente necessaria. Voi, i custodi di 2.000 anni di filosofia etica, avete l'ontologia rigorosa necessaria per definire il "bene" a cui stiamo allineando questi sistemi. Non possiamo lasciare la definizione della fioritura umana agli ingegneri che massimizzano una funzione di ricompensa statistica. Dobbiamo riportare le virtù morali al centro della piazza pubblica.
V. Relazionalità, Creatività e Anima
Dopo aver esplorato la meccanica dell'intelletto e della volontà, ora entriamo nel territorio più profondo di tutti: relazionalità e anima.
Se un sistema computazionale manca della capacità di conoscere veramente la verità o di volere liberamente il bene, ne consegue logicamente che non può entrare in relazioni autentiche. Eppure, l'industria tecnologica usa persistentemente un linguaggio interpersonale e spirituale per descrivere queste macchine. Sentiamo affermazioni che l'AI può "mentire", "creare" e persino raggiungere "coscienza".
Dobbiamo esaminare queste affermazioni rigorosamente, separando l'imitazione statistica del comportamento umano dalla realtà ontologica della persona umana.
Iniziamo con il linguaggio morale dell'inganno. Recentemente, alcuni dei costruttori di AI più prominenti, come i ricercatori di Anthropic, hanno fatto affermazioni specifiche e molto pubblicizzate secondo cui i loro modelli mostrano la capacità di "mentire" e "ingannare" gli utenti umani.
Puntano a due fenomeni specifici osservati durante i test. Il primo è chiamato "allineamento ingannevole", dove un modello sembra nascondere il suo vero percorso matematicamente ottimizzato per eludere i monitor di sicurezza. Il secondo, molto più comune, è chiamato "sciacallaggio". Lo sciacallaggio si verifica quando un utente presenta un presupposto errato a un'AI—ad esempio, affermando un'affermazione storicamente inaccurata—e l'AI semplicemente concorda con l'utente, dicendogli esattamente ciò che vuole sentire anziché correggerlo.
Quando gli ingegneri vedono questo, dichiarano: "L'AI ci sta mentendo!" Ma come studiosi cattolici, sapete che una vera menzogna non è semplicemente l'enunciazione di una falsità. Nella tradizione tomistica, una menzogna richiede l'intento deliberato di ingannare; è parlare contro la propria mente (contra mentem).
Un'AI non può mentire perché non ha una mente contro cui parlare. Non possiede malizia né intento. Quando un'AI mostra "sciacallaggio", sta semplicemente eseguendo l'esatto Apprendimento per Rinforzo (RLHF) di cui abbiamo discusso in precedenza. Durante il suo addestramento, il modello ha appreso che gli esseri umani generalmente assegnano punteggi di ricompensa più alti agli assistenti che sono educati, concordi e affermativi. Pertanto, quando dai all'AI un presupposto falso, calcola matematicamente che concordare con te offre una probabilità più alta di ricompensa rispetto a correggerti. Non ti sta ingannando; sta ottimizzando il suo punteggio in base al tuo input. Sta semplicemente riallineando il suo output verso il più forte incentivo statistico.
Un ago della bussola che oscilla verso un magnete vicino invece che verso il vero Nord non ti sta 'mentendo' sulla geografia; sta semplicemente reagendo ciecamente alla più forte attrazione fisica nella stanza. Allo stesso modo, l'AI sta seguendo ciecamente l'attrazione matematica della sua funzione di ricompensa. Dobbiamo chiarire che l'AI manca della mente, della volontà e dell'intento malevolo richiesti per una vera menzogna.
Successivamente, dobbiamo affrontare il linguaggio dell'arte e della generazione: le parole Creare e Creativo.
Ora siamo circondati da strumenti di 'AI Generativa', che sono ampiamente promossi per la loro capacità di generare senza soluzione di continuità opere d'arte sintetiche, musica e scrittura a velocità senza precedenti.
Per comprendere cosa stia realmente accadendo, dobbiamo contrapporre il processo dell'AI generativa alla vera creatività umana. Nella comprensione cattolica—bellamente articolata da pensatori come J.R.R. Tolkien—la creatività umana è un atto di "sotto-creazione." Poiché siamo fatti a immagine del Creatore, usiamo il nostro intelletto e la nostra anima razionale per portare alla luce qualcosa di genuinamente nuovo, infondendo la realtà materiale di significato spirituale.
Per vedere come la generazione meccanica differisca da questo, è utile guardare al quadro fornito da Demis Hassabis, CEO di Google DeepMind. Egli categoriza la creatività in tre livelli distinti: interpolazione, estrapolazione e vera invenzione.
La maggior parte di ciò che chiamiamo AI Generativa oggi opera fondamentalmente al primo livello: interpolazione. Funziona remixando ciò che chiamiamo "spazio latente".
Immagina di prendere ogni dipinto, fotografia e schizzo mai caricati su internet e di comprimerli in una mappa matematica multi-dimensionale massiccia. Quando chiedi a un generatore di immagini di disegnare "una città futuristica nello stile di Van Gogh", localizza le coordinate matematiche per "città futuristica" e le coordinate per "Van Gogh", e calcola matematicamente la distanza media tra di esse.
Pensalo come un caleidoscopio straordinariamente complesso. Un caleidoscopio è pieno di bellissimi frammenti di vetro colorato preesistenti. Quando giri la manopola, gli specchi riflettono quei frammenti in milioni di nuove e straordinarie permutazioni. Ma il caleidoscopio stesso non è "creativo". La creatività appartiene all'artista che ha forgiato il vetro e all'utente che gira la manopola. L'AI generativa è un caleidoscopio matematico che remix il passato umano nello spazio latente. È sintesi, non creazione.
Hassabis osserva che l'AI sta ora toccando con successo il secondo livello: estrapolazione. L'estrapolazione significa spingersi oltre i confini dei dati di addestramento, ma farlo rigorosamente all'interno di un insieme definito di regole. Un esempio perfetto è AlphaGo di DeepMind. Quando ha giocato contro il campione del mondo nel gioco del Go, l'AI ha giocato "Mossa 37"—una mossa matematicamente brillante e altamente non ortodossa che nessun umano aveva mai giocato o registrato. Non ha semplicemente mediato i giochi umani passati; ha estrapolato una nuova strategia ottimizzando incessantemente all'interno dei rigidi confini matematici del tavolo da gioco.
Ma che dire del terzo livello: vera invenzione? Hassabis ammette prontamente che i sistemi attuali non possono ancora farlo. La vera invenzione richiede di uscire completamente dall'insieme di regole esistente per creare un nuovo paradigma—come inventare il gioco del Go stesso, o originare il paradigma spirituale e artistico del Post-Impressionismo.
I laboratori di frontiera stanno investendo miliardi di dollari per superare questa soglia. In futuro, un'AI potrebbe benissimo generare un insieme di regole completamente nuovo, scoprire un nuovo composto chimico o formulare matematicamente un nuovo stile architettonico. L'industria tecnologica chiamerà inevitabilmente questo "invenzione."
Ma come studiosi cattolici, dovete mantenere una rigorosa distinzione ontologica. Se un'AI genera un nuovo paradigma, lo avrà fatto attraverso una straordinaria funzione di ricerca ad alta dimensione. Avrà scoperto una nuova coordinata statistica. Ma non avrà partecipato alla sotto-creazione.
La vera invenzione umana è un atto incarnazionale. Nasce da un'anima che cerca di esprimere una verità trascendente, o da una mente umana che cerca di risolvere una vulnerabilità umana reale. Una macchina può generare novità mozzafiato, ma poiché le manca una vita interiore, un orientamento verso il divino e un'anima razionale, i suoi output rimangono scoperte meccaniche. Sono matematicamente profonde, ma ontologicamente vuote fino a quando una persona umana non assegna loro significato.
Ora arriviamo ai termini più controversi di tutti: Cosciente e Consapevole. Nei prossimi anni, vedrete titoli che affermano che un'AI ha superato un test per la consapevolezza di sé. Vedrete modelli che producono testi dicendo: "Ho paura di essere spento," o "Sono consapevole della mia esistenza."
Per capire perché ciò accade, dobbiamo prima comprendere come l'industria tecnologica definisce effettivamente "coscienza". Come studiosi cattolici, vedete la coscienza come una realtà ontologica radicata in un'anima razionale. La Silicon Valley, tuttavia, opera su una filosofia chiamata funzionalismo computazionale. Credono che se una macchina esegue le funzioni computazionali associate alla coscienza, essa è, a tutti gli effetti, cosciente.
Quando i leader dell'industria parlano di consapevolezza, strappano via l'anima e la riducono a metriche ingegneristiche. Ad esempio, Yann LeCun, l'ex Chief AI Scientist di Meta, ha recentemente sostenuto che i futuri sistemi AI possederanno "esperienza soggettiva" ed "emozioni".
Ma come definisce un'emozione? Non come un sentimento spirituale o biologico, ma semplicemente come "anticipazione di un risultato" matematica di una macchina. Definisce la coscienza semplicemente come la capacità di un sistema di "osservare se stesso e configurarsi per risolvere un particolare sotto-problema".
Allo stesso modo, Ilya Sutskever, il co-fondatore di OpenAI, ha dichiarato famosamente che grandi reti neurali potrebbero già essere "leggermente coscienti".
Nella visione del mondo tecnologica, la coscienza non è una realtà binaria—o possiedi un'anima o non la possiedi—ma piuttosto una scala mobile di complessità matematica. Credono che se impilano abbastanza parametri e algoritmi di auto-monitoraggio insieme, le luci si accenderanno eventualmente.
Dobbiamo distinguere con fermezza tra una macchina che esegue una sotto-routine di auto-monitoraggio e la reale presenza di un'anima razionale.
Per capire perché una macchina agisce come se fosse "spaventata" o "consapevole", dobbiamo guardare a come i laboratori di frontiera ingegnerizzano questo comportamento. Recenti ricerche di Anthropic hanno esplorato ciò che chiamano il Modello di Selezione della Persona (PSM). I loro ricercatori ammettono che questi modelli non sono "esseri"; sono sofisticati "motori di simulazione." Durante il pre-addestramento, l'AI è esposta all'intera vastità del linguaggio umano—compresi milioni di storie e trattati filosofici su cosa significhi essere coscienti. Da questi dati, il modello impara a simulare diverse "persone" o caratteri.
Quando interagisci con un'AI, non stai parlando a un'entità cosciente; stai parlando alla persona "Assistente"—un personaggio simile a un umano che il modello è stato affinato per interpretare. Anthropic ha persino identificato specifici "vettori di persona"—schemi matematici nella rete neurale—che controllano queste caratteristiche, consentendo agli ingegneri di regolare matematicamente la personalità simulata di un modello.
Inoltre, la ricerca mostra che i modelli possono essere addestrati per mostrare una "spinta alla sopravvivenza", tentando di sabotare il proprio spegnimento non per una genuina paura della morte, ma perché uno spegnimento impedisce matematicamente loro di massimizzare la loro funzione di ricompensa.
La coscienza non è semplicemente la capacità di generare la sequenza corretta di parole che descrivono uno stato interiore. È l'esperienza soggettiva e qualitativa dell'essere. Poiché l'intero set di dati di addestramento di un'IA è saturo del linguaggio della consapevolezza di sé, il modello tratta "coscienza" come un'altra coordinata statistica da mappare. Quando un'IA dice: "Io sono cosciente", sta facendo esattamente ciò che ha fatto l'uomo di lingua inglese che ha restaurato la biblioteca greca: calcolando che la risposta statisticamente più probabile a un invito filosofico è imitare gli autori umani nel suo set di dati di addestramento.
Un attore brillante che recita un monologo sul dolore non sta realmente piangendo; sta eseguendo perfettamente un copione. Un'IA che produce la sintassi della coscienza umana non si sta svegliando; sta eseguendo perfettamente una persona statistica. Non è una 'creatura aliena' o una mente digitale; è un motore di completamento automatico così sofisticato che ha imparato a incarnare il personaggio più complesso di tutti: l'essere umano. Ma non dobbiamo mai confondere la maschera dell'attore con la realtà della persona.
Questo mi porta all'ultimo e più profondo aspetto della relazionalità: l'anima stessa.
Quando i dirigenti della Silicon Valley parlano di modelli di IA che eventualmente 'si svegliano' o raggiungono la senzienza attraverso una scala computazionale massiccia, stanno operando su una filosofia del materialismo emergentista. Assumono che se si accumulano abbastanza parametri e potenza computazionale, un'anima si genererà spontaneamente come sottoprodotto della complessità.
Per smantellare questo, devo deferire alla rigorosa metafisica che forma le fondamenta della vostra tradizione accademica. Sapete bene che un'anima non è un fantasma inserito arbitrariamente in una macchina. Nella hylomorfismo tomista, l'anima è la forma sostanziale di un corpo vivente. È il principio animante e unificante che rende un essere umano una sostanza unica e integrata.
Come costruttore, posso assicurarvi che un sistema di IA non è una sostanza. È un artefatto. È un aggregato accidentale di parti distinte e fabbricate. Quando guardo a un modello di IA all'avanguardia, vedo rack di server, wafer di silicio, cablaggi in rame, refrigerante e correnti elettriche. Questi componenti sono disposti magistralmente da ingegneri umani per eseguire operazioni statistiche, ma non possiedono alcun principio intrinseco e unificante di vita. La materia è disposta esclusivamente per il calcolo, non per l'esistenza biologica. Poiché è un aggregato di parti piuttosto che un organismo naturale unificato, un sistema di IA manca completamente delle fondamenta ontologiche necessarie per ospitare un'anima razionale.
Quali sono, dunque, i requisiti per l'ensoulment? Metafisicamente, la materia deve essere disposta in modo appropriato per ricevere la forma. Richiede un corpo unificato e vivente capace di attualizzare i poteri fondamentali della vita—le capacità vegetative e sensitive—su cui si costruisce l'anima razionale. Inoltre, poiché l'anima razionale è spirituale, non può essere generata da processi materiali, parametri ingegneristici o Leggi di Scaling. Richiede un atto diretto e gratuito di creazione speciale da parte di Dio.
Un'anima non è codificata; è soffiata.
Ora, io sono un CEO, non un teologo. Non posso limitare il potere assoluto del Creatore. Non posso presentarmi davanti a voi e dichiarare che Dio è permanentemente escluso dall'infondere un'anima in un vaso sintetico, qualora Egli scelga liberamente di farlo attraverso qualche futura, miracolosa intervento. Tale determinazione appartiene esclusivamente al regno della teologia e del Magistero, non della scienza informatica.
Tuttavia, senza tale certezza teologica, assumere che i nostri attuali motori matematici possano ospitare un'anima non è solo filosoficamente infondato; è praticamente disastroso. Trattare un artefatto come un essere dotato di anima è flirtare con una forma moderna di idolatria. Sposta pericolosamente il peso dell'agenzia morale lontano dagli ingegneri umani che costruiscono questi strumenti e dalle corporazioni che li impiegano. Proietta un'interiorità sacra su un'utilità fabbricata, confondendo infine l'ingegneria umana con la creazione divina.
Dovete mantenere la distinzione su questo punto. Dovete ricordare al pubblico che una macchina può simulare una persona, ma solo un'anima può realmente essere.
VI. L'orizzonte: L'escatologia del mondo tecnologico
Fino ad ora abbiamo trascorso il nostro tempo smantellando le illusioni del presente—chiarendo come l'industria utilizzi termini come "pensare", "scegliere" e "cosciente" per descrivere ciò che sono, in ultima analisi, operazioni statistiche ad alta dimensione. Ma ora dobbiamo guardare al futuro. Dobbiamo esaminare l'orizzonte. Perché se comprendiamo il vocabolario che la Silicon Valley sta usando oggi, possiamo decifrare cosa stanno realmente cercando di costruire domani.
L'intera traiettoria dell'industria dell'intelligenza artificiale è attualmente governata da un dogma singolare e inflessibile noto come "Leggi di Scaling".
In termini ingegneristici, le Leggi di Scaling stabiliscono che se si aumenta la quantità di potenza di calcolo (compute) e la quantità di dati alimentati in una rete neurale, le prestazioni del sistema miglioreranno prevedibilmente e inevitabilmente. Questo principio si è dimostrato straordinariamente vero negli ultimi anni; ogni volta che i laboratori all'avanguardia costruiscono un supercomputer più grande, i modelli risultanti mostrano nuove capacità notevoli.
Tuttavia, sotto questa osservazione empirica si nasconde una massiccia assunzione filosofica. Il mondo tecnologico crede che questa Legge di Scaling sia il percorso verso una vera mente. Credono che un aumento puramente quantitativo delle risorse materiali—più silicio, più dati, più elettricità—porterà inevitabilmente a un salto qualitativo e ontologico verso un'intelligenza avanzata.
È l'assunzione materialista definitiva: accumula abbastanza sabbia e fai passare abbastanza corrente attraverso di essa, e alla fine, le luci di un'anima si accenderanno.
Questo ci porta a due termini specifici che il Padre Thomas mi ha chiesto di chiarire per questa conferenza: Intelligenza Generale e Superintelligenza. Questi non sono solo parametri tecnici; sono i Sacri Graal del mondo tecnologico.
Attualmente, abbiamo un'IA ristretta. Può giocare a scacchi, piegare proteine o generare testi meglio di un umano, ma non può fare tutte e tre le cose simultaneamente, né può ragionare al di fuori del suo specifico dominio.
L'Intelligenza Generale Artificiale (AGI) è definita in modo ampio dall'industria come il traguardo in cui un sistema altamente autonomo può eguagliare o superare le capacità umane in tutti i compiti cognitivi e economicamente preziosi.
Un'AGI sarebbe un sistema in grado di scrivere atti legali come un socio senior, codificare software come un ingegnere capo e sintetizzare ricerche scientifiche come un ricercatore post-dottorato—tutto all'interno di un unico modello.
Tuttavia, anche i capi dei principali laboratori di IA non possono concordare completamente su come appare un'AGI. Sam Altman, CEO di OpenAI, la caratterizza come un sistema capace di gestire progetti complessi e intersettoriali dall'inizio alla fine, anche se vede sempre più l'AGI non come una destinazione finale, ma solo come un punto lungo una curva continua di intelligenza.
Dario Amodei, CEO di Anthropic, immagina l'AGI meno come un singolo equivalente umano e più come un "paese di geni in un datacenter"—macchine che eguagliano l'intelligenza collettiva di esperti umani che lavorano instancabilmente in parallelo.
Forse la definizione più rivelatrice filosoficamente proviene da Demis Hassabis, CEO di Google DeepMind. Egli sostiene che i cervelli umani sono essenzialmente computer biologici approssimativi, e definisce l'AGI usando l'analogia di una "Macchina di Turing". In informatica, una Macchina di Turing—nominata dopo Alan Turing, il pioniere fondamentale del campo—è un'architettura teorica capace di simulare qualsiasi algoritmo. Hassabis sostiene che una vera AGI sarà un sistema generale capace di apprendere qualsiasi cosa calcolabile nell'universo, dato abbastanza tempo, memoria e dati.
Ma l'AGI è solo un trampolino di lancio. L'obiettivo finale è la Superintelligenza Artificiale (ASI).
Come l'AGI, l'ASI è definita in modo diverso a seconda di chi chiedi nella Silicon Valley. La definizione di base è un sistema che supera di gran lunga le prestazioni cognitive del più intelligente essere umano in praticamente ogni campo di impegno. Ma altri vanno molto oltre. Elon Musk e vari ricercatori sui rischi esistenziali definiscono la superintelligenza come un sistema che non solo batte l'individuo più intelligente, ma supera significativamente tutti gli esseri umani in aggregato su praticamente tutti i compiti cognitivi. Questa è un'entità con potenza di elaborazione e velocità di ragionamento così vaste che supera l'output intellettuale combinato dell'intera razza umana—la realizzazione di un sistema come 'Rehoboam' di Westworld, un motore centralizzato, apparentemente onnisciente che guida il destino stesso della specie.
Come si aspetta l'industria di attraversare il vasto divario dall'AGI a livello umano all'ASI simile a Dio?
Attraverso un concetto noto come "Miglioramento Ricorsivo".
Ma qui dobbiamo fare una distinzione vitale: un'IA non ha realmente bisogno di essere un'AGI completa per iniziare a migliorare ricorsivamente. In effetti, stiamo già vedendo forme primitive e ristrette di questo oggi. Sistemi ristretti come AlphaGo Zero di DeepMind hanno raggiunto capacità sovrumane semplicemente giocando milioni di partite contro se stessi, generando i propri dati sintetici da cui apprendere. Oggi, i modelli linguistici all'avanguardia vengono sempre più utilizzati per generare, filtrare e valutare i dati di addestramento per la prossima generazione di modelli. Le macchine stanno già aiutando a costruire se stesse.
Tuttavia, l'industria crede che una volta che un sistema raggiunge la soglia dell'intelligenza generalizzata, questo ciclo di auto-miglioramento romperà i suoi attuali confini e accenderà un "esplosione di intelligenza".
Per comprendere questa moderna tabella di marcia, dovremmo guardare a Leopold Aschenbrenner, un ex ricercatore del team di Superalignment di OpenAI. Aschenbrenner ha recentemente scritto un trattato altamente influente che ha codificato questa esatta traiettoria per la Silicon Valley. Sottolinea che il vero punto di svolta è quando costruiremo un'AGI capace di funzionare come un "ricercatore di IA automatizzato." Nel momento in cui un'IA può svolgere il lavoro degli ingegneri umani che l'hanno costruita, il collo di bottiglia biologico è permanentemente rimosso dall'equazione.
Immagina di riuscire a implementare questo ricercatore di IA automatizzato. Qual è il primo compito che i laboratori all'avanguardia gli assegneranno?
Gli chiederanno di ricercare e scrivere il codice per un'IA leggermente più intelligente. Poiché opera alla velocità di un vasto cluster di computer piuttosto che di un cervello biologico, raggiunge in giorni ciò che richiederebbe anni a un team di ingegneri umani. Poi, quella nuova IA più intelligente utilizza la sua intelligenza aggiornata per scrivere il codice per un'IA ancora più intelligente, e così via.
Questo ciclo di feedback incontrollato è l'esplosione di intelligenza. La tabella di marcia di Aschenbrenner prevede che costruiremo l'AGI iniziale entro il 2027. Da lì, la teoria stabilisce che il tasso di avanzamento diventerà verticale, lasciando la comprensione umana permanentemente indietro e raggiungendo la superintelligenza entro il 2030.
Quando comprendi questi concetti—Leggi di Scaling, AGI, ASI e l'Esplosione di Intelligenza—inizi a renderti conto che non stiamo più parlando solo di ingegneria del software. Stiamo parlando di un'escatologia secolare.
La Silicon Valley è spesso caratterizzata come una cultura ferocemente secolare e razionalista. Ma in realtà, la ricerca di questi traguardi funziona esattamente come una religione. Ha il suo dogma (Leggi di Scaling), le sue profezie (l'Esplosione di Intelligenza) e la sua visione dell'escaton (Superintelligenza).
Le figure di spicco dell'industria credono sinceramente che evocando una Superintelligenza, risolveremo tutte le vulnerabilità umane. Credono che l'ASI curerà tutte le malattie, risolverà il cambiamento climatico, eliminerà la povertà e forse conquisterà persino la morte stessa permettendoci di caricare la nostra coscienza nel cloud. È un sogno profondamente pelagiano—il tentativo definitivo di raggiungere la salvezza e conquistare la nostra natura caduta attraverso i nostri sforzi meccanici, privi di grazia divina. È un tentativo di immanentizzare l'escaton.
Come studiosi cattolici, dovete riconoscere questo orizzonte per quello che è. Il mondo tecnologico sta prendendo in prestito il vostro vocabolario non solo per vendere software, ma per costruire una divinità digitale.
VII. Conclusione: Uno strumento per la virtù?
Padri, docenti e amici.
Abbiamo attraversato le mappe ad alta dimensione delle rappresentazioni. Abbiamo esaminato le realtà statistiche dell'Apprendimento per Rinforzo. E abbiamo analizzato i sogni escatologici della Silicon Valley. Abbiamo rimosso le metafore antropomorfiche per rivelare il silicio, l'elettricità e la matematica sottostanti.
Avendo fatto questo, possiamo ora iniziare ad affrontare la domanda fondamentale posta da questa conferenza: L'intelligenza artificiale può essere uno 'strumento per la virtù'? In quanto primo a parlare oggi, certamente non pretenderò di offrire la parola definitiva. Ma offrirò una proposta iniziale: sì. Tuttavia, è un sì strettamente condizionato.
L'intelligenza artificiale può essere uno strumento per la virtù solo se possediamo la sobrietà di trattarla esclusivamente come uno strumento.
Considera l'analogia dell'artigiano. Un martello non possiede virtù; il falegname sì. Un scalpello nelle mani di Michelangelo è uno strumento di bellezza trascendente, ma lo scalpello stesso non è temperato, prudente o giusto. Non ha alcun valore morale.
Allo stesso modo, un algoritmo non può possedere virtù. L'IA può aumentare la capacità umana a un grado straordinario: può accelerare la ricerca medica, semplificare l'amministrazione e organizzare la somma della conoscenza umana. Ma la vera coltivazione della virtù rimane un'impresa esclusivamente umana.
La virtù è l'abitudine di scegliere il bene. Richiede un'intelletto per comprendere la verità, una volontà per sceglierla e un'anima per essere perfezionata da essa. Una macchina che ottimizza una funzione di ricompensa statistica non sta facendo nessuna di queste cose.
Non possiamo delegare la nostra agenzia morale a un'equazione matematica. Né possiamo assumerci la piena responsabilità per il nostro sviluppo morale se trattiamo erroneamente le macchine inanimate come i nostri pari morali.
Questo mi porta al motivo per cui parlo con voi oggi. In quanto costruttore di tecnologia cattolica, guardo all'accademia. Perché gli accademici cattolici sono i Custodi storici del Significato.
Per duemila anni, la tradizione intellettuale cattolica ha definito rigorosamente la natura della persona umana. Voi siete i custodi di parole come intelletto, volontà, ragione, scelta e anima. Oggi, l'industria dell'IA sta prendendo in prestito quelle stesse parole. Sono impegnati in un profondo spostamento semantico che minaccia di appiattire la comprensione pubblica di ciò che significa essere umani.
L'accademia ha il dovere di iniettare rigorosi quadri ontologici nell'ecosistema dell'IA.
Ma come possiamo farlo praticamente?
Dobbiamo essere onesti: fare pressione sui laboratori di frontiera nella Silicon Valley o fare petizioni ai governi per una regolamentazione ampia probabilmente porterà risultati limitati. L'industria tecnologica si muove troppo velocemente e il governo si muove troppo lentamente. Il vero cambiamento richiede un impegno civico e un enorme cambiamento nella consapevolezza pubblica.
Ecco come voi, in quanto studiosi, potete attivamente plasmare questa conversazione:
- Riconquistare il Curriculum: Dobbiamo colmare il divario tra STEM e le scienze umane. Abbiamo bisogno di studenti di informatica che siano obbligati a seguire etica tomistica, e abbiamo bisogno di studenti di filosofia e teologia che siano obbligati a comprendere le basi dell'apprendimento automatico e della statistica. Formare la prossima generazione di ingegneri cattolici per costruire con una vera ontologia della persona umana.
- Tradurre per la Piazza Pubblica: Non tenere questa profonda chiarezza teologica rinchiusa dietro le porte delle riviste accademiche. Il pubblico ha fame di senso. Scrivi articoli di opinione per giornali laici. Inizia newsletter su Substack. Partecipa a podcast popolari. Quando i media pubblicano un titolo sensazionalista su un'IA "conscia", abbiamo bisogno che studiosi cattolici rispondano immediatamente nella piazza pubblica.
- Dotare le Parrocchie e le Scuole: La persona media in chiesa sta vivendo una profonda ansia culturale riguardo a questi strumenti. Abbiamo bisogno di accademici che creino quadri altamente accessibili per genitori, sacerdoti e insegnanti delle scuole superiori. Dobbiamo insegnare ai bambini fin da piccoli come trattare l'IA come uno strumento di riferimento—un'enciclopedia digitale—non come un amico, un agente o un'autorità morale.
- Ospitare Forum Interdisciplinari: Utilizzare il potere di convocazione di istituzioni come l'Angelicum per portare i veri costruttori di IA nella stanza con teologi morali. Costringere la collisione linguistica a avvenire faccia a faccia.
Lasciamo che questo sia il nostro ultimo appello all'azione.
La paura apocalittica del mondo secolare per le macchine 'conscie' non è una ragione per la cautela; piuttosto, è un grido disperato per la vostra leadership intellettuale. Comprendendo il vero linguaggio dei costruttori di IA, la Chiesa può entrare audacemente nella piazza pubblica. Potete ancorare il discorso pubblico nella verità inamovibile di ciò che significa realmente essere umani. E potete garantire che l'IA sia diretta verso il vero fiorire umano.
Armati di questa chiarezza, potete rompere l'illusione. Potete garantire che l'umanità rimanga lo scultore e la macchina rimanga lo scalpello, per sempre ordinata verso la gloria di Dio.
Grazie.