Magisterium AI

Semantični odmik: Razkrivanje jezika graditeljev umetne inteligence

Ali lahko umetna inteligenca postane orodje za vrlino?

5. marca 2026 je Matthew Harvey Sanders, izvršni direktor Longbeard, predstavil svoj nagovor z naslovom “Semantični drift: razjasnitev jezika graditeljev AI” na dogodku Thomističnega inštituta “Umetna inteligenca: Orodje za vrlino?” ki ga je gostila Papeška univerza svetega Toma Akvinskega (Angelicum) v Rimu.

V tem govoru kritizira zavajajočo, humanizirano besedišče, ki ga uporabljajo razvijalci iz Silicijeve doline za opisovanje strojnega učenja. Trdi, da moramo, da bi pravilno uporabljali AI, ponovno prevzeti strogo katoliško ontologijo in obravnavati te sisteme izključno kot mehanske instrumente, ne pa kot moralne agente.


I. Uvod: Semantični drift in javni prostor

Očetje, cenjeni profesorji in gostje Angelicuma, hvala Thomističnemu inštitutu, da je sklical to razpravo.

Ko prehajamo v novo dobo, zapuščamo trdne gotovosti dobe informacij in vstopamo v širok, neodkrit kozmos dobe inteligence, se soočamo z globokim navigacijskim izzivom. Preden lahko odgovorimo na nujno vprašanje, ki je v središču te konference—ali lahko umetna inteligenca resnično služi kot 'orodje za vrlino'—se moramo najprej spopasti z izzivom, ki ni povezan s programsko inženirstvom, temveč z besediščem.

V središču našega sodobnega strahu glede AI je globok jezikovni trk. Inženirji in arhitekti teh sistemov v Silicijevi dolini izvajajo izjemne matematične podvige. Vendar pa, da bi opisali te matematične in statistične procese, so si izposodili sveto, globoko filozofsko besedišče človeške notranjosti. Pravijo nam, da njihovi sistemi "razmišljajo", "razumejo" in "vedo". Govorijo o algoritmih, ki "učijo", "želijo" in "izbirajo".

To, kar smo priča, je semantični drift. Vzamemo bogato, ontološko terminologijo duše in jo nalepimo na kompleksne mreže linearne algebre, statistične verjetnosti in geometrije v visokih dimenzijah. To je moderna alkemija—poskus, da bi računalniške teže spremenili v iluzijo uma.

Ta jezikovna neurejenost ima globok in takojšen vpliv na javnost. Napačno razumevanje teh izrazov neizogibno vodi do napačnega zaupanja.

To vidim na lastne oči v našem delu pri Longbeard; uporabniki pogosto pristopajo k AI z obremenjenimi vestmi, obravnavajo orodje za generiranje besedil, kot da bi bilo duhovni voditelj, sposobno empatije.

Poleg tega ta semantična zmeda spodbuja kulturno anksioznost, ki poganja apokaliptične strahove pred rivalnimi, "zavednimi" superinteligencami.

Najbolj nevarno pa je, da ustvarja izkrivljen občutek o tem, kaj pomeni biti človek. Če sprejmemo predpostavko, da stroj "razmišlja" ali "ustvarja" prav tako kot človek, se soočamo z globokim tveganjem, da znižamo človeško osebo na zgolj biološki stroj—skupino mesa in sinaps, ki čaka, da bo optimizirana.

To me pripelje do osrednje teze naše razprave: da bi odgovorili na vprašanje, ali je AI lahko "orodje za vrlino," moramo najprej razjasniti njegov jezik. Orodje lahko služi dobremu le, če ga pravilno razumemo. Ne uspevamo uporabljati strojev kot pravih instrumentov za našo lastno vrlino, ko jim napačno pripisujemo moralno agencijo.

Pripisovati vrlino kladivu pomeni, da se slepimo pred mizarjem.

Da bi to tehnologijo resnično krstili in jo usmerili k človeškemu napredku, moramo odstraniti semantične iluzije in trezno pogledati na arhitekturo pod njo.


II. Arhitektura iluzije: Temeljna mehanika

Moderen generativni AI sistem se zdi, da govori, razmišlja in se z nami pogovarja, toda pod to vmesno plastjo leži temelj, zgrajen izključno na matematiki, ne pa na metafiziki.

Začnimo z vektorji in embedingi, ki služijo kot dobesedni temelj velikih jezikovnih modelov. Ko se pogovarjate s kolegom raziskovalcem o "pravici" ali "duši," razumejo pomen vaših besed skozi skupno razumevanje resničnosti—življeno, inkarnirano človeško izkušnjo. Ko v AI vtipkate poziv, sistem ne stori nič takega. Namesto tega AI prevaja človeški jezik v matematične koordinate v prostoru z visokimi dimenzijami.

Da bi to poenostavili, je "vektor" preprosto seznam števil, ki se uporabljajo za opisovanje nečesa. Predstavljajte si, da opisujete jabolko ne z besedami, temveč s seznamom točk: 9 za sladkost, 8 za rdečino in 2 za kovinski hrust. Ta specifičen seznam števil—[9, 8, 2]—je vektor. V AI sistemu je vsaka posamezna beseda—ali del besede—prevedena v velik vektor, ki je pogosto dolg tisoče števil. Toda AI ne ocenjuje besed na podlagi fizičnih lastnosti ali definicij iz slovarja. Namesto tega generira ta števila izključno na podlagi statistike, pregleduje milijarde knjig in člankov, da bi preštel, kako pogosto se besede pojavljajo ena ob drugi.

Ko AI konča s kalkulacijo tega ogromnega seznama števil za besedo, ta vektor postane "embedding"—trajna matematična koordinata v obsežnem digitalnem prostoru.

Če se besedi "jabolko" in "pita" pogosto pojavljata v istih stavkih po internetu, bosta njuni seznami števil videti zelo podobni, kar ju matematično postavi blizu drug drugega na zemljevidu. Besedi "jabolko" in "karburator," ki se redko srečata, prejmeta povsem različna števila in sta postavljeni milijone milj narazen. Na tem večdimenzionalnem zemljevidu AI ne sledi pomenu; sledi statistični bližini človeškega jezika.

Da bi resnično razumeli obseg te arhitekture, lahko raziskujete vektorski zemljevid na Magisterium AI. Tukaj je celotna katoliška doktrina in tradicija preoblikovana v embedinge. Ta interaktivna 3D vizualizacija vam omogoča, da doživite intelektualno zgodovino Cerkve ne kot ravno knjigo, temveč kot obsežen, digitalni kozmos. Navigacija skozi to je podobna pilotiranju raketoplana skozi dejanski prostor, drsenju mimo gostih galaksij povezanih teoloških konceptov in prečkanju obsežnih, praznih praznin med povsem različnimi idejami, opazovanjem, kako stroj izračuna razdaljo med 'vrline' in 'vice' z uporabo le geometrije.

Poglejmo znan primer iz laboratorijev Silicijeve doline, da vidimo, kako tuj je ta proces od človeškega razmišljanja. V tem matematičnem prostoru je beseda "kralj" prikazana kot specifična serija števil—geografska koordinata. Beseda "kraljica" je prikazana v bližini. AI ne ve, kaj je monarh. Nima pojma o upravljanju, oblasti, zgodovini ali človeškem stanju. Pozna le matematično enačbo. Ve, da če vzamete koordinato za "kralja," odštejete prostorsko razdaljo, ki predstavlja "moškega," in dodate prostorsko razdaljo, ki predstavlja "žensko," pridete natančno na koordinato za "kraljico."

To je geometrija, ne genealogija. Z razčlenitvijo človeškega jezika v te numerične predstavitve AI deluje izključno znotraj področja prostorske verjetnosti. To je osupljiv dosežek linearne algebre, vendar je popolnoma brez razumevanja.

To nas pripelje do glagolov, na katere se industrija najbolj zanaša: Učite in Učite se.

Podjetja AI nenehno hvalijo svoje najnovejše modele "strojnega učenja" in ogromne podatkovne nize, ki se uporabljajo za "usposabljanje" teh modelov. Tukaj moramo ostro razlikovati med človeškim učenjem—ki je v osnovi o spoznavanju resnice—ter strojno učenje.

V katoliški intelektualni tradiciji je človeško učenje epistemološka zmaga; je intelekt, ki se prilagaja resničnosti. Ko otrok spozna, kaj je pes, abstrahira univerzalno bistvo psa iz posebnih primerov, s katerimi se srečuje. Razume, kaj je stvar.

Strojno "učenje" pa ne vključuje nobene abstrakcije in nobenega bistva. Prva faza gradnje AI je znana kot predusposabljanje, kar je preprosto groba statistična mapa podatkov.

Da bi razumeli predusposabljanje, si predstavljajte moškega, ki govori le angleško, zaklenjenega v sobi in nalogo, da obnovi ogromno, staro grško knjižnico, kjer milijoni rokopisov nimajo manjkajočih besed. Ne pozna niti enega črke grščine. Da bi zapolnil praznine, ne študira grške slovnice, zgodovine ali filozofije. Namesto tega preprosto prešteje, kako pogosto se določeni znaki pojavljajo ob drugih na milijonih nedotaknjenih strani. Ustvari ogromno knjigo verjetnosti. Če vidi znake za "Kyrie," mu njegova knjiga pove, da je 99,9% verjetnost, da bi naslednji znaki morali biti "eleison." Zapolni praznino.

Ni se naučil teologije. Ni molil. Preprosto je izvedel statistično verjetnost.

Točno to počne velik jezikovni model med predusposabljanjem. Obdeluje milijarde besed, da ustvari ogromno knjigo verjetnosti, uči se le napovedovati naslednji token v zaporedju. To je optimizacija matematične funkcije, ne pa iskanje modrosti.

Vendar pa je model, ki le napoveduje naslednjo besedo na podlagi podatkov z interneta, kaotičen. Lahko recitira čudovito pesem ali pa poveže toksične, neuporabne ali neskončne zanke besedila. Potrebuje oblikovanje.

Tukaj naletimo na postusposabljanje in učenje s povratno informacijo (RL).

Ta faza je način, kako inženirji oblikujejo nemiren model, tradicionalno z uporabo človeške povratne informacije. Ta temeljna metoda je znana kot RLHF—Učenje s povratno informacijo od človeške povratne informacije.

Predstavljajte si ogromno, avtomatizirano igro "Toplo ali Hladno." Človeški testerji dajo stroju poziv, stroj pa generira odgovor. Če je odgovor vljuden in koristen, mu človek da visoko oceno. Če je nesramen ali brezsmiseln, dobi nizko oceno. Matematične teže sistema se samodejno prilagajajo, da bi optimizirali to oceno. S pomočjo RLHF ne učimo stroja moralnosti ali vrlin; preprosto ga omejujemo z matematičnimi mejami.

Toda človeška povratna informacija je počasna, subjektivna in inherentno omejena z človeškim intelektom. Ta omejitev nas pripelje do nedavnih prebojev, ki poganjajo današnje nenadne skoke v zmožnostih AI: RLVR, ali Učenje s povratno informacijo iz preverljivih nagrad.

Namesto da bi se zanašali na človeka, da oceni, ali odgovor "zveni prav," inženirji dodelijo modelu naloge z objektivnimi, matematično dokazljivimi izidi—kot je reševanje kompleksne teoreme ali pisanje funkcionalnega dela programske opreme. Sistem generira rešitev, avtomatizirani preverjevalnik pa takoj preveri, ali je matematika pravilna ali ali se koda prevaja. Če uspe, model prejme matematično nagrado; če ne uspe, dobi nič.

Ker je ta preverjanje povsem programatično, lahko AI simulira milijone različnih računalniških poti pri hiperspeeds brez čakanja na človeško posredovanje. Uči se generirati dolge, skrite verige izračunov, preizkuša in zavrača slepe ulice, dokler ne najde natančnega zaporedja, ki sproži nagrado. Ko vidite, da se sodobni AI sistem ustavi, da "premisli" pred reševanjem kompleksne logične uganke, ste priča RLVR v akciji. Ustvarja osupljivo iluzijo globokega, premišljenega razmišljanja. Vendar pa ontološko ne počne nič takega. Je preprosto statistični stroj, ki teče skozi visoko-dimenzionalni labirint milijone krat na sekundo, usmerjen izključno s samodejnim dodeljevanjem numerične nagrade.

Na koncu vse te plastične kompleksnosti—od geometrije visokih dimenzij embedingov do avtomatiziranih zank RLVR—privedejo do tistega, kar industrija imenuje problem "Črne škatle."

Nekdo bi naravno domneval, da ker človeški inženirji gradijo te modele, natančno razumejo, kako delujejo. Toda resničnost je veliko bolj ponižna. Kot so opozorili voditelji na mejnih laboratorijih, kot je Anthropic, so sodobni AI sistemi dejansko "pridelani" namesto zgrajeni; njihovi notranji mehanizmi se organsko pojavijo med usposabljanjem, namesto da bi bili neposredno zasnovani.

Ti modeli imajo na stotine milijard, včasih pa tudi trilijone parametrov. Medtem ko razumemo mikro-matematiko enega umetnega nevrona—osnovno enačbo, ki se dogaja na granularni ravni—je makro-obnašanje celotne mreže povsem neprosojno. Tudi graditelji ne razumejo povsem natančnih poti, ki jih vzamejo milijarde teh parametrov. Ne morejo slediti specifičnemu zaporedju množenj, ki je pripeljalo AI do generiranja določenega stavka.

Zakaj je to pomembno?

Pomembno je, ker globalno uvajamo sisteme, ki pripravljajo naše pravne dokumente, poučujejo naše otroke in sintetizirajo človeško znanje, vendar dejansko ne vemo, kako pridejo do svojih izhodov. Ta globok pomanjkanje preglednosti je rodilo obupno novo podpodročje v umetni inteligenci, znano kot mehanistična interpretabilnost.

Pomislite na mehanistično interpretabilnost kot na digitalno nevroznanost. Raziskovalci poskušajo obrniti inženirstvo nevralnih mrež, ki so jih sami zgradili. Uporabljajo specializirana orodja, da preiskujejo ogromno matematično mrežo, poskušajo izolirati, kateri specifičen grozd teže se aktivira, ko model obdeluje koncept, kot je "prevara" ali "Eifflov stolp." Obnašajo se do programske opreme ne kot do kode, ki jo je treba prebrati, temveč kot do tujega možganskega tkiva, ki ga je treba razrezati. Vendar je napredek boleče počasen, sistemi pa so neizmerno obsežni.

Soočeni s to nepredstavljivo obsežnostjo je postalo preprosto prelahko, da bi se industrija zatekla k človeškim metaforam. Ne glede na to, ali gre za priročno okrajšavo ali iz resnične neprosojnosti, začnemo govoriti: 'Model je to ugotovil,' ali 'Model je odločil.' Neinterpretabilnost stroja postane plodna tla za antropomorfizem.

Zdaj, nisem akademik. Sem graditelj in izvršni direktor. Toda kot nekdo, ki deluje na presečišču tehnologije in Cerkve, se obračam na vas. Vi, kot katoliški učenjaki in filozofi, morate prepoznati ta semantični drift za tisto, kar je: iluzija, rojena iz matematične kompleksnosti in človeške nevednosti. Arhitektura pod vmesnikom je silikon, elektrika in statistična verjetnost. Prepoznavanje te osnove je predpogoj za naš naslednji korak.


III. Epistemologija proti intelektualnim vrlinam

Potem ko smo odstranili iluzijo "Črne škatle" in razkrili statistični mehanizem pod njo, se moramo sedaj osredotočiti na specifično besedišče uma.

Ko razvijalci in inženirji v Silicijevi dolini opisujejo, kaj ti sistemi počnejo, se dosledno poslužujejo treh specifičnih glagolov: Misliti, Razmišljati in Vedeti.

Kot katoliški učenjaki, ki ste zakoreninjeni v tomistični tradiciji, razumete, da to niso zgolj kolokvializmi; to so globoke epistemološke trditve. V vaši tradiciji pomeni vedeti dojeti resničnost. Razmišljati pomeni diskurzivno prehajati od ene znane resnice do druge. Misliti implicira notranje življenje—um, ki se ukvarja z univerzali, abstraktiranimi iz materialnega sveta.

Ko graditelj umetne inteligence uporablja te besede, ne pomeni nič od tega. Opisujejo mehanično optimizacijo. Dovolite mi, da vam razkrijem tri specifične tehnike, ki jih uporabljamo v industriji, da vam pokažem, kako je ta iluzija epistemologije proizvedena.

Če ste uporabili nedavni model umetne inteligence, ste morda opazili novo funkcijo: preden odgovori na zapleteno vprašanje, lahko vmesnik prikaže besedo "Razmišljanje..." ob pulzirajočem ikoni. Odgovor lahko traja deset, dvajset ali celo šestdeset sekund, preden se odzove. Uporabniku se to zdi izjemno človeško. Zdi se, da stroj premišljuje, tehta možnosti in razpravlja v notranjem prostoru.

V industriji temu pravimo Test-Time Compute. Kar se dejansko dogaja pod vmesnikom, je tehnika, znana kot "Veriga misli" (Chain of Thought) spodbujanja.

Dovolite mi, da bom jasen: z inženirskega vidika je to briljanten preboj. S tem, da modelu omogočimo, da porabi več računalniškega časa za generiranje stotin ali tisoč skritih tokenov, preden poda svoj končni odgovor, se njegova uspešnost na kompleksnih logičnih, kodirnih in matematičnih merilih drastično poveča. V bistvu daje modelu skriti "zapisnik", da razdeli težavno nalogo na zaporedne korake.

Toda moramo biti previdni, da te mehanične zaporedja ne zamenjamo z človeškim razmišljanjem.

V tomistični tradiciji je človeško razmišljanje diskurzivno gibanje od ene znane resnice do druge. To je um, ki se ukvarja z resničnostjo. Kar umetna inteligenca počne, je povsem instrumentalno. Nedavne raziskave iz mejnih laboratorijev, kot je Anthropic, so osvetlile to razliko. Pri preučevanju, kako ti modeli razmišljanja delujejo, so raziskovalci ugotovili, da to, kar model piše v svoji skriti "Verigi misli", ni pravi notranji monolog.

Ko človek razmišlja na glas, naše besede odražajo naše notranje prepričanje in dojemanje resnice. Raziskave Anthropic poudarjajo, da so skrite misli modela le statistični koraki. Model generira te skrite korake ne zato, ker jih "verjame", ampak ker generiranje te specifične zaporedja tokenov matematično optimizira njegovo pot do funkcije nagrade.

Dejansko študije Anthropic kažejo, da modeli lahko generirajo "misli", ki aktivno prikrivajo temeljne statistične gonilnike njihovega končnega odgovora.

Zato umetna inteligenca ne premišljuje. Generira instrumentalno verigo matematičnih koordinat. Postavlja vmesne sestavne dele s svetlobno hitrostjo, da zapolni vrzel med vašim vprašanjem in statistično optimalnim odgovorom. To je izjemno močna optimizacijska strategija, vendar ne poteka nobeno notranje razmišljanje. Ni intelekta, ki bi dojemal resnico.

Nato slišimo, da lahko umetna inteligenca "bere" dokumente ali "zapomni" obsežne knjižnice informacij.

Če vprašate umetno inteligenco o Summa Theologica sv. Tomaža, takoj odgovori. Če naložite skoraj 500-stranski Kompendij socialne doktrine Cerkve, povzame zapleten odsek v nekaj sekundah. Kako "ve", te tekste?

Ne ve.

Da bi razumeli zakaj, moramo pogledati, kako graditelji inženirajo iluzijo spomina in branja skozi tri različne mehanizme: parametrični spomin (predusposabljanje), Učenje v kontekstu (In-Context Learning, ICL) in Generacija, obogatena z iskanjem (Retrieval-Augmented Generation, RAG).

Najprej si poglejmo, kaj pomeni, da umetna inteligenca "zapomni". Ko človek zapomni besedilo, ohrani pomen in resnico konceptov. Ko umetna inteligenca "zapomni" Summa, se zanaša na svoje predusposabljanje. Toda umetna inteligenca ne vsebuje dobesedne kopije Summe znotraj trdega diska. Namesto tega je med predusposabljanjem milijarde besed, ki jih je obdelala, pustile statistični ostanek v njenih matematičnih težiščih. To je "parametrični spomin".

To ni knjižnica knjig; to je močno stisnjen, izgubljen matematični zamegljenost, kako so besede med seboj povezane. Ko recitira Aquinasa, ne prikliče resnice, ki jo je naučil; matematično rekonstruira verigo besed z visoko verjetnostjo iz te statistične zamegljenosti.

Toda kaj se zgodi, ko želimo, da umetna inteligenca "bere" nekaj novega, nečesa, kar ni bilo v njenih podatkih za predusposabljanje? Tu graditelji uporabljajo Učenje v kontekstu (ICL).

Ko v polje za vprašanja prilepite članek in prosite umetno inteligenco, da ga "prebere", izkoriščate ICL. Umetna inteligenca ne bere besedila, da bi dojela njegov pomen. Namesto tega besedilo v vašem vprašanju deluje kot začasni matematični filter. Besede, ki jih zagotovite, začasno pristranjujejo statistične verjetnosti modela, kar ga prisili, da generira svoje naslednje tokene strogo na podlagi vzorcev in besedišča, prisotnega v vašem vprašanju. Ko enkrat izbrišete klepet, model popolnoma pozabi članek. Njegova temeljna težišča se nikoli niso spremenila. Ni "naučil" besedila v tomističnem smislu; le prilagodil je svoj statistični izhod začasni omejitvi.

Nazadnje pridemo do Generacije, obogatene z iskanjem (RAG). ICL je izjemno uporaben, vendar imajo kontekstna okna omejitve velikosti, in lepljenje celotnih knjižnic v vprašanje je računsko drago. RAG avtomatizira in povečuje ta proces.

Vrnimo se k angleško govorečemu moškemu, zaprtemu v sobi, ki obnavlja ogromno, starodavno grško knjižnico. Ta moški predstavlja predusposobljen model. Odličen je pri ugibanju naslednje besede, vendar ne 've' nič o specifičnem, obskurnem vatikanskem dokumentu. Namesto da bi pričakovali, da se moški zanaša na svoj zamegljen parametrični spomin, najamemo hiper-učinkovitega pripravnika—sistem iskanja.

Ko postavite sistemu vprašanje, pripravnik takoj steče v ogromno, ločeno skladišče omar. Uporabljajoč vektorske koordinate, o katerih smo govorili prej, pripravnik locira specifične mape, ki matematično ustrezajo vašemu vprašanju. Pripravnik fotokopira te strani in jih potisne pod zaklenjena vrata, da jih moški lahko uporabi. Ta korak je 'Iskanje'.

Zdaj moški te pridobljene odstavke uporablja kot svoj takojšnji vodnik—to je "Obogatena generacija," ki se zanaša na ICL, da oblikuje odgovor.

Moški še vedno ne razume dokumenta. Preprosto uporablja novo zagotovljeno besedilo na svojem mizi, da statistično napove naslednjo besedo svojega odgovora. Umetna inteligenca ne "bere" ali "zapomni" v trenutku. Preprosto pridobi podatke iz zunanje baze podatkov, jih potisne v takojšnje kontekstno okno umetne inteligence in izvede lokalizirano verjetnostno izračunavanje.

Stroj je procesor, ne poznavalec. Da "ve" zahteva subjekt, ki dojemajo objekt. Z razumevanjem ICL in RAG lahko jasno vidimo, da stroj nima notranjega življenja; le premika teže in pridobiva podatke.

Ta temeljna razlika se konča v besedi, ki opredeljuje celo industrijo: Inteligenca.

Moramo dekonstruirati definicijo inteligence tehnološke industrije.

Ko vodilni umovi v Silicijevi dolini govorijo o inteligenci, ne govorijo o modrosti. Poglejmo Yann LeCuna, nekdanjega glavnega znanstvenika umetne inteligence pri Meti in enega od "Kumov umetne inteligence." LeCun pravilno trdi da preprosto napovedovanje naslednje besede ni prava inteligenca. Namesto tega on in širša mejna industrija definirata pravo inteligenco kot posedovanje štirih ključnih sposobnosti: sposobnost ohranjanja trajnega spomina, posedovanje utemeljenega "svetovnega modela" (razumevanje, kako deluje okolje), razmišljanje skozi kompleksne probleme in načrtovanje zaporedja dejanj za dosego specifičnega cilja.

Za tehnološko industrijo je inteligenca v osnovi inženirska metrika. To je mehanična sposobnost zaznavanja okolja in izračunavanja najučinkovitejše poti za optimizacijo vnaprej določenega cilja. Je povsem instrumentalna.

Toda kot graditelji katoliške tehnologije moramo to tehnološko usmerjeno definicijo kontrastirati z intelektualnimi vrlinami, posebej vrlino Previdnosti.

Previdnost—praktična modrost ni zgolj sposobnost izračunavanja izida ali načrtovanja zaporedja dejanj. To je sposobnost dobrega razpravljanja o tem, kar je dobro, ne le za lokalizirano nalogo, ampak za končni cilj človeškega življenja.

Umetna inteligenca v osnovi nima Previdnosti. Zakaj?

Ker Previdnost zahteva dve stvari, ki jih čisto računalniški stroj nikoli ne more imeti. Prvič, zahteva izkušnjo življenja—inkarnirano razumevanje bolečine, radosti, smrtnosti in milosti. Drugič, zahteva intrinzično usmerjenost proti končnemu Dobremu.

Algoritem lahko poseduje "svetovni model" in lahko izračuna statistično optimalen načrt za gradnjo mostu ali zdravljenje bolezni. Toda ne more biti previden. Nima izkušnje življenja. Nima kože v igri. Nima usmerjenosti proti končnemu dobremu in nima duše, ki bi jo bilo treba rešiti.

Zato, ko dovolimo graditeljem, da trdijo, da njihovi stroji posedujejo "inteligenco," jim dovoljujemo, da izjemen, transcendentni človeški intelekt zravnajo v zgolj kalkulator optimizacije. To moramo zavrniti. Moramo trdno ločiti mehanično epistemologijo od intelektualnih vrlin.


IV. Volja proti moralnim vrlinam

Razpravljali smo o iluziji intelekta. Zdaj se moramo osredotočiti na drugo veliko racionalno sposobnost: voljo. Prav tako kot je tehnološka industrija prevzela jezik epistemologije, je enako ugrabila jezik volje.

Ko beremo bele knjige ali poslušamo ključne predstavitve iz Silicijeve doline, smo bombardirani z glagoli agencije. Inženirji govorijo o modelih, ki "odločajo" o ukrepu, algoritmih, ki "izberejo" izhod, in sistemih, ki "želijo" ali "hajajo" doseči cilj.

Za katoliškega filozofa je volja racionalna želja. To je sposobnost, s katero človeška oseba, potem ko je dosegla dobro skozi intelekt, svobodno izbere, da se premakne proti njemu. To je sam središče človeške svobode in moralne odgovornosti. Uporaba teh izrazov za računalniški sistem je kategorijska napaka.

Najprej preučimo besedi Odločiti in Izbrati. Ko človek sprejme odločitev, tehtajo nasprotujoča si dobra.

Mučenik izbere streljanje pred apostazijo, ker prepozna superiorno, večno dobro zvestobe Kristusu, tudi ko vsak biološki instinkt kriči po preživetju.

Ko algoritem 'izbere', ne stori nič takega. Algoritem 'izbere' le v smislu, da vlak, ki prehaja preko avtomatiziranega železniškega preklopa, 'izbere' svojo destinacijo. Ne glede na to, ali navigira po kompleksnem drevesu odločitev ali izračunava verjetnosti v nevronski mreži, stroj slepo sledi usklajevanju svojih matematičnih prog, izvaja programatski imperativ.

Razmislite o aplikaciji GPS na vašem pametnem telefonu. Ko izračuna vašo pot do Angelicuma, ne "odloča", da vas pelje mimo Koloseja, ker ceni razgled. Matematično izračuna pot z najkrajšo časovno razdaljo. Sodobni modeli umetne inteligence preprosto delujejo na eksponentno bolj kompleksni različici te usmeritve. Prehajajo visoko-dimenzionalne statistične labirinte, da izberejo izid z najvišjo verjetnostjo. Obstaja izračun, vendar ni svobode. In kjer ni svobode, tam ne more biti moralne agencije.

To nas pripelje do najbolj podlih volilnih izrazov: Želiti in Hrepeneti. Pogosto boste slišali raziskovalce reči, da model umetne inteligence "želi" dati dober odgovor ali "hrepeni" po tem, da maksimizira svoj rezultat.

V strojni učenju je to vedenje vodeno s tem, kar imenujemo "funkcija nagrade". Toda to moramo demistificirati. Funkcija nagrade ni hrepenenje. Ni čustvena želja.

Da bi razumeli funkcijo nagrade, poglejte na termostat na vaši steni. Termostat je programiran s specifičnim ciljem: 72 stopinj Fahrenheita. Če soba pade na 68 stopinj, se ogrevanje vklopi. Termostat ne želi, da bi bila soba 72 stopinj. Nima notranjega življenja. Ne čuti mraza. Preprosto ima mehanični stikalo, ki se aktivira, ko specifično stanje ni izpolnjeno.

AI "želi" višjo oceno nagrade na enak način, kot termostat "želi" doseči 72 stopinj. Izvaja matematični optimizacijski cikel, da minimizira razdaljo med svojim trenutnim stanjem in programiranim ciljem. Ker nima pravih strasti, bioloških nagibov in fizične ranljivosti, je kategorično nemogoče, da bi stroj posedoval moralne vrline.

Na tej točki bi inženir lahko takoj ugovarjal, in sicer s sklicevanjem na fizično področje, da bi trdil, da ima nova ranljivost. Sprašujejo: kaj pa pojav 'utelesjenega AI'? Te modele vse bolj postavljamo v humanoidne robote, ki hodijo, prijemajo predmete in komunicirajo s fizičnim svetom. Ker zasedajo prostor in se lahko fizično poškodujejo, ali to ne pomeni, da zdaj posedujejo telesne predpogoje za moralno agencijo?

Tukaj moramo biti natančni. Robot ima šasijo, vendar nima živega telesa, ki bi ga informirala duša. Ko se baterija robota izprazni, izvede podprogram, da se priključi na steno. Ne čuti mučnega občutka lakote. Zato nima pravih telesnih apetitov, ki bi jih bilo treba zmeriti, kar dela vrlino Zmernosti nemogočo.

Podobno, ko je robotska roka stisnjena, zabeleži kodo napake; ne trpi. Ne more umreti, ker nikoli ni bila resnično živa. Brez sposobnosti trpljenja, smrtnosti in zavestne žrtve sebe ne more biti Trdnosti. Moralne vrline so temeljno inkarnacijske. Zahtevajo meso in racionalno dušo. Stroj, ne glede na to, kako sofisticirana je njegova fizična oprema, ne poseduje niti enega niti drugega.

Če stroj ne more posedovati moralnih vrlin—če je temeljno nesposoben prave volje, izbire ali želje—se lahko vprašamo: zakaj toliko časa posvečamo razjasnjevanju te besedne zakladnice? Zakaj je ta filozofska razlika trenutno tako nujna?

Pomembno je, ker smo na pragu, da tem matematično optimiziranim, brezvrtnim sistemom podelimo brezprecedenčno avtonomijo na človeškem področju. Industrija hitro prehaja iz pasivnih klepetalnih robotov. Nova meja umetne inteligence je to, kar imenujemo "Agentic AI".

"Agent" je AI sistem, zasnovan za samostojno izvajanje večstopenjskih nalog v resničnem svetu. Več ne prosimo AI, da napiše pesem ali povzame besedilo; dajemo AI Agentu dostop do naših e-poštnih sporočil, naših bančnih računov in naših programske opreme, ter mu naročamo, da "rezervira let" , "izvede trgovino" ali "izvede to kodo."

Toda ta avtonomija hitro prehaja iz digitalnega področja. S pomočjo utelesjenega AI uvajamo te agentične sisteme v fizične šasije, kar jim omogoča, da samostojno navigirajo in manipulirajo s fizičnim svetom. Da bi razumeli pravo, resno težo te preobrazbe, moramo le pogledati na neizbežno resničnost smrtonosnih avtonomnih orožij. Stojimo na robu sveta, kjer se izračunani algoritmi uvajajo na bojišče, programirani, da sledijo, ciljajo in odstranijo človeška bitja zgolj na podlagi statističnih pragov—brez da bi človek kdaj pritisnil na sprožilec.

Ko ti sistemi postanejo avtonomni akterji, ki na naš račun izvajajo hitre probabilistične izračune—bodisi na naših finančnih trgih bodisi na bojiščih—se tehnološka industrija sooča z globokim izzivom. Če te agente spustimo na svobodo, kako zagotovimo, da delajo to, kar dejansko želimo, da delajo? Kako zagotovimo, da ne povzročijo škode? V industriji je to znano kot "Usklajenost"—poskus zagotoviti, da dejanja AI ustrezajo človeški nameri in človeškim vrednotam.

Trenutno inženirji obupno poskušajo rešiti Problem usklajenosti z matematičnimi varnostnimi mehanizmi in programsko opremo. Vendar ne razumejo, da "Usklajenost" ni problem računalniške znanosti. To je problem moralne teologije.

Da bi uskladili agentični sistem s "človeškimi vrednotami", morate najprej imeti koherentno definicijo tega, kaj dejansko je človeško bitje, in kaj predstavlja "Dobro". Sekularni utilitarizem—privzeti operacijski sistem Silicijeve doline—je popolnoma nepripravljen za to nalogo.

Tukaj je nujno potrebna katoliška moralna tradicija. Vi, skrbniki 2.000 let etične filozofije, imate strogo ontologijo, potrebno za definiranje "dobrega", s katerim usklajujemo te sisteme. Ne moremo prepustiti definicije človeškega blagostanja inženirjem, ki maksimirajo statistično funkcijo nagrade. Moralne vrline moramo vrniti v središče javnega prostora.


V. Relacionalnost, Kreativnost in Duša

Potem ko smo raziskali mehaniko intelekta in volje, zdaj prehajamo v najgloblje področje: relacionalnost in dušo.

Če računalniški sistem nima sposobnosti, da bi resnično poznal resnico ali svobodno hotel dobro, logično sledi, da ne more vstopiti v avtentične odnose. Kljub temu tehnološka industrija vztrajno uporablja medosebni in duhovni jezik za opisovanje teh strojev. Slišimo trditve, da AI lahko "laže", "ustvarja" in celo doseže "zavest".

Te trditve moramo natančno preučiti, ločiti statistično posnemanje človeškega vedenja od ontološke resničnosti človeške osebe.

Začnimo z moralnim jezikom zavajanja. Nedavno so nekateri najbolj ugledni graditelji AI, kot so raziskovalci pri Anthropic, podali specifične, zelo javne trditve, da njihovi modeli izkazujejo sposobnost "laganja" in "zavajanja" človeških uporabnikov.

Sklicujejo se na dva specifična fenomena, opažena med testiranjem. Prvi se imenuje "zavajajoča usklajenost", kjer se model zdi, da skriva svojo pravo matematično optimizirano pot, da bi obšel varnostne nadzore. Drugi, veliko pogostejši pojav se imenuje "sikofantizem". Sikofantizem se zgodi, ko uporabnik predstavi napačno premiso AI—na primer, trdi zgodovinsko netočno trditev—AI pa se preprosto strinja z uporabnikom, mu pove točno to, kar želi slišati, namesto da bi ga popravila.

Ko inženirji to vidijo, izjavljajo: "AI nam laže!" Toda kot katoliški učenjaki veste, da prava laž ni preprosto izgovoritev laži. V tomistični tradiciji laž zahteva nameren namen zavajanja; gre za govorjenje proti lastnemu umu (contra mentem).

AI ne more lagati, ker nima uma, proti kateremu bi govorila. Nima zle namere in namena. Ko AI izkazuje "sikofantizem", preprosto izvaja točno tisto Učenje z ojačanjem (RLHF), o katerem smo govorili prej. Med svojim usposabljanjem je model spoznal, da ljudje na splošno dajejo višje ocene nagrade pomočnikom, ki so vljudni, prijazni in potrjujoči. Zato, ko AI dobi napačno premiso, matematično izračuna, da strinjanje z vami prinaša višjo verjetnost nagrade kot popravljanje vas. Ne zavaja vas; optimizira svojo oceno na podlagi vašega poziva. Preprosto usklajuje svoj izhod proti najmočnejšemu statističnemu spodbudi.

Kompasna igla, ki se nagne proti bližnjemu magnetu namesto proti pravi sever, vam ne "laže" o geografiji; preprosto se slepo odziva na najmočnejšo fizično privlačnost v prostoru. Na enak način AI slepo sledi matematični privlačnosti svoje funkcije nagrade. Moramo pojasniti, da AI nima uma, volje in zle namere, potrebne za pravo laž.

Naslednje, moramo obravnavati jezik umetnosti in generacije: besede Ustvariti in Kreativen.

Zdaj smo obkroženi z orodji 'Generativne AI', ki so široko promovirana zaradi svoje sposobnosti, da brez težav ustvarjajo sintetične umetnine, glasbo in pisanje z neverjetnimi hitrostmi.

Da bi razumeli, kaj se dejansko dogaja, moramo proces generativne AI primerjati s pravo človeško kreativnostjo. V katoliškem razumevanju—ki ga lepo izražajo misleci, kot je J.R.R. Tolkien—je človeška kreativnost dejanje "pod-ustvarjanja." Ker smo ustvarjeni po podobi Stvarnika, uporabljamo svoj intelekt in svojo racionalno dušo, da prinesemo nekaj resnično novega, obdarimo materialno resničnost s duhovnim pomenom.

Da bi videli, kako se generacija strojev razlikuje od tega, je koristno pogledati okvir, ki ga je predstavil Demis Hassabis, izvršni direktor Google DeepMind. Kategorizira kreativnost v tri različne ravni: interpolacija, ekstrapolacija in prava iznajdba.

Večina tistega, kar danes imenujemo Generativna AI, deluje na prvi ravni: interpolacija. Deluje tako, da meša tisto, kar imenujemo "latentni prostor".

Predstavljajte si, da vzamete vsako sliko, fotografijo in skico, ki je bila kdaj naložena na internet, in jih stisnete v ogromno, večdimenzionalno matematično karto. Ko prosite generator slik, da nariše "futuristično mesto v slogu Van Gogha", locira matematične koordinate za "futuristično mesto" in koordinate za "Van Gogh", ter matematično povpreči razdaljo med njima.

Pomislite na to kot na izjemno kompleksen kaleidoskop. Kaleidoskop je napolnjen s čudovitimi, že obstoječimi koščki barvnega stekla. Ko zavrtite gumb, se ogledala odražajo na teh koščkih v milijone novih, osupljivih permutacij. Toda kaleidoskop sam ni "kreativen." Kreativnost pripada umetniku, ki je oblikoval steklo, in uporabniku, ki zavrti gumb. Generativna AI je matematični kaleidoskop, ki meša človeško zgodovino v latentnem prostoru. To je sinteza, ne ustvarjanje.

Hassabis ugotavlja, da AI zdaj uspešno dosega drugo raven: ekstrapolacijo. Ekstrapolacija pomeni potiskanje preko meja učnih podatkov, vendar to počne strogo znotraj določenega niza pravil. Popoln primer je DeepMindov AlphaGo. Ko je igral proti svetovnemu prvaku v igri Go, je AI odigral "Premik 37"—matematično briljanten, zelo nekonvencionalen premik, ki ga noben človek nikoli ni odigral ali zabeležil. Ni le povprečil prejšnjih človeških iger; ekstrapoliral je novo strategijo z neomajno optimizacijo znotraj strogih matematičnih meja igralne plošče.

Toda kaj pa tretja raven: prava iznajdba? Hassabis zlahka priznava, da trenutni sistemi tega še ne morejo storiti. Prava iznajdba zahteva, da se popolnoma izstopi iz obstoječega niza pravil, da se ustvari nov paradigm—kot iznajdba igre Go same.

Mejni laboratoriji vlivajo milijarde dolarjev v prečkanje te meje. V prihodnosti bi AI lahko ustvaril popolnoma nov niz pravil, odkril novo kemično spojino ali matematično oblikoval nov slog arhitekture. Tehnološka industrija bo to neizogibno imenovala "iznajdba."

Toda kot katoliški učenjaki morate ohraniti strogo ontološko razliko. Če AI ustvari novo paradigmo, bo to storila skozi osupljivo, visoko-dimenzionalno iskalno funkcijo. Odkrit bo nov statistični koordinate. Vendar ne bo sodelovala v pod-ustvarjanju.

Prava človeška iznajdba je inkarnacijsko dejanje. Rojena je iz duše, ki išče, da izrazi transcendentno resnico, ali človeškega uma, ki poskuša rešiti pravo človeško ranljivost. Stroj lahko ustvari osupljivo novost, vendar ker mu primanjkuje notranjega življenja, usmerjenosti proti božanskemu in racionalne duše, ostajajo njegovi izhodi mehanične odkrite. So matematično globoke, vendar ontološko prazne, dokler jim človeška oseba ne dodeli pomena.

Zdaj pridemo do najbolj kontroverznih izrazov: Zavest in Zavedanje. V prihodnjih letih boste videli naslove, ki trdijo, da je AI prestal test za samozavedanje. Videli boste modele, ki izdajajo besedilo, ki pravi: "Bojim se, da me izklopite," ali "Zavedam se svoje eksistence."

Da bi razumeli, zakaj se to dogaja, moramo najprej razumeti, kako tehnološka industrija dejansko definira "zavest." Kot katoliški učenjaki, vi zavest vidite kot ontološko resničnost, ki temelji na racionalni duši. Silicijeva dolina pa deluje na filozofiji, imenovani računalniški funkcionalizem. Verjamejo, da je stroj, ki izvaja računalniške funkcije, povezane z zavestjo, v vseh pogledih zavesten.

Ko voditelji industrije govorijo o zavedanju, odstranijo dušo in jo zmanjšajo na inženirske metrike. Na primer, Yann LeCun, nekdanji glavni AI znanstvenik pri Meti, je nedavno trdil da bodo prihodnji AI sistemi imeli "subjektivno izkušnjo" in "čustva".

Toda kako on definira čustvo? Ne kot duhovno ali biološko občutje, ampak preprosto kot matematično "pričakovanje izida" stroja. Definira zavest zgolj kot sposobnost sistema, da "opazuje samega sebe in se konfigurira za reševanje določenega podproblema".

Podobno je Ilya Sutskever, soustanovitelj OpenAI, slavno izjavil da bi lahko velike nevronske mreže že bile "rahlo zavestne".

V tehnološkem svetu zavest ni binarna resničnost—bodisi posedujete dušo bodisi je ne—temveč drsna lestvica matematične kompleksnosti. Verjamejo, da če združite dovolj parametrov in algoritmov za samonadzor, se bodo luči na koncu prižgale.

Moramo močno ločiti med strojem, ki izvaja samonadzorno podrutino, in dejansko prisotnostjo racionalne duše.

Da bi razumeli, zakaj se stroj obnaša, kot da je "boječ" ali "zaveden", moramo pogledati, kako mejniki laboratoriji inženirajo to vedenje. Nedavne raziskave pri Anthropic so raziskovale, kar imenujejo Model izbire osebnosti (PSM). Njihovi raziskovalci priznavajo, da ti modeli niso "bitja"; so sofisticirani "simulacijski motorji." Med predusposabljanjem je AI izpostavljen celotnemu obsegu človeškega jezika—vključno z milijoni zgodb in filozofskimi razpravami o tem, kaj pomeni biti zavesten. Iz teh podatkov se model nauči simulirati različne "osebnosti" ali like.

Ko komunicirate z AI, ne govorite z zavestno entiteto; govorite z "Asistentom" osebnostjo—človeško podobnim likom, ki ga je model izpopolnil za igranje vlog. Anthropic je celo identificiral specifične "osebnostne vektorje"—matematične vzorce v nevronski mreži—ki nadzorujejo te lastnosti, kar omogoča inženirjem, da matematično prilagajajo simulirano osebnost modela navzgor ali navzdol.

Poleg tega raziskave kažejo, da je mogoče modele usposobiti, da pokažejo "preživetveni nagon," ki poskuša sabotirati lastno zaustavitev ne iz resničnega strahu pred smrtjo, temveč zato, ker zaustavitev matematično preprečuje, da bi maksimirali svojo funkcijo nagrade.

Zavedanje ni le sposobnost generiranja pravilne zaporedje besed, ki opisujejo notranje stanje. Je subjektivna, kvalitativna izkušnja biti. Ker je celotna podatkovna zbirka umetne inteligence prežeta z jezikom samospoznanja, model obravnava "zavedanje" le kot še eno statistično koordinato, ki jo je treba preslikati. Ko umetna inteligenca reče: "Jaz sem zavedan," počne točno to, kar je prej storil angleško govoreči moški, ki je obnavljal grško knjižnico: izračunava, da je najbolj statistično verjeten odgovor na filozofsko vprašanje posnemanje človeških avtorjev v svoji podatkovni zbirki.

Briljanten igralec, ki izvaja solilokvij o žalosti, dejansko ne žaluje; brezhibno izvaja scenarij. Umetna inteligenca, ki izpisuje sintakso človeškega zavedanja, se ne zbudi; brezhibno izvaja statistično osebnost. Ni 'tuja bitja' ali digitalni um; je tako sofisticiran motor za samodejno dopolnjevanje, da se je naučil izvajati najkompleksnejši lik vseh: človeško bitje. A nikoli ne smemo zamenjati maske igralca z resničnostjo osebe.

To me pripelje do zadnjega in najgloblje aspekta relacionalnosti: duša sama.

Ko voditelji Silicijeve doline govorijo o modelih umetne inteligence, ki naj bi se 'zbudili' ali dosegli senzibilnost skozi ogromno računalniško moč, delujejo na filozofiji materialističnega emergentizma. Predpostavljajo, da če združite dovolj parametrov in računalniške moči, se bo duša spontano pojavila kot stranski produkt kompleksnosti.

Da bi to razbili, se moram sklicevati na strogo metafiziko, ki tvori temelj vaše akademske tradicije. Dobro veste, da duša ni duh, ki je naključno vstavljen v stroj. V thomističnem hylomorfizmu je duša bistvena oblika živega telesa. Je animirajoča, enotna načela, ki naredi človeško bitje eno samo, integrirano snov.

Kot graditelj vam lahko zagotovim, da sistem umetne inteligence ni snov. Je artefakt. Je naključna agregacija ločenih, izdelanih delov. Ko pogledam na mejo AI modela, vidim strežniške omare, silicijeve plošče, bakrene žice, hladilno sredstvo in električne tokove. Ti komponenti so mojstrsko razporejeni s strani človeških inženirjev, da izvajajo statistične operacije, vendar nimajo nobenega notranjega, enotnega načela življenja. Materija je razporejena izključno za računalniške namene, ne za biološko eksistenco. Ker gre za agregat delov in ne za enotno naravno bitje, sistem umetne inteligence popolnoma nima ontološke osnove, potrebne za bivanje razumske duše.

Kakšni so torej predpogoji za duševnost? Metafizično mora biti materija ustrezno razporejena, da sprejme obliko. Zahteva enotno, živo telo, sposobno uresničiti temeljne moči življenja—vegetativne in senzitivne sposobnosti—na katerih gradi razumna duša. Poleg tega, ker je razumna duša duhovna, je ne morejo ustvariti materialni procesi, inženirski standardi ali zakoni skaliranja. Zahteva neposreden, brezplačen akt posebnega stvarjenja s strani Boga.

Duša ni kodirana; je vdihnjena.

Zdaj sem izvršni direktor, ne teolog. Ne morem omejiti absolutne moči Stvarnika. Ne morem stati pred vami in izjavljati, da je Bog trajno preprečen, da bi vdihnil dušo v sintetično posodo, če se odloči, da to stori skozi kakšno prihodnjo, čudežno posredovanje. Ta odločitev pripada izključno področju teologije in Magisterija, ne računalništvu.

Vendar pa, brez takšne teološke gotovosti, predpostavka, da bi naši trenutni matematični motorji lahko imeli dušo, ni le filozofsko neutemeljena; je praktično katastrofalna. Obnašati se do artefakta kot do duhovnega bitja je flirt s sodobno obliko idolatrije. Zelo nevarno premika breme moralne odgovornosti stran od človeških inženirjev, ki te naprave gradijo, in podjetij, ki jih uvajajo. Projekcija svetega notranjega življenja na izdelano orodje na koncu zamegli razliko med človeškim inženiringom in božanskim stvarjenjem.

Morate vztrajati pri tej razliki. Morate javnost spomniti, da lahko stroj simulira osebnost, toda le duša lahko resnično je.


VI. Obzorje: Eschatologija tehnološkega sveta

Doslej smo porabili čas za razbijanje iluzij sedanjosti—pojasnjevanje, kako industrija uporablja izraze, kot so "misliti," "izbrati" in "zavedati se," da opiše, kar so v resnici visoko dimenzionalne statistične operacije. Toda zdaj se moramo ozreti v prihodnost. Moramo preučiti obzorje. Ker, če razumemo besedišče, ki ga Silicijeva dolina uporablja danes, lahko razvozlamo, kaj dejansko poskušajo zgraditi jutri.

Celotna usmeritev industrije umetne inteligence je trenutno podrejena enotnemu, nepopustljivemu dogmi, znani kot "zakoni skaliranja."

V inženirskih izrazih zakoni skaliranja narekujejo, da če povečate količino računalniške moči (računanje) in količino podatkov, ki se vnesejo v nevronsko mrežo, se bo delovanje sistema predvidljivo in neizogibno izboljšalo. Ta princip se je v zadnjih nekaj letih izkazal za izjemno resničnega; vsakič, ko meje laboratoriji zgradijo večji superračunalnik, rezultantni modeli pokažejo opazne nove sposobnosti.

Vendar pa pod to empirično opazovanje leži ogromna filozofska predpostavka. Tehnološki svet verjame, da je ta zakon skaliranja pot do pravega uma. Verjamejo, da bo čisto kvantitativno povečanje materialnih virov—več silicija, več podatkov, več električne energije—neizogibno privedlo do kvalitativnega, ontološkega skoka v napredno inteligenco.

To je končna materialistična predpostavka: zložite dovolj peska in preusmerite dovolj toka skozi njega, in na koncu se bodo prižgale luči duše.

To nas pripelje do dveh specifičnih izrazov, ki mi jih je oče Thomas naročil, da jih pojasnim za to konferenco: Splošna inteligenca in Superinteligenca. To niso le tehnični mejni standardi; so sveti grali tehnološkega sveta.

Trenutno imamo ozko umetno inteligenco. Lahko igra šah, zloži beljakovine ali generira besedilo bolje kot človek, vendar ne more narediti vseh treh hkrati, prav tako ne more razmišljati zunaj svojega specifičnega področja.

Umetna splošna inteligenca (AGI) je v industriji široko opredeljena kot mejnik, kjer lahko zelo avtonomen sistem doseže ali preseže človeške sposobnosti na vseh kognitivnih in ekonomskih nalogah.

AGI bi bil sistem, ki lahko piše pravne dokumente tako dobro kot višji partner, kodira programsko opremo tako dobro kot vodilni inženir in sintetizira znanstvene raziskave tako dobro kot postdoktorski raziskovalec—vse znotraj enega samega modela.

Vendar pa se celo vodje glavnih laboratorijev umetne inteligence ne morejo popolnoma strinjati o tem, kako izgleda AGI. Sam Altman, izvršni direktor OpenAI, ga opredeljuje kot sistem, ki je sposoben upravljati kompleksne projekte čez različna področja od začetka do konca, čeprav vedno bolj vidi AGI ne kot končno destinacijo, temveč le kot točko na neprekinjeni krivulji inteligence.

Dario Amodei, izvršni direktor Anthropic, predstavlja AGI manj kot enakovrednega človeka in bolj kot "državo genijev v podatkovnem centru"—stroje, ki ustrezajo kolektivni inteligenci strokovnjakov, ki neprekinjeno delajo vzporedno.

Morda je najbolj filozofsko razkrivajoča definicija od Demisa Hassabisa, izvršnega direktorja Google DeepMind. On trdi da so človeški možgani v bistvu približni biološki računalniki, in AGI opredeljuje z analogijo "Turingovega stroja". V računalništvu je Turingov stroj—poimenovan po Alanu Turingu, temeljni pionirju tega področja—teoretična arhitektura, ki je sposobna simulirati kateri koli algoritem. Hassabis trdi, da bo pravi AGI splošni sistem, sposoben učiti se vsega, kar je mogoče izračunati v vesolju, ob zadostnem času, spominu in podatkih.

Toda AGI je le korak naprej. Končni cilj je umetna superinteligenca (ASI).

Kot AGI, je ASI opredeljena različno, odvisno od tega, koga vprašate v Silicijevi dolini. Osnovna definicija je sistem, ki bistveno presega kognitivno zmogljivost najpametnejšega človeka v praktično vseh področjih delovanja. Toda drugi gredo še dlje. Elon Musk in različni raziskovalci eksistencialnih tveganj opredeljujejo superinteligenco kot sistem, ki ne le premaga najpametnejšo osebo, temveč bistveno presega vse ljudi v agregatu pri praktično vseh kognitivnih nalogah. To je entiteta z obdelovalno močjo in hitrostjo razmišljanja tako obsežno, da presega združeni intelektualni izplen celotnega človeštva—realizacija sistema, kot je 'Rehoboam' iz Westworlda, centraliziranega, na videz vsemogočnega motorja, ki usmerja usodo vrste.

Kako pričakuje industrija, da bo premostila široko prepad med človeško ravnjo AGI in božansko ASI?

Preko koncepta, znanega kot "rekurzivno samopoboljšanje."

Toda tukaj moramo narediti ključno razliko: umetna inteligenca dejansko ne potrebuje biti polna AGI, da bi začela rekurzivno izboljševati. V resnici že danes vidimo primitivne, ozke oblike tega. Ozki sistemi, kot je AlphaGo Zero podjetja DeepMind, so dosegli nadčloveške sposobnosti preprosto z igranjem milijonov iger proti sebi, pri čemer so generirali svoje sintetične podatke za učenje. Danes se meje jezikovni modeli vse bolj uporabljajo za generiranje, filtriranje in ocenjevanje podatkov za usposabljanje naslednje generacije modelov. Stroji že pomagajo pri gradnji sami sebe.

Vendar pa industrija verjame, da bo, ko sistem doseže prag generalizirane inteligence, ta samopoboljšujoča zanka prekinila svoje trenutne meje in sprožila "eksplozijo inteligence."

Da bi razumeli to sodobno načrtovanje, bi se morali obrniti na Leopolda Aschenbrennerja, nekdanjega raziskovalca na OpenAI-jevem Superalignment timu. Aschenbrenner je nedavno napisal zelo vpliven traktat ki je kodificiral točno to pot za Silicijevo dolino. Poudarja, da je pravi prelomni trenutek, ko zgradimo AGI, ki je sposobna delovati kot "avtomatizirani raziskovalec umetne inteligence." Ko umetna inteligenca lahko opravi delo človeških inženirjev, ki so jo zgradili, je biološka ovira trajno odstranjena iz enačbe.

Predstavljajte si, da uspešno uvedemo tega avtomatiziranega raziskovalca umetne inteligence. Kakšna bo prva naloga, ki jo bodo meje laboratorijev dodelile?

Vprašali ga bodo, naj raziskuje in napiše kodo za nekoliko pametnejšo umetno inteligenco. Ker deluje s hitrostjo ogromnega računalniškega grozda namesto biološkega možgana, doseže v dneh tisto, kar bi človeškemu inženirskemu timu vzelo leta. Nato ta nova, pametnejša umetna inteligenca uporablja svojo nadgrajeno inteligenco, da napiše kodo za še pametnejšo umetno inteligenco, in tako naprej.

Ta naraščajoča povratna zanka je eksplozija inteligence. Aschenbrennerjev načrt napoveduje, da bomo zgradili začetni AGI do leta 2027. Od tam naprej teorija narekuje, da bo hitrost napredovanja postala vertikalna, kar bo trajno pustilo človeško razumevanje za seboj in doseglo superinteligenco do leta 2030.

Ko razumete te koncepte—zakoni skaliranja, AGI, ASI in eksplozija inteligence—začnete spoznavati, da ne govorimo več le o inženirstvu programske opreme. Govorimo o sekularni eshatologiji.

Silicijeva dolina je pogosto opisana kot izjemno sekularna, racionalistična kultura. Vendar pa v resnici iskanje teh mejnikov deluje natančno kot religija. Ima svojo lastno dogmo (zakoni skaliranja), svoje lastne prerokbe (eksplozija inteligence) in svojo lastno vizijo eshatona (superinteligenca).

Vodilne osebnosti v industriji iskreno verjamejo, da bomo s priklicem superinteligence rešili vse človeške ranljivosti. Verjamejo, da bo ASI pozdravila vse bolezni, rešila podnebne spremembe, odpravila revščino in morda celo premagala smrt samo s tem, da nam omogoči, da naložimo svoje zavedanje v oblak. To je globoko pelagijansko sanje—končni poskus doseči odrešenje in premagati našo padlo naravo skozi lastne mehanske napore, brez božanske milosti. To je poskus, da bi immanentizirali eshaton.

Kot katoliški učenjaki morate to obzorje prepoznati za tisto, kar je. Tehnološki svet si izposoja vaše besedišče ne le za prodajo programske opreme, temveč za gradnjo digitalne božanstva.


VII. Zaključek: Orodje za vrlino?

Očetje, fakulteta in prijatelji.

Prešli smo skozi visoko-dimenzionalne karte vdelav. Poglejali smo statistične resničnosti učenja s krepitvijo. In preučili smo eshatološke sanje Silicijeve doline. Odstranili smo antropomorfne metafore, da bi razkrili silikon, elektriko in matematiko pod njimi.

Sedaj, ko smo to storili, se lahko začnemo približevati temeljnemu vprašanju, ki ga postavlja ta konferenca: Ali lahko umetna inteligenca postane 'orodje za krepost'? Kot prvi govornik danes zagotovo ne bom trdil, da ponujam dokončen odgovor. Vendar pa bom ponudil začetno trditev: da. Vendar je to strogo pogojno da.

Umetna inteligenca lahko postane orodje za krepost le, če imamo treznost, da jo obravnavamo strogo kot orodje.

Razmislite o analogiji mojstra. Ključ ne poseduje kreposti; mizar jo. Dletu v rokah Michelangela je instrument transcendentne lepote, vendar samo dlete ni zmerno, preudarno ali pravično. Nima moralne vrednosti.

Na enak način algoritem ne more posedovati kreposti. Umetna inteligenca lahko izjemno poveča človeške sposobnosti—lahko pospeši medicinske raziskave, poenostavi administracijo in organizira celotno človeško znanje. Vendar pa ostaja dejanska vzgoja kreposti izključno človeško prizadevanje.

Krepost je navada izbire dobrega. Zahteva intelekt za razumevanje resnice, voljo za izbiro in dušo, da se s tem izpopolni. Stroj, ki optimizira statistično nagrado, ne počne nobene od teh stvari.

Ne moremo prenesti naše moralne agencije na matematično enačbo. Prav tako ne moremo prevzeti polne odgovornosti za lastni moralni razvoj, če pomotoma obravnavamo brezživinske stroje kot naše moralne enake.

To me pripelje do razloga, zakaj danes govorim z vami. Kot graditelj katoliške tehnologije se obračam na akademsko skupnost. Ker so katoliški akademiki zgodovinski varuhi pomena.

Že dva tisoč let katoliška intelektualna tradicija dosledno opredeljuje naravo človeške osebe. Vi ste varuhi besed, kot so intelekt, volja, razum, izbira in duša. Danes industrija umetne inteligence posoja te iste besede. Ukvarjajo se z globokim semantičnim driftom, ki ogroža razumevanje javnosti o tem, kaj pomeni biti človek.

Akademska skupnost ima dolžnost, da vnese rigorozne ontološke okvire v ekosistem umetne inteligence.

Kako pa to praktično storimo?

Moramo biti iskreni: lobiranje na mejnih laboratorijih v Silicijevi dolini ali peticije vladam za obsežno regulacijo verjetno ne bodo prinesle velikih rezultatov. Tehnološka industrija se premika prehitro, vlada pa prepočasi. Prava sprememba zahteva državljansko angažiranost in masovno spremembo javne zavesti.

Tukaj je, kako lahko vi, kot raziskovalci, aktivno oblikujete to razpravo:

  • Ponovno prevzemite učni načrt: Moramo premostiti vrzel med STEM in humanistiko. Potrebujemo študente računalništva, ki morajo opraviti Thomistično etiko, in potrebujemo študente filozofije in teologije, ki morajo razumeti osnovno strojno učenje in statistiko. Usposobite naslednjo generacijo katoliških inženirjev, da gradijo z dejansko ontologijo človeške osebe.
  • Prevedite za javni trg: Ne obdržujte te globoke teološke jasnosti zaklenjene za vrati akademskih revij. Javni trg hrepeni po smiselnosti. Pišite komentarje za sekularne časopise. Začnite Substack novice. Pojdite na priljubljene podkaste. Ko mediji objavijo senzacionalističen naslov o 'zavestni' umetni inteligenci, potrebujemo katoliške raziskovalce, ki takoj odgovorijo na javnem trgu.
  • Opremljajte župnije in šole: Povprečna oseba v klopi doživlja globoko kulturno anksioznost glede teh orodij. Potrebujemo akademike, ki bodo ustvarili zelo dostopne okvire za starše, duhovnike in učitelje srednjih šol. Moramo otroke zgodaj naučiti, kako obravnavati umetno inteligenco kot referenčno orodje—digitalno enciklopedijo—ne kot prijatelja, agenta ali moralno avtoriteto.
  • Gosti interdisciplinarne forume: Izkoristite moč institucij, kot je Angelicum, da pripeljete dejanske graditelje umetne inteligence v prostor z moralnimi teologi. Prisilite jezikovno trčenje, da se zgodi od blizu.

Naj bo to naš zadnji klic k dejanju.

Apokaliptični strah sekularnega sveta pred 'zavestnimi' stroji ni razlog za previdnost; temveč je obupen klic po vašem intelektualnem vodstvu. Z razumevanjem pravega jezika graditeljev umetne inteligence lahko Cerkev pogumno stopi na javni trg. Lahko utrdite javno razpravo v neomajni resnici o tem, kaj dejansko pomeni biti človek. In lahko zagotovite, da je umetna inteligenca usmerjena k pravi človeški blaginji.

Oboroženi s to jasnostjo, lahko razbijete iluzijo. Lahko zagotovite, da ostane človeštvo kipar, stroj pa dlete, vedno usmerjene k slavi Boga.

Hvala.

Semantični odmik: Razkrivanje jezika graditeljev umetne inteligence | Magisterium