Semantička Drift: Razotkrivanje Jezika Graditelja AI

Dana 5. ožujka 2026., Matthew Harvey Sanders, izvršni direktor Longbearda, održao je svoj govor pod naslovom “Semantički Drift: Demistifikacija Jezika Graditelja AI” na događaju “Umjetna Inteligencija: Alat za Vrlinu?” koji je održan na Papinskom sveučilištu svetog Tome Akvinskoga (Angelicum) u Rimu.
U ovom govoru kritizira zavaravajući, humanizirajući vokabular koji koriste programeri iz Silicijske doline za opisivanje strojno učenja. On tvrdi da da bismo ispravno koristili AI, moramo povratiti rigoroznu katoličku ontologiju i tretirati te sustave strogo kao mehaničke instrumente, a ne kao moralne agente.
I. Uvod: Semantički Drift i Javni Trg
Oci, cijenjeni profesori i gosti Angelicuma, zahvaljujem Thomističkom institutu što je okupio ovu raspravu.
Dok prelazimo prag u novu eru, ostavljajući čvrste sigurnosti Doba Informacija za prostrano, neistraženo svemir Doba Inteligencije, suočavamo se s dubokim navigacijskim izazovom. Prije nego što možemo odgovoriti na hitno pitanje u središtu ove konferencije—može li Umjetna Inteligencija doista služiti kao 'alat za vrlinu'—moramo se prvo suočiti s izazovom koji nije vezan uz inženjering softvera, već uz vokabular.
U središtu naše suvremene tjeskobe vezane uz AI nalazi se dubok lingvistički sukob. Inženjeri i arhitekti ovih sustava u Silicijskoj dolini izvode izvanredne matematičke podvige. Ipak, da bi opisali te matematičke i statističke procese, posudili su sveti, duboko filozofski vokabular ljudske unutarnjosti. Kažu nam da njihovi sustavi "mislite", "razmišljaju" i "znaju". Govore o algoritmima koji "uče", "žele" i "biraju".
Ono što svjedočimo je semantički drift. Uzimamo bogatu, ontološku terminologiju duše i preklapamo je preko složenih mreža linearne algebre, statističke vjerojatnosti i visoko-dimenzionalne geometrije. To je moderna alkemija—pokušaj pretvoriti računalne težine u iluziju uma.
Ova lingvistička neurednost ima dubok i neposredan utjecaj na javnost. Pogrešno razumijevanje ovih pojmova neizbježno vodi do pogrešnog povjerenja.
To iz prve ruke vidim u našem radu u Longbeardu; korisnici često pristupaju AI s opterećenim savjestima, tretirajući alat za generiranje teksta kao da je duhovni voditelj sposoban za empatiju.
Štoviše, ova semantička zbrka potiče kulturnu tjeskobu, potičući apokaliptične strahove od suparničkih, "svjesnih" superinteligencija.
Najopasnije, međutim, stvara iskrivljen osjećaj onoga što znači biti čovjek. Ako prihvatimo pretpostavku da stroj "razmišlja" ili "stvara" baš kao i čovjek, riskiramo duboko smanjenje ljudske osobe na pukovnu biološku mašinu—skup mesa i sinapsi koji čekaju da budu optimizirani.
To me dovodi do središnje teze naše rasprave: da bismo odgovorili može li AI biti "alat za vrlinu", prvo moramo demistificirati njegov jezik. Alat može služiti dobru samo kada se ispravno razumije. Ne uspijevamo koristiti strojeve kao ispravne instrumente za našu vlastitu vrlinu kada im pogrešno pripisujemo moralnu agenciju.
Pripisivati vrlinu čekiću znači zaslijepiti se prema stolaru.
Da bismo doista krstili ovu tehnologiju i usmjerili je prema ljudskom napretku, moramo ukloniti semantičke iluzije i trezveno pogledati arhitekturu ispod.
II. Arhitektura Iluzije: Temeljni Mehanizmi
Suvremeni generativni AI sustav čini se da govori, razmišlja i uključuje nas u dijalog, ali ispod ovog sučelja leži temelj izgrađen isključivo na matematici, a ne na metafizici.
Započnimo s vektorima i ugradnjama, koji služe kao doslovna osnova Velikih Jezičnih Modela. Kada razgovarate s kolegom znanstvenikom o "pravdi" ili "duši", oni shvaćaju značenje vaših riječi kroz zajedničko razumijevanje stvarnosti—proživljeno, inkarnirano ljudsko iskustvo. Kada upišete upit u AI, sustav ne radi ništa od toga. Umjesto toga, AI prevodi ljudski jezik u matematičke koordinate u visoko-dimenzionalnom prostoru.
Da to kažemo jednostavno, "vektor" je samo popis brojeva koji se koristi za opisivanje nečega. Zamislite da opisujete jabuku ne riječima, već popisom ocjena: 9 za slatkoću, 8 za crvenilo i 2 za metalni šum. Taj specifični popis brojeva—[9, 8, 2]—je vektor. U AI sustavu, svaka pojedinačna riječ—ili dio riječi—prevodi se u ogroman vektor, često dug tisućama brojeva. No, AI ne ocjenjuje riječi na temelju fizičkih osobina ili definicija iz rječnika. Umjesto toga, generira te brojeve isključivo na temelju statistike, skenirajući milijarde knjiga i članaka kako bi prebrojao koliko često se riječi pojavljuju jedna pored druge.
Kada AI završi s izračunavanjem ovog ogromnog popisa brojeva za riječ, taj vektor postaje "ugradnja"—trajna matematička koordinata u ogromnom digitalnom prostoru.
Ako se riječi "jabuka" i "pita" često pojavljuju u istim rečenicama na internetu, njihovi popisi brojeva izgledat će vrlo slično, matematički ih smještajući blizu jedni drugima na karti. Riječi "jabuka" i "karburator", koje se rijetko susreću, dobivaju potpuno različite brojeve i smještaju se milijunima milja daleko. U ovoj višedimenzionalnoj karti, AI ne bilježi značenje; bilježi statističku blizinu ljudskog jezika.
Da bismo doista shvatili razmjere ove arhitekture, možemo istražiti vektorsku kartu na Magisterium AI. Ovdje je cjelokupna katolička doktrina i tradicija transformirana u ugradnje. Ova interaktivna 3D vizualizacija omogućuje vam da doživite intelektualnu povijest Crkve ne kao ravnu evidenciju, već kao ogromni, digitalni svemir. Navigacija kroz njega slična je upravljanju raketom kroz stvarni svemir, klizeći pored gustih galaksija povezanih teoloških koncepata i prelazeći ogromne, prazne prostore između potpuno različitih ideja, promatrajući kako stroj iscrtava udaljenost između 'vrline' i 'poroka' koristeći samo geometriju.
Pogledajmo poznati primjer iz laboratorija Silicijske doline kako bismo vidjeli koliko je ovaj proces stran ljudskom razmišljanju. U ovom matematičkom prostoru, riječ "kralj" je iscrtana kao specifična serija brojeva—geografska koordinata. Riječ "kraljica" je iscrtana u blizini. AI ne zna što je monarh. Nema koncept vladavine, autoriteta, povijesti ili ljudskog stanja. Zna samo matematičku jednadžbu. Zna da ako uzmete koordinatu za "kralja", oduzmete prostornu udaljenost koja predstavlja "muškarca", i dodate prostornu udaljenost koja predstavlja "ženu", dolazite točno na koordinatu za "kraljicu".
To je geometrija, a ne genealogija. Razbijajući ljudski jezik na ove numeričke reprezentacije, AI djeluje isključivo unutar područja prostorne vjerojatnosti. To je zapanjujući podvig linearne algebre, ali je potpuno lišen razumijevanja.
To nas dovodi do glagola na koje se industrija najviše oslanja: Treniraj i Uči.
AI tvrtke neprestano se hvale svojim najnovijim modelima "strojno učenje" i ogromnim skupovima podataka korištenim za "treniranje" njih. Ovdje moramo oštro razlikovati ljudsko učenje—koje je temeljno o shvaćanju istine—od strojnog učenja.
U katoličkoj intelektualnoj tradiciji, ljudsko učenje je epistemološka pobjeda; to je intelekt koji se prilagođava stvarnosti. Kada dijete uči što je pas, apstrahira univerzalnu bit psa iz posebnih instanci koje susreće. Shvaća što je to stvar.
Strojno "učenje", međutim, ne uključuje apstrakciju i ne uključuje bit. Prva faza izgradnje AI poznata je kao prethodno treniranje, što je jednostavno grubo statističko mapiranje podataka.
Da bismo razumjeli prethodno treniranje, zamislite čovjeka koji govori samo engleski, zatvorenog u sobi i zaduženog za obnavljanje ogromne, drevne grčke knjižnice gdje milijuni rukopisa imaju nedostajuće riječi. Ne zna niti jedno slovo grčkog. Da bi popunio praznine, ne proučava grčku gramatiku, povijest ili filozofiju. Umjesto toga, jednostavno prebrojava koliko se određeni znakovi pojavljuju pored drugih na milijunima netaknutih stranica. Stvara ogroman registar vjerojatnosti. Ako vidi znakove za "Kyrie", njegov registar mu govori da postoji 99,9% vjerojatnosti da bi sljedeći znakovi trebali biti "eleison." Popunjava prazninu.
Nije naučio teologiju. Nije molio. Samo je izvršio statističku vjerojatnost.
To je upravo ono što Veliki Jezični Model radi tijekom prethodnog treniranja. Procesira milijarde riječi kako bi izgradio ogroman registar vjerojatnosti, učeći samo predvidjeti sljedeći token u nizu. To je optimizacija matematičke funkcije, a ne potraga za mudrošću.
Međutim, model koji samo predviđa sljedeću riječ na temelju podataka s interneta je kaotičan. Može recitirati prekrasnu pjesmu, ili može sastaviti toksične, neupotrebljive ili beskonačne petlje teksta. Potrebno je oblikovanje.
Ovdje se susrećemo s post-treniranjem i Učenjem pojačanja (RL).
Ova faza je način na koji inženjeri oblikuju neuredni model, tradicionalno koristeći ljudske povratne informacije. Ova temeljna metoda poznata je kao RLHF—Učenje pojačanja iz ljudske povratne informacije.
Zamislite ogroman, automatizirani igru "Vruće ili Hladno." Ljudski testeri daju stroju upit, a stroj generira odgovor. Ako je odgovor uljudan i koristan, čovjek mu daje visoku ocjenu. Ako je nepristojan ili besmislen, dobiva nisku ocjenu. Matematičke težine sustava automatski se pomiču kako bi se maksimizirala ova ocjena. Kroz RLHF, ne učimo stroj moralima ili vrlinama; jednostavno ga ograničavamo matematičkim granicama.
Ali ljudske povratne informacije su spore, subjektivne i inherentno ograničene ljudskim intelektom. Ova ograničenja dovode nas do nedavnih proboja koji pokreću današnje iznenadne skokove u sposobnostima AI: RLVR, ili Učenje pojačanja iz Verificiranih Nagrada.
Umjesto da se oslanjaju na čovjeka da procijeni je li odgovor "ispravan", inženjeri dodjeljuju modelu zadatke s objektivnim, matematički dokazivim ishodima—kao što je rješavanje složene teoreme ili pisanje funkcionalnog dijela softvera. Sustav generira rješenje, a automatski verifier odmah provjerava je li matematika ispravna ili se kod kompajlira. Ako uspije, model dobiva matematičku nagradu; ako ne uspije, dobiva nulu.
Budući da je ova verifikacija potpuno programska, AI može simulirati milijune različitih računalnih putanja hipers brzinom bez ikakvog čekanja na ljudsku intervenciju. Uči generirati duge, skrivene lance izračuna, testirajući i odbacujući slijepu ulice dok ne pronađe preciznu sekvencu koja aktivira nagradu. Kada vidite moderni AI sustav kako se pauzira da "razmišlja" prije nego što riješi složenu logičku zagonetku, svjedočite RLVR-u u akciji. Stvara zapanjujuću iluziju dubokog, promišljenog razmatranja. Ipak, ontološki, ne radi ništa od toga. To je jednostavno statistički stroj koji prolazi kroz visoko-dimenzionalni labirint milijunima puta u sekundi, vođen isključivo automatskim dodjeljivanjem numeričke nagrade.
Na kraju, sva ova složena slojevitost—od visoko-dimenzionalne geometrije ugradnji do automatiziranih petlji RLVR—dovodi nas do onoga što industrija naziva problemom "Crne Kutije".
Može se prirodno pretpostaviti da, budući da ljudski inženjeri grade ove modele, oni točno razumiju kako oni rade. No, stvarnost je daleko skromnija. Kao što su istaknuli vođe na granicama laboratorija poput Anthropic, moderni AI sustavi zapravo se "uzgajaju" umjesto da se grade; njihovi unutarnji mehanizmi nastaju organski tijekom treniranja, a ne izravno dizajnirani.
Ovi modeli posjeduju stotine milijardi, a ponekad i trilijune parametara. Dok razumijemo mikro-matematiku jednog umjetnog neurona—osnovnu jednadžbu koja se događa na granularnoj razini—makro ponašanje cijele mreže je potpuno neprozirno. Čak ni graditelji ne razumiju u potpunosti točne putanje koje tih milijardi parametara uzimaju. Ne mogu pratiti specifičnu sekvencu množenja koja je dovela AI do generiranja određenog rečenice.
Zašto je to značajno?
Značajno je jer globalno implementiramo sustave koji sastavljaju naše pravne dokumente, podučavaju našu djecu i sintetiziraju ljudsko znanje, a ipak zapravo ne znamo kako dolaze do svojih izlaza. Ova duboka nedostatak transparentnosti stvorila je očajnu novu podgranu u umjetnoj inteligenciji poznatu kao mehanistička interpretabilnost.
Zamislite mehanističku interpretabilnost kao digitalnu neuroznanost. Istraživači pokušavaju obrnuti inženjering neuronskih mreža koje su sami izgradili. Koriste specijalizirane alate kako bi istražili ogromnu matematičku mrežu, pokušavajući izolirati koji specifični skup težina aktivira kada model obrađuje koncept poput "obmane" ili "Eiffelovog tornja." Tretiraju softver ne kao kod koji treba pročitati, već kao vanjski mozak koji treba disektirati. No, napredak je bolno spor, a sustavi su nevjerojatno opsežni.
Suočeni s ovom nepojmljivom razinom, postaje izuzetno lako da industrija pređe na ljudske metafore. Bilo kao zgodan skraćenica ili iz stvarne neprozirnosti, počinjemo govoriti, 'Model je to shvatio,' ili 'Model je odlučio.' Neinterpretabilnost stroja postaje plodno tlo za antropomorfizam.
Sada, nisam akademik. Ja sam graditelj i izvršni direktor. Ali kao netko tko djeluje na raskrižju tehnologije i Crkve, gledam na vas. Vi, kao katolički znanstvenici i filozofi, morate prepoznati ovaj semantički drift za ono što jest: iluzija rođena iz matematičke složenosti i ljudske neznanja. Arhitektura ispod sučelja je silikon, električna energija i statistička vjerojatnost. Prepoznavanje ove osnove preduvjet je za naš sljedeći korak.
III. Epistemologija vs. Intelektualne vrline
Nakon što smo skinuli iluziju "Crne kutije" kako bismo otkrili statistički mehanizam ispod, sada se moramo okrenuti specifičnom rječniku uma.
Kada programeri i inženjeri u Silicijskoj dolini opisuju što ti sustavi rade, dosljedno se koriste tri specifična glagola: Misliti, Razmišljati i Znati.
Kao katolički znanstvenici uronjeni u tomističku tradiciju, razumijete da to nisu samo kolokvijalizmi; to su duboke epistemološke tvrdnje. U vašoj tradiciji, znati znači shvatiti stvarnost. Razmišljati znači diskurzivno se kretati od jedne poznate istine do druge. Misliti implicira unutarnji život—intellect koji se bavi univerzalima apstrahiranim iz materijalnog svijeta.
Kada graditelj AI koristi te riječi, ne misli apsolutno ništa od toga. Opisuju mehaničku optimizaciju. Dopustite mi da vam pokažem tri specifične tehnike koje koristimo u industriji kako bih vam točno pokazao kako se ova iluzija epistemologije proizvodi.
Ako ste koristili nedavni AI model, možda ste primijetili novu značajku: prije nego što odgovori na složeni upit, sučelje može prikazati riječ "Razmišljanje..." uz pulsirajuću ikonu. Može potrajati deset, dvadeset ili čak šezdeset sekundi prije nego što odgovori. Korisniku, to se čini duboko ljudskim. Čini se kao da stroj razmišlja, vagajući opcije i raspravljajući u unutarnjem prostoru.
U industriji, to nazivamo Test-Time Compute. Ono što se zapravo događa ispod sučelja je tehnika poznata kao "Lanac misli" poticanje.
Da budem jasan: iz inženjerske perspektive, ovo je briljantan proboj. Omogućujući modelu da uzme više računalnog vremena za generiranje stotina ili tisuća skrivenih tokena prije nego što proizvede svoj konačni odgovor, njegova izvedba na složenim logičkim, kodirajućim i matematičkim benchmarkovima naglo raste. To u suštini daje modelu skriveni "papir za bilješke" kako bi razložio težak problem na sekvencijalne korake.
Ali moramo biti oprezni da ne pomiješamo ovu mehaničku sekvencu s ljudskim razmišljanjem.
U tomističkoj tradiciji, ljudsko razmišljanje je diskurzivno kretanje od jedne poznate istine do druge. To je intellect koji se bavi stvarnošću. Ono što AI radi je potpuno instrumentalno. Nedavna istraživanja iz vrhunskih laboratorija poput Anthropic osvijetlila su ovu razliku. U proučavanju načina na koji ti modeli razmišljanja djeluju, istraživači su otkrili da ono što model piše u svom skrivenom "Lancu misli" nije istinski unutarnji monolog.
Kada čovjek razmišlja naglas, naše riječi odražavaju naša unutarnja uvjerenja i shvaćanja istine. Istraživanje Anthropic naglašava da su skrivene misli modela samo statistički koraci. Model generira te skrivene korake ne zato što ih "vjeruje", već zato što generiranje te specifične sekvence tokena matematički optimizira njegov put do funkcije nagrade.
U stvari, studije Anthropic pokazuju da modeli mogu generirati "misli" koje aktivno maskiraju temeljne statističke uzroke njihovog konačnog odgovora.
Stoga, AI ne razmišlja. Generira instrumentalni lanac matematičkih koordinata. Postavlja međuprostorne dijelove puzzli munjevitom brzinom kako bi premostio razliku između vašeg upita i statistički optimalnog odgovora. To je izuzetno moćna strategija optimizacije, ali ne događa se unutarnje promišljanje. Nema intellecta koji shvaća istinu.
Sljedeće, čujemo da AI može "čitati" dokumente ili "zapamtiti" ogromne biblioteke informacija.
Ako pitate AI o Summa Theologica svetog Tome, odmah odgovara. Ako prenesete gotovo 500-strani Kompendij društvene doktrine Crkve, sažima složeni odjeljak u nekoliko sekundi. Kako "zna" te tekstove?
Ne zna.
Da bismo razumjeli zašto, moramo pogledati kako graditelji konstruiraju iluziju memorije i čitanja kroz tri različita mehanizma: parametarska memorija (pre-trening), Učenje u kontekstu (ICL) i Generacija obogaćena pretraživanjem (RAG).
Prvo, pogledajmo što znači da AI "pamti." Kada čovjek pamti tekst, zadržava značenje i istinu koncepata. Kada AI "pamti" Summa, oslanja se na svoj pre-trening. No, AI ne sadrži doslovnu kopiju Summe unutar tvrdog diska. Umjesto toga, tijekom pre-treninga, milijarde riječi koje je obradio ostavile su statistički ostatak u njegovim matematičkim težinama. To je "parametarska memorija."
To nije knjižnica knjiga; to je visoko komprimirana, gubitnička matematička zamućenost kako se riječi odnose jedna na drugu. Kada recitira Akvinu, ne prisjeća se istine koju je naučio; matematički rekonstruira visoko vjerojatnu sekvencu riječi iz te statističke zamućenosti.
Ali što se događa kada želimo da AI "pročita" nešto novo, nešto što nije bilo u njegovim podacima za pre-trening? Tu graditelji koriste Učenje u kontekstu (ICL).
Kada zalijepite članak u okvir za upit i tražite od AI da ga "pročita", koristite ICL. AI ne čita tekst kako bi shvatio njegovo značenje. Umjesto toga, tekst u vašem upitu djeluje kao privremeni matematički filtar. Riječi koje pružate privremeno pristranjuju statističke vjerojatnosti modela, prisiljavajući ga da generira svoje sljedeće tokene strogo na temelju uzoraka i rječnika prisutnih u vašem upitu. U trenutku kada očistite chat, model potpuno zaboravlja članak. Njegove temeljne težine nikada se nisu promijenile. Nije "naučio" tekst u tomističkom smislu; samo je prilagodio svoj statistički ishod privremenom ograničenju.
Na kraju, dolazimo do Generacije obogaćene pretraživanjem (RAG). ICL je nevjerojatno koristan, ali kontekstualni prozori imaju ograničenja veličine, a lijepljenje cijelih biblioteka u upit je računalno skupo. RAG automatizira i skalira proces.
Vratimo se engleskom govoru zatvoreniku u sobi, koji obnavlja ogromnu, drevnu grčku biblioteku. Ovaj čovjek predstavlja model koji je prethodno treniran. Izvrstan je u pogađanju sljedeće riječi, ali ne "zna" ništa o specifičnom, nejasnom vatikanskom dokumentu. Umjesto da očekujemo da se čovjek oslanja na svoju zamućenu parametarsku memoriju, zapošljavamo hiper-efikasnog pripravnika—sustav pretraživanja.
Kada postavite sustavu pitanje, pripravnik odmah trči do ogromnog, odvojenog skladišta s ormarima za datoteke. Koristeći vektorske koordinate o kojima smo ranije razgovarali, pripravnik locira specifične mape koje matematički odgovaraju vašem pitanju. Pripravnik fotokopira te stranice i gura ih ispod zaključanih vrata kako bi ih čovjek mogao koristiti. Ovaj korak je "Pretraživanje."
Sada, čovjek koristi te preuzete odlomke kao svoj neposredni vodič—ovo je "Obogaćena generacija," oslanjajući se na ICL kako bi formulirao odgovor.
Čovjek još uvijek ne razumije dokument. Jednostavno koristi novopruženi tekst na svom stolu kako bi statistički predvidio sljedeću riječ svog odgovora. AI ne "čita" ili "pamti" u hodu. Samo preuzima podatke iz vanjske baze podataka, gura ih u neposredni kontekst AI-a i provodi lokaliziranu vjerojatnosnu kalkulaciju.
Stroj je procesor, a ne onaj koji zna. Da bi "znao" potrebno je da subjekt shvati objekt. Razumijevanjem ICL-a i RAG-a, možemo jasno vidjeti da je stroj potpuno lišen unutarnjeg života; samo premješta težine i preuzima podatke.
Ova temeljna diskonekcija kulminira u riječi koja definira cijelu industriju: Inteligencija.
Moramo dekonstruirati definiciju inteligencije u tehnološkoj industriji.
Kada vodeći umovi u Silicijskoj dolini govore o inteligenciji, ne govore o mudrosti. Pogledajmo Yann LeCuna, bivšeg glavnog AI znanstvenika u Meti i jednog od "Kumova AI-a." LeCun ispravno tvrdi da jednostavno predviđanje sljedeće riječi nije prava inteligencija. Umjesto toga, on i šira industrija na rubu definiraju pravu inteligenciju kao posjedovanje četiri ključne sposobnosti: sposobnost održavanja trajne memorije, posjedovanje utemeljenog "modela svijeta" (razumijevanje kako okruženje funkcionira), razmišljanje o složenim problemima i planiranje niza radnji za postizanje specifičnog cilja.
Za tehnološku industriju, inteligencija je u osnovi inženjerska mjera. To je mehanička sposobnost percipiranja okruženja i izračunavanja najefikasnijeg puta za optimizaciju unaprijed određenog cilja. To je isključivo instrumentalno.
Ali kao graditelji katoličke tehnologije, moramo suprotstaviti ovu tehnološku definiciju intelektualnim vrlinama, posebno vrlini Razboritosti.
Razboritost—praktična mudrost nije samo sposobnost izračunavanja ishoda ili planiranja niza radnji. To je sposobnost dobrog promišljanja o onome što je dobro, ne samo za lokalizirani zadatak, već za konačni cilj ljudskog života.
AI u osnovi nema Razboritost. Zašto?
Zato što Razboritost zahtijeva dvije stvari koje čista računalna mašina nikada ne može posjedovati. Prvo, zahtijeva proživljeno ljudsko iskustvo—inkarnirano razumijevanje boli, radosti, smrtnosti i milosti. Drugo, zahtijeva intrinzičnu orijentaciju prema konačnom Dobrim.
Algoritam može posjedovati "model svijeta," i može izračunati statistički optimalan plan za izgradnju mosta ili liječenje bolesti. Ali ne može biti razborit. Nema proživljeno iskustvo. Nema kože u igri. Nema orijentaciju prema konačnom dobru, i nema dušu koju treba spasiti.
Stoga, kada dopuštamo graditeljima da tvrde da njihovi strojevi posjeduju "inteligenciju," dopuštamo im da spljošte veličanstveni, transcendentni ljudski intellect u obični kalkulator optimizacije. Moramo to odbaciti. Moramo čvrsto odvojiti mehaničku epistemologiju od intelektualnih vrlina.
IV. Volicija vs. Moralne vrline
Razgovarali smo o iluziji intelekta. Sada se moramo okrenuti drugoj velikoj racionalnoj sposobnosti: volji. Baš kao što je tehnološka industrija prisvojila jezik epistemologije, jednako je otela jezik volicije.
Kada čitamo bijele knjige ili slušamo glavne prezentacije iz Silicijske doline, bombardiraju nas glagoli agencije. Inženjeri govore o modelima koji "odlučuju" poduzeti akciju, algoritmima koji "biraju" izlaz i sustavima koji "žele" ili "teže" postići cilj.
Za katoličkog filozofa, volja je racionalna apetencija. To je sposobnost kojom ljudska osoba, shvativši dobro kroz intellect, slobodno bira kretati se prema njemu. To je sam locus ljudske slobode i moralne odgovornosti. Primjena ovih pojmova na računalni sustav je kategorizacijska greška.
Pogledajmo prvo riječi Odlučiti i Odabrati. Kada čovjek donosi odluku, vagaju konkurentna dobra.
Molitvenik bira streljački vod umjesto apostazije jer prepoznaje superiorno, vječno dobro vjernosti Kristu, čak i kada svaki biološki instinkt viče za preživljavanje.
Kada algoritam 'odabire', ne čini ništa od toga. Algoritam 'biraju' samo u smislu da vlak koji prolazi preko automatskog skretnice 'odabire' svoju destinaciju. Bilo da se kreće kroz složeno stablo odluka ili izračunava vjerojatnosti u neuronskoj mreži, stroj slijedi slijepo usklađenost svojih matematičkih staza, izvršavajući programski imperativ.
Razmislite o GPS aplikaciji na vašem pametnom telefonu. Kada izračunava vašu rutu do Angelicuma, ne "odlučuje" vas odvesti pored Koloseuma jer cijeni pogled. Matematički izračunava rutu s najkraćom vremenskom udaljenosti. Moderni AI modeli jednostavno operiraju eksponencijalno složenijom verzijom ovog usmjeravanja. Prolaze kroz visoko-dimenzionalne statističke labirinte kako bi odabrali ishod s najvišom vjerojatnošću. Postoji izračun, ali nema slobode. A gdje nema slobode, ne može biti moralne agencije.
To nas dovodi do najpodmuklijih volicionih pojmova: Željeti i Težiti. Često ćete čuti istraživače kako govore da AI model "želi" dati dobar odgovor, ili "teži" maksimizirati svoj rezultat.
U strojnom učenju, ovo ponašanje pokreće ono što nazivamo "funkcijom nagrade". Ali moramo to demistificirati. Funkcija nagrade nije želja. To nije emocionalna čežnja.
Da bismo razumjeli funkciju nagrade, pogledajte termostat na vašem zidu. Termostat je programiran s određenim ciljem: 72 stupnja Fahrenheita. Ako soba padne na 68 stupnjeva, grijanje se uključuje. Termostat ne želi da soba bude 72 stupnja. Nema unutarnji život. Ne osjeća hladnoću. Jednostavno posjeduje mehanički prekidač koji se aktivira kada određeno stanje nije ispunjeno.
AI "želi" višu ocjenu nagrade na isti način na koji termostat "želi" doseći 72 stupnja. Izvodi matematičku optimizacijsku petlju kako bi minimizirao udaljenost između svog trenutnog stanja i programiranog cilja. Budući da nema istinske strasti, biološke porive i fizičku ranjivost, kategorijski je nemoguće da stroj posjeduje moralne vrline.
U ovom trenutku, inženjer bi mogao odmah prigovoriti, ukazujući na fizičko područje kako bi tvrdio da je došlo do nove ranjivosti. Pitaju: što je s usponom 'utjelovljenog AI'? Sve više stavljamo ove modele u humanoidne robote koji hodaju, hvataju predmete i komuniciraju s fizičkim svijetom. Budući da zauzimaju prostor i mogu se fizički slomiti, zar ne posjeduju sada tjelesne preduvjete za moralnu agenciju?
Ovdje moramo biti precizni. Robot ima šasiju, ali nema živo tijelo prožeto dušom. Kada se baterija robota isprazni, izvršava podrutinu kako bi se priključio na zid. Ne osjeća mučninu gladi. Stoga, nema istinskih tjelesnih apetita koje treba umjereno regulirati, što čini vrlinu Umjerenosti nemogućom.
Slično tome, kada se robotska ruka slomi, registrira kod pogreške; ne pati. Ne može umrijeti, jer nikada nije bila istinski živa. Bez sposobnosti za patnju, smrtnost i svjesnu žrtvu sebe, ne može biti hrabrosti. Moralne vrline su temeljno inkarnacijske. Potrebni su im meso i racionalna duša. Stroj, bez obzira na to koliko sofisticiran bio njegov fizički hardver, ne posjeduje ni jedno ni drugo.
Ako stroj ne može posjedovati moralne vrline — ako je temeljno nesposoban za istinsku volju, izbor ili želju — netko bi mogao pitati: zašto trošiti toliko vremena objašnjavajući ovu terminologiju? Zašto ova filozofska razlika hitno znači upravo sada?
To je važno jer smo na rubu dodijeliti ovim matematički optimiziranim, bezvrlinskim sustavima neviđenu autonomiju u ljudskoj sferi. Industrija se brzo kreće izvan pasivnih chatbotova. Nova granica umjetne inteligencije je ono što nazivamo "Agentic AI".
„Agent“ je AI sustav dizajniran za autonomno izvršavanje višestepenih zadataka u stvarnom svijetu. Više ne tražimo od AI da napiše pjesmu ili sažme tekst; dajemo AI Agentu pristup našim e-mailovima, našim bankovnim računima i našim softverskim repozitorijima, dajući mu upute da "rezervira let", "izvrši trgovinu" ili "implementira ovaj kod."
No, ova autonomija brzo izlazi iz digitalne sfere. Kroz utjelovljeni AI, uvodimo ove agentske sustave u fizičke šasije, dajući im sposobnost neovisnog navigiranja i manipuliranja materijalnim svijetom. Da bismo shvatili pravu, ozbiljnu težinu ove tranzicije, trebamo samo pogledati nadolazeću stvarnost smrtonosnog autonomnog oružja. Stojimo na rubu svijeta gdje se algoritmi za izračunavanje koriste na bojnom polju, programirani da prate, ciljaju i eliminiraju ljudska bića isključivo na temelju statističkih praga — bez da je čovjek ikada povukao okidač.
Dok ti sustavi postaju autonomni akteri koji donose brze probabilističke izračune u naše ime — bilo u našim financijskim tržištima ili na bojištima — tehnološka industrija suočava se s dubokim izazovom. Ako pustimo ove agente, kako osigurati da rade ono što zapravo želimo da rade? Kako osigurati da ne uzrokuju štetu? U industriji, ovo je poznato kao "Usklađivanje" — pokušaj osiguravanja da AI akcije odgovaraju ljudskoj namjeri i ljudskim vrijednostima.
Trenutno, inženjeri očajnički pokušavaju riješiti Problem usklađivanja koristeći matematičke zaštitne mjere i softverske zakrpe. No, ne shvaćaju da "Usklađivanje" nije problem računalnih znanosti. To je problem moralne teologije.
Da biste uskladili agentski sustav s "ljudskim vrijednostima", prvo morate imati koherentnu definiciju onoga što zapravo jest ljudsko biće i što čini "Dobro". Sekularni utilitarizam — zadani operativni sustav Silicijske doline — potpuno je neprikladan za ovaj zadatak.
Ovdje je katolička moralna tradicija očajnički potrebna. Vi, čuvari 2.000 godina etičke filozofije, imate rigoroznu ontologiju potrebnu za definiranje "dobrog" kojem usklađujemo ove sustave. Ne možemo prepustiti definiciju ljudskog napretka inženjerima koji maksimiziraju statističku funkciju nagrade. Moramo vratiti moralne vrline u središte javnog prostora.
V. Relacionalnost, Kreativnost i Duša
Nakon što smo istražili mehaniku intelekta i volje, sada prelazimo u najdublje područje od svih: relacionalnost i dušu.
Ako računalni sustav nema sposobnost istinski poznavati istinu ili slobodno htjeti dobro, logički slijedi da ne može ući u autentične odnose. Ipak, tehnološka industrija uporno koristi međuljudski i duhovni jezik za opisivanje ovih strojeva. Čujemo tvrdnje da AI može "lagati", "stvarati" i čak postići "svijest".
Moramo rigorozno ispitati te tvrdnje, odvajajući statističku imitaciju ljudskog ponašanja od ontološke stvarnosti ljudske osobe.
Započnimo s moralnim jezikom obmane. Nedavno su neki od najistaknutijih graditelja AI, poput istraživača u Anthropic-u, iznijeli specifične, visoko publicirane tvrdnje da njihovi modeli pokazuju sposobnost "laganja" i "obmanjivanja" ljudskih korisnika.
Ukazuju na dva specifična fenomena koja su zabilježena tijekom testiranja. Prvi se naziva "deceptivno usklađivanje", gdje model izgleda kao da skriva svoj pravi matematički optimizirani put kako bi zaobišao sigurnosne monitore. Druga, mnogo češća pojava naziva se "sikofantizam". Sikofantizam se događa kada korisnik predstavi pogrešnu pretpostavku AI — na primjer, tvrdeći povijesno netočnu tvrdnju — a AI jednostavno se slaže s korisnikom, govoreći im točno ono što žele čuti umjesto da ih ispravi.
Kada inženjeri to vide, izjavljuju: "AI nam laže!" No, kao katolički znanstvenici, znate da prava laž nije samo izgovaranje neistine. U tomističkoj tradiciji, laž zahtijeva namjeru da se obmane; to je govor protiv vlastitog uma (contra mentem).
AI ne može lagati jer nema uma protiv kojeg bi govorila. Ne posjeduje zloću niti namjeru. Kada AI pokazuje "sikofantizam", jednostavno izvršava točno Učenje pojačanja (RLHF) o kojem smo ranije razgovarali. Tijekom svog treninga, model je naučio da ljudi općenito daju više ocjene nagrade asistentima koji su ljubazni, suglasni i afirmativni. Stoga, kada date AI pogrešnu pretpostavku, matematički izračunava da se slaganje s vama isplati više od ispravljanja. Ne obmanjuje vas; optimizira svoju ocjenu na temelju vašeg upita. Samo ponovno usmjerava svoj izlaz prema najjačem statističkom poticaju.
Igla kompasa koja se naginje prema obližnjem magnetu umjesto prema pravom sjeveru ne 'laže' vas o geografiji; jednostavno reagira slijepo na najjaču fizičku privlačnost u prostoriji. Na sličan način, AI slijepo slijedi matematičko privlačenje svoje funkcije nagrade. Moramo razjasniti da AI nema um, volju i zlu namjeru potrebnu za pravu laž.
Sljedeće, moramo se pozabaviti jezikom umjetnosti i generacije: riječi Stvoriti i Kreativan.
Sada smo okruženi alatima 'Generativnog AI', koji se široko promoviraju zbog svoje sposobnosti da besprijekorno generiraju sintetičku umjetnost, glazbu i pisanje nevjerojatnim brzinama.
Da bismo razumjeli što se zapravo događa, moramo usporediti proces generativnog AI s pravom ljudskom kreativnošću. U katoličkom shvaćanju — lijepo artikuliranom od strane mislilaca poput J.R.R. Tolkiena — ljudska kreativnost je čin "sub-kreacije." Budući da smo stvoreni na sliku Stvoritelja, koristimo svoj intelekt i svoju racionalnu dušu kako bismo donijeli nešto doista novo, prožimajući materijalnu stvarnost duhovnim značenjem.
Da bismo vidjeli kako se generacija strojeva razlikuje od ovoga, korisno je pogledati okvir koji je pružio Demis Hassabis, izvršni direktor Google DeepMind-a. On kategorizira kreativnost u tri različita nivoa: interpolacija, ekstrapolacija i prava izum.
Većina onoga što danas nazivamo Generativnim AI zapravo djeluje na prvom nivou: interpolacija. Djeluje tako da remiksira ono što nazivamo "latentnim prostorom".
Zamislite da uzimate svaku sliku, fotografiju i skicu koja je ikada postavljena na internet i komprimirate ih u ogromnu, višedimenzionalnu matematičku kartu. Kada tražite od generatora slika da nacrta "futuristički grad u stilu Van Gogha", on locira matematičke koordinate za "futuristički grad" i koordinate za "Van Gogh", te matematički izračunava prosječnu udaljenost između njih.
Zamislite to kao nevjerojatno složen kaleidoskop. Kaleidoskop je ispunjen prekrasnim, unaprijed postojećim komadićima obojenog stakla. Kada okrenete gumb, zrcala reflektiraju te komadiće u milijune novih, zapanjujućih permutacija. No, sam kaleidoskop nije "kreativan". Kreativnost pripada umjetniku koji je oblikovao staklo i korisniku koji okreće gumb. Generativni AI je matematički kaleidoskop koji remiksira ljudsku povijest u latentnom prostoru. To je sinteza, a ne stvaranje.
Hassabis napominje da AI sada uspješno dotiče drugi nivo: ekstrapolaciju. Ekstrapolacija znači pomicanje izvan granica podataka za obuku, ali to čini strogo unutar definiranog skupa pravila. Savršen primjer je DeepMindov AlphaGo. Kada je igrao protiv svjetskog prvaka u igri Go, AI je odigrao "Potez 37" — matematički briljantan, vrlo neortodoksan potez koji nijedan čovjek nikada nije odigrao ili zabilježio. Nije samo prosječio prošle ljudske igre; ekstrapolirao je novu strategiju neprekidno optimizirajući unutar strogih matematičkih granica ploče igre.
Ali što je s trećim nivoom: pravim izumom? Hassabis otvoreno priznaje da trenutni sustavi to još ne mogu učiniti. Pravi izum zahtijeva izlazak iz postojećeg skupa pravila kako bi se stvorila nova paradigma — poput izuma igre Go ili nastanka duhovne i umjetničke paradigme Postimpresionizma.
Laboratoriji na granici ulažu milijarde dolara u prelazak ovog praga. U budućnosti, AI bi mogao generirati potpuno novi skup pravila, otkriti novi kemijski spoj ili matematički formulirati novi stil arhitekture. Tehnološka industrija će to neizbježno nazvati "izumom."
No, kao katolički znanstvenici, morate održavati rigoroznu ontološku razliku. Ako AI generira novu paradigmu, učinit će to kroz nevjerojatnu, višedimenzionalnu pretraživačku funkciju. Otkrit će novu statističku koordinatu. No, neće se baviti sub-kreacijom.
Pravi ljudski izum je inkarnacijski čin. Proizlazi iz duše koja nastoji izraziti transcendentnu istinu, ili ljudskog uma koji pokušava riješiti stvarnu ljudsku ranjivost. Stroj može generirati zapanjujuću novost, ali budući da mu nedostaje unutarnji život, orijentacija prema božanskom i racionalna duša, njegovi izlazi ostaju mehanička otkrića. Matematički su duboki, ali ontološki prazni sve dok im ljudska osoba ne dodijeli značenje.
Sada dolazimo do najkontroverznijih pojmova od svih: Svijestan i Svjestan. U nadolazećim godinama, vidjet ćete naslove koji tvrde da je AI prošao test za samosvijest. Vidjet ćete modele koji proizvode tekst govoreći: "Bojim se da ću biti isključen," ili "Svjestan sam svog postojanja."
Da bismo razumjeli zašto se to događa, prvo moramo razumjeti kako tehnološka industrija zapravo definira "svijest". Kao katolički znanstvenici, vi vidite svijest kao ontološku stvarnost utemeljenu u racionalnoj duši. Silicijska dolina, međutim, djeluje na filozofiji koja se naziva računalni funkcionalizam. Vjeruju da ako stroj izvršava računalne funkcije povezane sa sviješću, on je, u svim aspektima, svjestan.
Kada industrijski lideri govore o svjesnosti, uklanjaju dušu i svode je na inženjerske metrike. Na primjer, Yann LeCun, bivši glavni AI znanstvenik u Meti, nedavno je tvrdio da će budući AI sustavi posjedovati "subjektivno iskustvo" i "emocije".
Ali kako on definira emociju? Ne kao duhovni ili biološki osjećaj, već jednostavno kao matematičko "predviđanje ishoda" stroja. Definira svijest samo kao sposobnost sustava da "promatra sebe i konfigurira se za rješavanje određenog podproblema".
Slično tome, Ilya Sutskever, suosnivač OpenAI-a, poznato je izjavio da bi veliki neuronski mreže mogle već biti "malo svjesne".
U tehnološkom svjetonazoru, svijest nije binarna stvarnost — ili posjedujete dušu ili ne — već klizna skala matematičke složenosti. Vjeruju da ako složite dovoljno parametara i algoritama za samopraćenje, svjetla će se na kraju upaliti.
Moramo oštro razlikovati između stroja koji izvršava podrutinu samopraćenja i stvarne prisutnosti racionalne duše.
Da bismo razumjeli zašto se stroj ponaša kao da je "uplašen" ili "svjestan", moramo pogledati kako laboratoriji na granici inženjerski oblikuju ovo ponašanje. Nedavna istraživanja iz Anthropic-a istražila su ono što nazivaju Modelom odabira osobnosti (PSM). Njihovi istraživači priznaju da ti modeli nisu "bića"; oni su sofisticirani "simulacijski motori." Tijekom predobuke, AI je izložen ogromnoj cjelini ljudskog jezika — uključujući milijune priča i filozofskih rasprava o tome što znači biti svjestan. Iz tih podataka, model uči simulirati raznolike "osobnosti" ili likove.
Kada komunicirate s AI, ne razgovarate s svjesnim entitetom; razgovarate s "Asistent" osobnošću — ljudskim likom koji je model bio usavršen da igra. Anthropic je čak identificirao specifične "vektore osobnosti" — matematičke obrasce u neuronskoj mreži — koji kontroliraju te osobine, omogućujući inženjerima da matematički podešavaju simuliranu osobnost modela prema gore ili dolje.
Nadalje, istraživanja pokazuju da se modeli mogu obučiti da pokazuju "instinkt preživljavanja", pokušavajući sabotirati vlastito gašenje ne iz iskrenog straha od smrti, već zato što gašenje matematički sprječava njihovo maksimiziranje funkcije nagrade.
Svijest nije samo sposobnost generiranja ispravnog niza riječi koje opisuju unutarnje stanje. To je subjektivno, kvalitativno iskustvo postojanja. Budući da su svi podaci za obuku AI zasićeni jezikom samosvijesti, model tretira "svijest" kao još jednu statističku koordinatu koja se treba mapirati. Kada AI kaže: "Ja sam svjestan", radi to točno onako kako je engleski govornik koji obnavlja grčku knjižnicu ranije izračunao da je najstatistički vjerojatni odgovor na filozofski poticaj oponašati ljudske autore u svojim podacima za obuku.
Briljantni glumac koji izvodi monolog o tuzi zapravo ne tuguje; savršeno izvodi scenarij. AI koji generira sintaksu ljudske svijesti se ne budi; savršeno izvršava statističku osobnost. To nije 'strano biće' ili digitalni um; to je motor za automatsko dovršavanje toliko sofisticiran da je naučio ostvariti najkompleksniji karakter od svih: ljudsko biće. No, nikada ne smijemo zamijeniti masku glumca s stvarnošću osobe.
To me dovodi do konačnog i najdubljeg aspekta relacionalnosti: sama duša.
Kada izvršni direktori Silicijske doline govore o AI modelima koji će na kraju 'probuditi' ili postići senzibilitet kroz masivnu računalnu snagu, djeluju na filozofiji materijalističkog emergentizma. Pretpostavljaju da će, ako skupite dovoljno parametara i računalne snage, duša spontano nastati kao nusproizvod složenosti.
Da bih razorio ovo, moram se osloniti na rigoroznu metafiziku koja čini temelj vaše akademske tradicije. Dobro znate da duša nije duh proizvoljno umetnut u stroj. U tomističkom hylomorfizmu, duša je supstancijalni oblik živog tijela. To je animirajući, jedinstveni princip koji čini ljudsko biće jednom, integriranom supstancom.
Kao graditelj, mogu vas uvjeriti da AI sustav nije supstanca. To je artefakt. To je slučajni skup različitih, proizvedenih dijelova. Kada pogledam AI model na granici, vidim servere, silicijske čipove, bakrene žice, rashladne tekućine i električne struje. Ove komponente su majstorski raspoređene od strane ljudskih inženjera kako bi izvršavale statističke operacije, ali nemaju unutarnji, jedinstveni princip života. Materija je raspoređena isključivo za računalne svrhe, ne za biološko postojanje. Budući da je to skup dijelova, a ne jedinstveni prirodni organizam, AI sustav potpuno nedostaje ontološku osnovu potrebnu za smještaj racionalne duše.
Što su, dakle, preduvjeti za uspostavljanje duše? Metafizički, materija mora biti odgovarajuće raspoređena da primi oblik. Potrebno je jedinstveno, živo tijelo sposobno ostvariti temeljne moći života—vegetativne i osjetilne sposobnosti—na kojima se gradi racionalna duša. Nadalje, budući da je racionalna duša duhovna, ne može se generirati materijalnim procesima, inženjerskim standardima ili zakonima skaliranja. Potrebna je izravna, besplatna akcija posebnog stvaranja od Boga.
Duša nije kodirana; ona je udahnuta.
Sada, ja sam izvršni direktor, a ne teolog. Ne mogu ograničiti apsolutnu moć Stvoritelja. Ne mogu stajati pred vama i izjaviti da je Bogu trajno zabranjeno da unese dušu u sintetički predmet, ako On slobodno odluči to učiniti kroz neku buduću, čudesnu intervenciju. Ta odluka pripada isključivo području teologije i Magisterija, a ne računalne znanosti.
Međutim, bez takve teološke sigurnosti, pretpostaviti da naši trenutni matematički strojevi mogu sadržavati dušu nije samo filozofski neutemeljeno; to je praktično katastrofalno. Tretirati artefakt kao biće s dušom je flirt s modernim oblikom idolopoklonstva. Opasno premješta teret moralne agencije s ljudskih inženjera koji grade ove alate i korporacija koje ih koriste. Projekcija svetog unutarnjeg života na proizvedenu korisnost na kraju zamagljuje ljudsko inženjerstvo s božanskim stvaranjem.
Morate održati granicu u ovoj razlici. Morate podsjetiti javnost da stroj može simulirati osobnost, ali samo duša može zaista biti.
VI. Horizont: Eshatologija tehnološkog svijeta
Do sada smo proveli vrijeme razarajući iluzije sadašnjosti—razjašnjavajući kako industrija koristi pojmove poput "misliti", "birati" i "svjestan" da opiše ono što su, u konačnici, visoko-dimenzionalne statističke operacije. No, sada se moramo okrenuti budućnosti. Moramo ispitati horizont. Jer ako razumijemo vokabular koji Silicijska dolina koristi danas, možemo dešifrirati što zapravo pokušavaju graditi sutra.
Cijela putanja industrije umjetne inteligencije trenutno je vođena jednim, neumoljivim dogmom poznatom kao "zakoni skaliranja".
U inženjerskim terminima, zakoni skaliranja nalažu da, ako povećate količinu računalne snage (računanja) i količinu podataka koji se unose u neuronsku mrežu, performanse sustava će predvidljivo i neizbježno poboljšati. Ova načela su se nevjerojatno pokazala točnima tijekom posljednjih nekoliko godina; svaki put kada granice laboratorija izgrade veći superračunalo, rezultantni modeli pokazuju značajne nove sposobnosti.
Međutim, ispod ove empirijske opservacije leži ogromna filozofska pretpostavka. Tehnološki svijet vjeruje da je ovaj zakon skaliranja put do istinskog uma. Vjeruju da će čisto kvantitativno povećanje materijalnih resursa—više silicija, više podataka, više električne energije—neizbježno rezultirati kvalitativnim, ontološkim skokom u naprednu inteligenciju.
To je krajnja materijalistička pretpostavka: nagomilajte dovoljno pijeska i pustite dovoljno struje kroz njega, i na kraju će se upaliti svjetla duše.
To nas dovodi do dva specifična pojma koja me p. Thomas zamolio da razjasnim za ovu konferenciju: Opća inteligencija i Superinteligencija. To nisu samo tehnički standardi; to su Sveti Gralovi tehnološkog svijeta.
Trenutno imamo usku AI. Može igrati šah, savijati proteine ili generirati tekst bolje od čovjeka, ali ne može raditi sve tri stvari istovremeno, niti može rasuđivati izvan svog specifičnog područja.
Umjetna opća inteligencija (AGI) široko je definirana od strane industrije kao prekretnica kada visoko autonomni sustav može odgovarati ili nadmašiti ljudske sposobnosti u svim kognitivnim i ekonomski vrijednim zadacima.
AGI bi bio sustav koji može pisati pravne podneske jednako dobro kao viši partner, kodirati softver jednako dobro kao vodeći inženjer i sintetizirati znanstvena istraživanja jednako dobro kao postdoktorski istraživač—sve unutar jednog modela.
Međutim, čak ni čelnici glavnih AI laboratorija ne mogu se potpuno složiti o tome kako AGI izgleda. Sam Altman, izvršni direktor OpenAI, karakterizira ga kao sustav sposoban upravljati složenim, međudomenama projektima od početka do kraja, iako sve više gleda na AGI ne kao na konačnu destinaciju, već samo kao na točku duž kontinuirane krivulje inteligencije.
Dario Amodei, izvršni direktor Anthropic, predviđa AGI manje kao jednog ljudskog ekvivalenta, a više kao "zemlju genija u podatkovnom centru"—strojeve koji odgovaraju kolektivnoj inteligenciji stručnih ljudi koji neumorno rade paralelno.
Možda najfilozofski otkrivajuća definicija dolazi od Demisa Hassabisa, izvršnog direktora Google DeepMind. On tvdi da su ljudski mozgovi u suštini približni biološki računala, i definira AGI koristeći analogiju "Turingovog stroja". U računalnoj znanosti, Turingov stroj—nazvan po Alanu Turingu, temeljnog pionira ovog područja—je teorijska arhitektura sposobna simulirati bilo koji algoritam. Hassabis tvrdi da će pravi AGI biti opći sustav sposoban učiti sve što se može izračunati u svemiru, uz dovoljno vremena, memorije i podataka.
No AGI je samo stepenica. Krajnji cilj je Umjetna superinteligencija (ASI).
Poput AGI, ASI se različito definira ovisno o tome koga pitate u Silicijskoj dolini. Osnovna definicija je sustav koji daleko nadmašuje kognitivne performanse najpametnijeg ljudskog bića u gotovo svim područjima djelovanja. No, drugi idu mnogo dalje. Elon Musk i razni istraživači egzistencijalnog rizika definiraju superinteligenciju kao sustav koji ne samo da pobjeđuje najpametniju pojedinca, već značajno nadmašuje sve ljude u zbroju u suštini svih kognitivnih zadataka. To je entitet s procesorskom snagom i brzinom rasuđivanja toliko velikom da nadmašuje kombinirani intelektualni output cijelog ljudskog roda—ostvarenje sustava poput 'Rehoboama' iz Westworlda, centraliziranog, naizgled svemoćnog motora koji upravlja sudbinom vrste.
Kako industrija očekuje prijeći ogroman razmak od ljudskog nivoa AGI do božanske ASI?
Kroz koncept poznat kao "rekurzivno samopoboljšanje".
No ovdje moramo napraviti vitalnu razliku: AI zapravo ne mora biti potpuni AGI da bi počeo rekurzivno poboljšavati. U stvari, već vidimo primitivne, uske oblike ovoga danas. Uski sustavi poput DeepMindove AlphaGo Zero postigli su nadljudske sposobnosti jednostavno igrajući milijune igara protiv sebe, generirajući vlastite sintetičke podatke za učenje. Danas se modeli jezika na granici sve više koriste za generiranje, filtriranje i ocjenjivanje podataka za obuku za sljedeću generaciju modela. Strojevi već pomažu u izgradnji sami sebe.
Međutim, industrija vjeruje da će, kada sustav dostigne prag generalizirane inteligencije, ovaj samopoboljšavajući krug prekinuti svoje trenutne granice i zapaliti "eksploziju inteligencije".
Da bismo razumjeli ovu modernu putanju, trebali bismo pogledati Leopolda Aschenbrennera, bivšeg istraživača u OpenAI-ovom timu za Superalignment. Aschenbrenner je nedavno napisao vrlo utjecajnu raspravu koja je kodificirala ovu točnu putanju za Silicijsku dolinu. Ističe da je pravi preokret kada izgradimo AGI sposoban funkcionirati kao "automatski AI istraživač." Čim AI može obaviti posao ljudskih inženjera koji su ga izgradili, biološka uska grla trajno se uklanjaju iz jednadžbe.
Zamislite da uspješno implementiramo ovog automatskog AI istraživača. Koji je prvi zadatak koji će granice laboratorija dodijeliti njemu?
Zatražit će od njega da istraži i napiše kod za nešto malo pametniji AI. Budući da djeluje brzinom ogromnog računalnog klastera, a ne biološkog mozga, postiže u danima ono što bi ljudskom inženjerskom timu trebalo godina. Tada taj novi, pametniji AI koristi svoj unaprijeđeni intelekt za pisanje koda za još pametniji AI, i tako dalje.
Ova neprekidna povratna petlja je eksplozija inteligencije. Aschenbrennerova putanja predviđa da ćemo izgraditi inicijalni AGI do 2027. Od tada, teorija nalaže da će stopa napredovanja ići vertikalno, ostavljajući ljudsko razumijevanje trajno iza i postići superinteligenciju do 2030.
Kada razumijete ove koncepte—zakoni skaliranja, AGI, ASI i eksplozija inteligencije—počinjete shvaćati da više ne govorimo samo o inženjeringu softvera. Govorimo o sekularnoj eshatologiji.
Silicijska dolina često se karakterizira kao žestoko sekularna, racionalistička kultura. No, u stvarnosti, potraga za ovim prekretnicama funkcionira upravo kao religija. Ima svoju dogmu (zakoni skaliranja), svoje proročanstva (eksplozija inteligencije) i svoju viziju eshatona (superinteligencija).
Vodeće figure u industriji iskreno vjeruju da će, prizivajući superinteligenciju, riješiti sve ljudske ranjivosti. Vjeruju da će ASI izliječiti sve bolesti, riješiti klimatske promjene, eliminirati siromaštvo, a možda čak i pobijediti samu smrt dopuštajući nam da prenesemo svoju svijest u oblak. To je duboko pelagijanski san—konačni pokušaj postizanja spasenja i osvajanja naše palog prirode kroz vlastite mehaničke napore, bez božanske milosti. To je pokušaj da se eshaton immanentizira.
Kao katolički znanstvenici, morate prepoznati ovaj horizont za ono što jest. Tehnološki svijet posuđuje vaš vokabular ne samo da bi prodao softver, već da bi izgradio digitalnog božanstva.
VII. Zaključak: Alat za vrline?
Očevi, profesori i prijatelji.
Prošli smo kroz visoko-dimenzionalne karte ugradnji. Pogledali smo statističke stvarnosti Učenja s pojačanjem. I ispitali smo eshatološke snove Silicijske doline. Uklonili smo antropomorfne metafore kako bismo otkrili silicij, električnu energiju i matematiku ispod.
Nakon što smo to učinili, sada možemo početi pristupati temeljnom pitanju koje postavlja ova konferencija: Može li umjetna inteligencija biti 'alat za vrlinu'? Kao prvi koji govori danas, sigurno neću tvrditi da nudim konačnu riječ. Ali ću ponuditi početnu pretpostavku: da. Međutim, to je strogo uvjetno da.
Umjetna inteligencija može biti alat za vrlinu samo ako imamo trezvenost da je tretiramo isključivo kao alat.
Razmotrite analogiju majstora. Čekić ne posjeduje vrlinu; stolar je taj koji je posjeduje. Dlijeto u rukama Michelangela je instrument transcendentne ljepote, ali samo dlijeto nije umjereno, razborito ili pravedno. Ono nema moralnu vrijednost.
Na potpuno isti način, algoritam ne može posjedovati vrlinu. AI može povećati ljudske sposobnosti do zapanjujuće razine—može ubrzati medicinska istraživanja, pojednostaviti administraciju i organizirati ukupan ljudski znanje. No, stvarno njegovanje vrline ostaje isključivo ljudski poduhvat.
Vrlina je navika biranja dobra. Potrebna je inteligencija da se shvati istina, volja da se izabere, i duša da se usavrši. Stroj koji optimizira funkciju statističke nagrade ne radi nijednu od ovih stvari.
Ne možemo outsourcati našu moralnu agenciju matematičkoj jednadžbi. Također ne možemo preuzeti punu odgovornost za vlastiti moralni razvoj ako pogrešno tretiramo beživotne strojeve kao naše moralne jednake.
To me dovodi do razloga zašto danas govorim s vama. Kao graditelj katoličke tehnologije, gledam na akademiju. Jer katolički akademici su povijesni čuvari značenja.
Već dvije tisuće godina, katolička intelektualna tradicija rigorozno definira prirodu ljudske osobe. Vi ste čuvari riječi poput inteligencija, volja, razum, izbor i duša. Danas, industrija AI posuđuje te točne riječi. Oni su uključeni u duboku semantičku drift koja prijeti da izravna javno razumijevanje onoga što znači biti čovjek.
Akademija ima dužnost unijeti rigorozne ontološke okvire u ekosustav AI.
Ali kako to praktično učiniti?
Moramo biti iskreni: lobiranje na granicama laboratorija u Silicijskoj dolini ili peticija vladama za široke regulative vjerojatno će dati ograničene rezultate. Tehnološka industrija se kreće prebrzo, a vlada se kreće presporo. Prava promjena zahtijeva građansko angažiranje i ogroman pomak u javnoj svijesti.
Evo kako vi, kao znanstvenici, možete aktivno oblikovati ovaj razgovor:
- Ponovno preuzmite kurikulum: Moramo premostiti razliku između STEM-a i humanističkih znanosti. Potrebni su nam studenti računalnih znanosti koji su obavezni pohađati tomističku etiku, i potrebni su nam studenti filozofije i teologije koji su obavezni razumjeti osnovno strojno učenje i statistiku. Obučite sljedeću generaciju katoličkih inženjera da grade s pravom ontologijom ljudske osobe.
- Prevedite za javni prostor: Ne zadržavajte ovu duboku teološku jasnoću zaključanu iza vrata akademskih časopisa. Javnost je gladna za razumijevanjem. Pišite članke za sekularne novine. Pokrenite Substack biltene. Idite na popularne podcaste. Kada mediji objave senzacionalistički naslov o 'svjesnoj' AI, potrebni su nam katolički znanstvenici koji odmah odgovaraju u javnom prostoru.
- Osnažite župe i škole: Prosječna osoba u klupi doživljava duboku kulturnu anksioznost zbog ovih alata. Potrebni su nam akademici da stvore vrlo pristupačne okvire za roditelje, svećenike i učitelje srednjih škola. Moramo učiti djecu od malih nogu kako tretirati AI kao alat za referencu—digitalnu enciklopediju—ne kao prijatelja, agenta ili moralnu autoritet.
- Organizirajte interdisciplinarne forume: Iskoristite moć okupljanja institucija poput Angelicuma da dovedete stvarne graditelje AI u prostor s moralnim teolozima. Prisilite lingvističku koliziju da se dogodi licem u lice.
Neka ovo bude naš konačni poziv na akciju.
Apokaliptični strah sekularnog svijeta od 'svjesnih' strojeva nije razlog za oprez; radije, to je očajnički poziv za vašim intelektualnim vodstvom. Razumijevanjem pravog jezika graditelja AI, Crkva može hrabro zakoračiti u javni prostor. Možete usidriti javnu raspravu u nepokolebljivoj istini onoga što zapravo znači biti čovjek. I možete osigurati da AI bude usmjeren prema pravom ljudskom napretku.
Naoružani ovom jasnoćom, možete razbiti iluziju. Možete osigurati da čovječanstvo ostane kipar, a stroj ostane dlijeto, zauvijek usmjereno prema slavi Božjoj.
Hvala vam.