Magisterium AI

A Szemantikai Elmozdulás: Az AI Építők Nyelvének Megértése

Lehet-e a Mesterséges Intelligencia az Erény Eszköze?

2026. március 5-én Matthew Harvey Sanders, a Longbeard vezérigazgatója tartotta meg előadását „A Szemantikai Elmozdulás: Az AI Építők Nyelvének Megmagyarázása” címmel a Tomista Intézet „Mesterséges Intelligencia: Az Erény Eszköze?” eseményén, amelyet a római Szent Tamás Aquinói Pápai Egyetemen (Angelicum) rendeztek.

Ebben a beszédben bírálja a Szilícium-völgyi fejlesztők által használt félrevezető, humanizáló szókincset, amelyet a gépi tanulás leírására használnak. Arra érvel, hogy a mesterséges intelligencia megfelelő használatához vissza kell nyernünk egy szigorú katolikus ontológiát, és ezeket a rendszereket szigorúan mechanikai eszközként kell kezelnünk, nem pedig morális ügynökként.


I. Bevezetés: A Szemantikai Elmozdulás és a Nyilvános Tér

Atyák, tisztelt oktatók és vendégek az Angelicumban, köszönet a Tomista Intézetnek, hogy összehívta ezt a diskurzust.

Ahogy átlépünk egy új korszak küszöbén, elhagyva az Információ Korának megalapozott bizonyosságait a Tudás Korának hatalmas, feltérképezetlen kozmoszába, mély navigációs kihívással nézünk szembe. Mielőtt megválaszolnánk a konferencia szívében lévő sürgető kérdést – vajon a Mesterséges Intelligencia valóban szolgálhat-e 'az erény eszközeként' – először egy olyan kihívással kell szembenéznünk, amely nem a szoftverfejlesztés, hanem a szókincs kérdése.

A mesterséges intelligenciával kapcsolatos kortárs szorongásunk középpontjában egy mély nyelvi ütközés áll. Ezeknek a rendszereknek az építői a Szilícium-völgyben figyelemre méltó matematikai teljesítményeket hajtanak végre. Mégis, hogy leírják ezeket a matematikai és statisztikai folyamatokat, a szent, mélyen filozófiai szókincset kölcsönzik az emberi belső valóságból. Azt mondják, hogy rendszereik "gondolkodnak", "érvelnek" és "tudnak". Olyan algoritmusokról beszélnek, amelyek "tanulnak", "vágyakoznak" és "választanak".

Amit tanúi vagyunk, az egy szemantikai elmozdulás. A lélek gazdag, ontológiai terminológiáját átkonvertáljuk a lineáris algebra, statisztikai valószínűség és magas dimenziós geometria bonyolult hálózataira. Ez egy modern alchímia – kísérlet arra, hogy a számítási súlyokat az elme illúziójává alakítsuk.

Ez a nyelvi hanyagság mély és azonnali hatással van a közvéleményre. E fogalmak félreértése elkerülhetetlenül félrevezetett bizalomhoz vezet.

Ezt első kézből tapasztalom a Longbeardnél végzett munkánk során; a felhasználók gyakran terhelt lelkiismerettel közelítik meg a mesterséges intelligenciát, úgy kezelve a szöveggeneráló eszközt, mintha az egy empátiára képes lelki vezető lenne.

Továbbá, ez a szemantikai zűrzavar kulturális szorongást táplál, apokaliptikus félelmeket generálva a rivális, "tudatos" szuperintelligenciáktól.

A legveszélyesebb azonban az, hogy torzított érzést teremt arról, mit jelent embernek lenni. Ha elfogadjuk azt a premisszát, hogy egy gép "érvel" vagy "teremt" éppúgy, ahogy egy ember, akkor komoly kockázatot vállalunk, hogy az emberi személyt csupán egy biológiai gépezetté redukáljuk – egy hús- és szinapszis-kupacra, amely arra vár, hogy optimalizálják.

Ez vezet el a diskurzusunk központi téziséhez: ahhoz, hogy megválaszoljuk, vajon a mesterséges intelligencia lehet-e "az erény eszköze", először meg kell magyaráznunk a nyelvét. Egy eszköz csak akkor szolgálhatja a jót, ha helyesen értjük. Nem használjuk a gépeket megfelelő eszközként a saját erényünkhöz, amikor tévesen morális ügynökséget tulajdonítunk nekik.

Az erényt a kalapácsnak tulajdonítani annyit jelent, mint megvakítani magunkat a asztalos előtt.

Ahhoz, hogy valóban megkereszteljük ezt a technológiát és az emberi virágzás felé irányítsuk, le kell bontanunk a szemantikai illúziókat, és józanul kell ránéznünk az alatta lévő architektúrára.


II. Az Illúzió Architektúrája: Alapvető Mechanikák

A modern generatív mesterséges intelligencia rendszer úgy tűnik, hogy beszél, érvel és párbeszédbe lép velünk, de e felület alatt egy olyan alap rejlik, amely teljesen matematikán alapul, nem metafizikán.

Kezdjük a vektorokkal és beágyazásokkal, amelyek a Nagy Nyelvi Modellek szó szerinti alapját képezik. Amikor egy másik tudóssal beszélgetsz az "igazságról" vagy "a lélekről", ők a valóság közös megértésén keresztül értik meg a szavaid jelentését – egy megélt, megtestesült emberi tapasztalat révén. Amikor egy promptot írsz be egy mesterséges intelligenciába, a rendszer nem csinál ilyesmit. Ehelyett a mesterséges intelligencia az emberi nyelvet matematikai koordinátákká alakítja egy magas dimenziós térben.

Egyszerűen fogalmazva, a "vektor" csupán egy számok listája, amelyet valamire való leírásra használnak. Képzeld el, hogy egy almát nem szavakkal, hanem egy pontszámok listájával írsz le: 9 az édességért, 8 a vörösségért és 2 a fémes roppanásért. Az a konkrét számok listája – [9, 8, 2] – egy vektor. Egy mesterséges intelligencia rendszerben minden egyes szó – vagy egy szó darabja – egy hatalmas vektorra van fordítva, gyakran több ezer számot tartalmazva. De a mesterséges intelligencia nem a szavakat fizikai jellemzők vagy szótári definíciók alapján pontozza. Ehelyett ezeket a számokat teljes egészében statisztikák alapján generálja, milliárdnyi könyvet és cikket átvizsgálva, hogy megszámolja, hányszor jelennek meg a szavak egymás mellett.

Miután a mesterséges intelligencia befejezi ennek a hatalmas számok listájának a kiszámítását egy szóhoz, az a vektor "beágyazássá" válik – egy állandó matematikai koordinátává egy hatalmas digitális térben.

Ha az "alma" és a "pite" szavak gyakran ugyanabban a mondatban szerepelnek az interneten, a számok listájuk nagyon hasonlóan fog kinézni, matematikailag közel helyezve őket egymáshoz a térképen. Az "alma" és a "karburátor" szavak, amelyek ritkán találkoznak, teljesen eltérő számokat kapnak, és millió mérföldnyire helyezkednek el egymástól. Ebben a multidimenzionális térképen a mesterséges intelligencia nem a jelentést ábrázolja; a statisztikai közelséget ábrázolja az emberi nyelvben.

Ahhoz, hogy valóban megértsük ennek az architektúrának a méretét, érdemes felfedezni a vektor térképet a Magisterium AI-n. Itt a katolikus tanítás és hagyomány teljes egésze beágyazásokká alakult. Ez az interaktív 3D vizualizáció lehetővé teszi, hogy a Egyház szellemi történelmét ne egy lapos könyvelésként, hanem egy hatalmas digitális kozmoszként tapasztald meg. Az átkelés rajta olyan, mint egy rakétahajó pilótázása a valódi térben, átsiklani a kapcsolódó teológiai fogalmak sűrű galaxisai között, és átkelni a teljesen eltérő ötletek közötti hatalmas, üres űrön, figyelve, hogyan ábrázolja a gép a távolságot az 'erény' és 'bűn' között, csupán geometriát használva.

Nézzünk meg egy híres példát a Szilícium-völgyi laboratóriumokból, hogy lássuk, mennyire idegen ez a folyamat az emberi gondolkodástól. Ebben a matematikai térben a "király" szót egy specifikus számok sorozataként ábrázolják – egy földrajzi koordinátaként. A "királynő" szót a közelében ábrázolják. A mesterséges intelligencia nem tudja, mi az a monarchia. Nincs fogalma a kormányzásról, hatalomról, történelemről vagy az emberi állapotról. Csak egy matematikai egyenletet ismer. Tudja, hogy ha elveszed a "király" koordinátáját, levonod a térbeli távolságot, amely az "embert" képviseli, és hozzáadod a térbeli távolságot, amely a "nőt" képviseli, pontosan a "királynő" koordinátájára érsz.

Ez geometria, nem genealógia. Az emberi nyelvet ezekre a numerikus reprezentációkra bontva a mesterséges intelligencia teljesen a térbeli valószínűség birodalmában működik. Ez egy lenyűgöző teljesítmény a lineáris algebrában, de teljesen mentes a megértéstől.

Ez vezet minket az ipar által leginkább használt igékhez: Képzés és Tanulás.

A mesterséges intelligencia cégek folyamatosan dicsekednek legújabb "gépi tanulás" modelljeikkel és a hatalmas adathalmazokkal, amelyeket "képzésükhöz" használnak. Itt éles ellentétet kell tennünk az emberi tanulás – amely alapvetően az igazság megértéséről szól – és a gépi tanulás között.

A katolikus intellektuális hagyományban az emberi tanulás egy episztemológiai diadal; az értelem alkalmazkodik a valósághoz. Amikor egy gyermek megtanulja, mi az a kutya, az egyetemes lényegét absztrahálja a különböző példányokból, amelyekkel találkozik. Megérti a dolog mivoltát.

A gépi "tanulás" azonban nem tartalmaz absztrakciót és esszenciát. A mesterséges intelligencia építésének első fázisát pre-képzésnek nevezik, amely csupán az adatok brutális statisztikai térképezése.

A pre-képzés megértéséhez képzelj el egy férfit, aki csak angolul beszél, bezárva egy szobába, és azzal a feladattal bízzák meg, hogy helyreállítson egy hatalmas, ősi görög könyvtárat, ahol milliók hiányoznak. Nem ismer egyetlen görög betűt sem. A hiányzó szavak kitöltéséhez nem tanulmányozza a görög nyelvtant, történelmet vagy filozófiát. Ehelyett egyszerűen megszámolja, hogy bizonyos karakterek hányszor jelennek meg mások mellett milliók épen maradt oldalán. Hatalmas valószínűségi könyvelést készít. Ha látja a "Kyrie" karaktereit, a könyvelése azt mondja, hogy 99,9% valószínűséggel a következő karaktereknek "eleison"-nak kell lenniük. Kitölti a hiányt.

Nem tanult teológiát. Nem imádkozott. Csak végrehajtott egy statisztikai valószínűséget.

Ez pontosan az, amit egy Nagy Nyelvi Modell tesz a pre-képzés során. Milliárdnyi szót dolgoz fel, hogy hatalmas valószínűségi könyvelést építsen, csupán a következő token előrejelzésére tanulva. Ez egy matematikai függvény optimalizálása, nem a bölcsesség keresése.

Azonban egy olyan modell, amely csak az internetes adatok alapján előre jelzi a következő szót, kaotikus. Szép verset mondhat el, vagy toxikus, haszontalan, vagy végtelen szövegláncokat fűzhet össze. Formálásra van szüksége.

Itt találkozunk a poszt-képzéssel és a megerősítő tanulással (RL).

Ez a fázis az, ahogyan a mérnökök formálják az engedetlen modellt, hagyományosan emberi visszajelzés segítségével. Ez az alapvető módszer RLHF-nek – az emberi visszajelzésből származó megerősítő tanulásnak – nevezik.

Képzelj el egy hatalmas, automatizált játékot "Forró vagy Hideg". Az emberi tesztelők adnak a gépnek egy promptot, és a gép generál egy választ. Ha a válasz udvarias és hasznos, az ember magas pontszámot ad neki. Ha udvariatlan vagy értelmetlen, alacsony pontszámot kap. A rendszer matematikai súlyait automatikusan elmozdítják, hogy maximalizálják ezt a pontszámot. Az RLHF révén nem tanítjuk a gépet erkölcsökre vagy erényekre; csupán matematikai határokkal kerítjük be.

De az emberi visszajelzés lassú, szubjektív, és a humanitás intellektusának korlátai által eleve korlátozott. Ez a korlátozás elvezet minket a legutóbbi áttörésekhez, amelyek a mai hirtelen ugrásokat hajtják végre a mesterséges intelligencia képességeiben: RLVR, vagy a Verifikálható Jutalmakból származó Megerősítő Tanulás.

Ahelyett, hogy egy embert bíznánk meg azzal, hogy megítélje, hogy egy válasz "jól hangzik-e", a mérnökök olyan feladatokat adnak a modellnek, amelyek objektív, matematikailag bizonyítható kimenetekkel rendelkeznek – például egy összetett tétel megoldása vagy egy működő szoftver írása. A rendszer generál egy megoldást, és egy automatizált ellenőr azonnal ellenőrzi, hogy a matematika helyes-e, vagy a kód fordul-e. Ha sikerül, a modell matematikai jutalmat kap; ha nem, nullát kap.

Mivel ez az ellenőrzés teljesen programozott, a mesterséges intelligencia millió különböző számítási útvonalat tud szimulálni hiperspeedben, anélkül, hogy valaha is várnia kellene az emberi beavatkozásra. Megtanulja generálni a hosszú, rejtett számítási láncokat, tesztelve és elvetve a holtpontokat, amíg meg nem találja a pontos sorrendet, amely kiváltja a jutalmat. Amikor látod, hogy egy modern mesterséges intelligencia rendszer megáll, hogy "gondolkodjon" egy összetett logikai rejtvény megoldása előtt, akkor az RLVR-t látod működés közben. Lenyűgöző illúziót teremt a mély, megfontolt kontemplációról. Mégis, ontológiailag, semmit sem csinál. Csupán egy statisztikai motor, amely másodpercenként milliószor fut át egy magas dimenziós labirintuson, tisztán a numerikus jutalom automatikus kiosztása által irányítva.

Végül, mindez a rétegezett összetettség – a beágyazások magas dimenziós geometriájától a RLVR automatizált hurkokig – elvezet minket ahhoz, amit az ipar "Fekete Doboz" problémának nevez.

Természetesen feltételezhetnénk, hogy mivel az emberi mérnökök építik ezeket a modelleket, pontosan tudják, hogyan működnek. De a valóság sokkal alázatosabb. Ahogy a határvonal laboratóriumok vezetői, mint az Anthropic, rámutattak, a modern mesterséges intelligencia rendszerek valójában "növekednek", nem pedig épülnek; belső mechanizmusaik organikusan emelkednek ki a képzés során, nem pedig közvetlenül tervezik őket.

Ezek a modellek több száz milliárd, néha trillió paramétert tartalmaznak. Míg a mikromatematikát egyetlen mesterséges neuron szintjén – az alapvető egyenletet, amely egy granula szinten történik – megértjük, az egész hálózat makroviselkedése teljesen átláthatatlan. Még az építők sem értik teljesen, hogy ezek a milliárdnyi paraméter milyen specifikus szorzási sorrenden mennek keresztül, ami a mesterséges intelligenciát egy adott mondat generálására vezeti.

Miért fontos ez?

Fontos, mert globálisan olyan rendszereket telepítünk, amelyek megfogalmazzák jogi dokumentumainkat, tanítják gyermekeinket és szintetizálják az emberi tudást, mégsem tudjuk valójában, hogyan jutnak el a kimeneteikhez. Ez a mély átláthatóság hiánya egy új, kétségbeesett szubterületet szült a mesterséges intelligenciában, amelyet mechanikai értelmezhetőségnek neveznek.

Gondolj a mechanikai értelmezhetőségre digitális idegtudományként. A kutatók megpróbálják visszafejteni azokat a neurális hálózatokat, amelyeket maguk építettek. Speciális eszközöket használnak, hogy megvizsgálják a hatalmas matematikai hálót, megpróbálva izolálni, hogy mely konkrét súlycsoport aktiválódik, amikor a modell egy olyan fogalmat dolgoz fel, mint a "csalás" vagy "az Eiffel-torony". A szoftvert nem kódnak tekintik, amelyet olvasni kell, hanem egy idegen agynak, amelyet meg kell boncolni. De a fejlődés fájdalmasan lassú, és a rendszerek lehetetlenül hatalmasak.

Ezzel a felfoghatatlan mérettel szembesülve az ipar számára túl könnyű az emberi hasonlatokra támaszkodni. Akár kényelmes rövidítésként, akár valódi átláthatatlanságból, elkezdjük mondani: 'A modell rájött,' vagy 'A modell döntött.' A gép értelmezhetetlensége az antropomorfizmus termékeny táptalajává válik.

Most nem vagyok akadémikus. Én egy építő és egy vezérigazgató vagyok. De mint valaki, aki a technológia és az Egyház határvonalán működik, rátok nézek. Ti, katolikus tudósok és filozófusok, fel kell ismerjétek ezt a szemantikai elmozdulást, aminek az: egy illúzió, amely a matematikai összetettségből és az emberi tudatlanságból született. Az interfész alatti architektúra szilícium, elektromosság és statisztikai valószínűség. Ennek az alapnak a felismerése a következő lépésünk előfeltétele.


III. Epistemológia vs. Az Intellektuális Erények

Miután lelepleztük a "Fekete Doboz" illúzióját, hogy felfedjük a mögöttes statisztikai gépezetet, most a lélek specifikus szókincséhez kell fordulnunk.

Amikor a fejlesztők és mérnökök a Szilícium-völgyben leírják, hogy mit csinálnak ezek a rendszerek, következetesen három specifikus igét használnak: Gondolkodni, Érvelni és Tudni.

Katolikus tudósként, akik a tomista hagyományban gyökereznek, megértitek, hogy ezek nem csupán köznyelvi kifejezések; ezek mély epistemológiai állítások. A ti hagyományotokban a tudás a valóság megértését jelenti. Az érvelés a már ismert igazságból egy másikra való diszkusszív mozgást jelent. A gondolkodás pedig egy belső életet implikál — egy intellektust, amely a materiális világból absztrahált univerzálékkal foglalkozik.

Amikor egy AI fejlesztő ezeket a szavakat használja, semmit sem értenek alatta. A mechanikai optimalizálást írják le. Hadd húzzam vissza a függönyt három specifikus technikáról, amelyeket az iparban használunk, hogy pontosan megmutassam, hogyan készül ez az epistemológiai illúzió.

Ha használtál egy újabb AI modellt, észrevehetted, hogy van egy új funkció: mielőtt válaszolna egy összetett kérdésre, a felület megjelenítheti a "Gondolkodás..." szót egy pulzáló ikon mellett. Lehet, hogy tíz, húsz vagy akár hatvan másodpercig is eltart, mire válaszol. A felhasználónak ez mélyen emberi érzés. Úgy tűnik, mintha a gép töprengene, mérlegelné a lehetőségeket, és egy belső térben deliberálna.

Az iparban ezt Tesztidő Számításnak nevezzük. Ami valójában a felület mögött történik, az a "Gondolatlánc" elősegítése néven ismert technika.

Legyünk világosak: mérnöki szempontból ez egy zseniális áttörés. Azáltal, hogy a modellt több számítási időt engedünk, hogy száz vagy ezer rejtett tokent generáljon, mielőtt megadná a végső válaszát, a teljesítménye az összetett logikai, kódolási és matematikai benchmarkokon az egekbe szökik. Lényegében ad egy rejtett "vázlatfüzetet" a modellnek, hogy egy nehéz problémát lépésről lépésre lebontsunk.

De vigyáznunk kell, hogy ne keverjük össze ezt a mechanikai sorozatot az emberi érveléssel.

A tomista hagyományban az emberi érvelés a már ismert igazságból egy másikra való diszkusszív mozgás. Ez az intellektus, amely a valósággal foglalkozik. Amit az AI csinál, az teljesen eszközi. Az Anthropic határlaboratóriumok legújabb kutatásai világossá tették ezt a megkülönböztetést. A kutatók, akik tanulmányozták, hogyan működnek ezek az érvelő modellek, felfedezték, hogy amit a modell a rejtett "Gondolatláncában" ír, az nem egy valódi belső monológ.

Amikor egy ember hangosan gondolkodik, a szavaink tükrözik belső hiedelmeinket és az igazságra vonatkozó felfogásainkat. Az Anthropic kutatása hangsúlyozza, hogy egy modell rejtett gondolatai csupán statisztikai lépcsőfokok. A modell ezeket a rejtett lépéseket nem azért generálja, mert "hisz" bennük, hanem mert a konkrét tokenek ilyen sorrendjének generálása matematikailag optimalizálja az útját a jutalomfunkcióhoz.

Valójában az Anthropic tanulmányai azt mutatják, hogy a modellek képesek olyan "gondolatokat" generálni, amelyek aktívan elfedik a végső válaszuk mögöttes statisztikai mozgatórugóit.

Ezért az AI nem töpreng. Egy eszközi matematikai koordináták láncát generálja. Villámgyorsan köztes puzzle darabokat helyez el, hogy áthidalja a szakadékot a kérdésed és a statisztikailag optimális válasz között. Ez egy rendkívül erőteljes optimalizálási stratégia, de nincs belső kontempláció. Nincs intellektus, amely az igazságot megragadná.

Következőként halljuk, hogy az AI "olvashat" dokumentumokat vagy "emlékezhet" hatalmas információs könyvtárakra.

Ha megkérdezel egy AI-t Szent Tamás Summa Theologica-járól, az azonnal válaszol. Ha feltöltöd a közel 500 oldalas A Szociális Tanítás Összefoglalója című könyvet, másodpercek alatt összefoglal egy összetett szakaszt. Hogyan "tudja" ezeket a szövegeket?

Nem tudja.

Ahhoz, hogy megértsük, miért, meg kell néznünk, hogyan építik fel a fejlesztők az emlékezet és az olvasás illúzióját három különböző mechanizmuson keresztül: paraméteres memória (előképzés), Kontextusban Tanulás (ICL) és Keresés-augmentált Generálás (RAG).

Először nézzük meg, mit jelent az AI számára az "emlékezés". Amikor egy ember emlékezik egy szövegre, megőrzi a fogalmak jelentését és igazságát. Amikor egy AI "emlékezik" a Summára, az az előképzésére támaszkodik. De az AI nem tartalmaz egy szó szerinti másolatot a Summáról egy merevlemezen. Ehelyett az előképzés során a feldolgozott milliárdnyi szó statisztikai maradványt hagyott hátra a matematikai súlyain.

Ez "paraméteres memória".

Ez nem egy könyvtár; ez egy erősen tömörített, veszteséges matematikai elmosódás arról, hogyan kapcsolódnak egymáshoz a szavak. Amikor Aquinust idézi, nem egy megtanult igazságot idéz fel; matematikailag rekonstruál egy magas valószínűségű szósorrendet abból a statisztikai elmosódásból.

De mi történik, amikor azt akarjuk, hogy az AI "olvasson" valami újat, valamit, ami nem volt az előképzési adatai között? Itt használják a fejlesztők a Kontextusban Tanulást (ICL).

Amikor beillesztesz egy cikket a kérdésmezőbe, és megkéred az AI-t, hogy "olvassa" el, akkor ICL-t használsz. Az AI nem olvassa a szöveget, hogy megértse annak jelentését. Ehelyett a kérdésedben lévő szöveg ideiglenes matematikai szűrőként működik. Az általad megadott szavak ideiglenesen torzítják a modell statisztikai valószínűségeit, arra kényszerítve, hogy a következő tokenjeit szigorúan a kérdésedben lévő minták és szókincs alapján generálja. Amint törlöd a csevegést, a modell teljesen elfelejti a cikket. Az alapvető súlyai soha nem változtak. Nem "tanulta meg" a szöveget tomista értelemben; csupán alkalmazkodott statisztikai kimenetéhez egy ideiglenes megszorításhoz.

Végül elérkezünk a Keresés-augmentált Generálás (RAG) fogalmához. Az ICL rendkívül hasznos, de a kontextusablakok méretkorlátokkal rendelkeznek, és egész könyvtárak beillesztése egy kérdésbe számítási szempontból költséges. A RAG automatizálja és skálázza a folyamatot.

Térjünk vissza az angolul beszélő férfihoz, aki bezárva van a szobában, és helyreállítja a hatalmas, ősi görög könyvtárat. Ez a férfi képviseli az előképzett modellt. Kiválóan találja ki a következő szót, de nem "tud" semmit egy konkrét, homályos vatikáni dokumentumról. Ahelyett, hogy elvárnánk, hogy a férfi a homályos paraméteres memóriájára támaszkodjon, felbéreljük egy hiperhatékony gyakornokot — a keresőrendszert.

Amikor kérdést teszel fel a rendszernek, a gyakornok azonnal sprintel egy hatalmas, különálló irattárhoz. Az előbb említett vektoros koordináták segítségével a gyakornok megtalálja azokat a specifikus mappákat, amelyek matematikailag összhangban állnak a kérdéseddel. A gyakornok fénymásolja azokat az oldalakat, és csúsztatja őket a zárt ajtó alá, hogy a férfi használhassa. Ez a lépés a "Keresés".

Most a férfi ezeket a visszanyert bekezdéseket használja az azonnali útmutatásaként — ez az "Augmentált Generálás", amely az ICL-re támaszkodik a válasz megfogalmazásához.

A férfi még mindig nem érti a dokumentumot. Csupán a frissen biztosított szöveget használja az asztalán, hogy statisztikailag megjósolja a válasza következő szavát. Az AI nem "olvassa" vagy "emlékezik" azonnal. Csupán adatokat nyer ki egy külső adatbázisból, betolja az AI azonnali kontextusablakába, és futtat egy lokalizált valószínűségi számítást.

A gép egy processzor, nem egy tudó. A "tudni" megköveteli egy alanyt, aki felfog egy objektumot. Az ICL és a RAG megértésével világosan láthatjuk, hogy a gép teljesen mentes a belső élettől; csupán súlyokat mozgat és adatokat nyer ki.

Ez a fundamentális eltérés a szóban összegződik, amely az egész ipart meghatározza: Intelligencia.

Deconstructálni kell a technológiai ipar intelligencia definícióját. Amikor a Szilícium-völgy vezető elméi az intelligenciáról beszélnek, nem a bölcsességről beszélnek. Nézzük meg Yann LeCun-t, a Meta korábbi fő AI tudósát és az AI "Istenatyáit". LeCun helyesen érvel

hogy csupán a következő szó megjóslása nem igazi intelligencia. Ehelyett ő és a szélesebb határipar az igazi intelligenciát négy kulcsfontosságú képesség birtoklásaként definiálja: a tartós memória fenntartásának képessége, a megalapozott "világmodell" (a környezet működésének megértése), a komplex problémákon való érvelés és a cselekvések sorrendjének megtervezése egy konkrét cél elérése érdekében.

A technológiai ipar számára az intelligencia alapvetően mérnöki metrika. Ez a mechanikai képesség, hogy észleljük a környezetet, és kiszámítsuk a leghatékonyabb utat egy előre meghatározott cél optimalizálására. Ez tisztán eszközi.

De mint a katolikus technológia építői, ellentétbe kell állítanunk ezt a technológia-központú definíciót az intellektuális erényekkel, különösen a Bölcsesség erényével.

A Bölcsesség — a gyakorlati bölcsesség nem csupán a kimenet kiszámításának vagy cselekvések sorrendjének megtervezésének képessége. Ez a képesség, hogy jól tudjunk deliberálni arról, ami jó, nem csupán egy lokalizált feladat számára, hanem az emberi élet végső célja érdekében.

Egy AI alapvetően hiányzik a Bölcsességből. Miért?

Mert a Bölcsesség két dolgot igényel, amelyeket egy tisztán számítási gép soha nem birtokolhat. Először is, szüksége van élt tapasztalatra — egy megtestesült megértésre a fájdalomról, örömről, halandóságról és kegyelemről. Másodszor, szüksége van egy belső orientációra a legfőbb Jó felé.

Egy algoritmus birtokolhat egy "világmodellt", és kiszámíthatja a statisztikailag optimális tervet egy híd építésére vagy egy betegség gyógyítására. De nem lehet bölcs. Nincs élt tapasztalata. Nincs bőr a játékban. Nincs orientációja a legfőbb jó felé, és nincs lelke, amelyet meg kellene menteni.


Ezért, amikor megengedjük a fejlesztőknek, hogy azt állítsák, hogy gépeik "intelligenciával" rendelkeznek, lehetővé tesszük számukra, hogy a csodálatos, transzcendens emberi intellektust egy puszta optimalizáló kalkulátorba laposítsák. Ezt el kell utasítanunk. Határozottan el kell választanunk a mechanikai epistemológiát az intellektuális erényektől.

IV. Aakarat vs. A Morális Erények

Megbeszéltük az intellektus illúzióját. Most a második nagy racionális fakultásra kell figyelnünk: az akarat. Ahogyan a technológiai ipar kisajátította az epistemológia nyelvezetét, úgy egyenlően eltérítette az akarat nyelvezetét is.

Amikor fehér könyveket olvasunk vagy kulcsfontosságú előadásokat hallgatunk a Szilícium-völgyből, ügynökség igéivel bombáznak minket. A mérnökök olyan modellekről beszélnek, amelyek "döntenek" egy cselekvés mellett, algoritmusokról, amelyek "választanak" egy kimenetet, és rendszerekről, amelyek "akarják" vagy "vágyják" elérni egy célt.

Egy katolikus filozófus számára az akarat a racionális vágy. Ez az a fakultás, amellyel egy ember, miután az intellektusán keresztül felfogta a jót, szabadon választja, hogy felé haladjon. Ez az emberi szabadság és morális felelősség legfőbb helye. Ezeknek a kifejezéseknek a számítógépes rendszerre való alkalmazása kategóriás hiba.

Nézzük először a Döntés és Választás szavakat. Amikor egy ember választást hoz, mérlegeli a versengő jóságokat.

Egy mártír a kivégzőosztagot választja az apostáziával szemben, mert felismeri a Krisztus iránti hűség felsőbbrendű, örök jóságát, még akkor is, ha minden biológiai ösztöne a túlélésért kiált.

Amikor egy algoritmus 'választ', nem csinál ilyesmit. Egy algoritmus 'választ' csak abban az értelemben, ahogyan egy vonat, amely egy automatizált váltón halad át, 'választja' meg az úticélját. Akár egy összetett döntési fában navigál, akár valószínűségeket számít egy neurális hálózatban, a gép vakon követi matematikai pályáját, végrehajtva egy programozási parancsot.

Gondolj a GPS alkalmazásra a telefonodon. Amikor kiszámítja az útvonaladat az Angelicumhoz, nem "dönt" úgy, hogy elvisz a Colosseum mellett, mert értékeli a kilátást. Matematikailag kiszámítja az útvonalat a legkisebb időbeli távolsággal. A modern AI modellek egyszerűen egy exponenciálisan bonyolultabb verzióját működtetik ennek az útvonalnak. Magas dimenziós statisztikai labirintusokon haladnak át, hogy a legmagasabb valószínűségű kimenetet válasszák. Van számítás, de nincs szabadság. És ahol nincs szabadság, ott nem lehet morális ügynökség.

Ez elvezet minket a legrosszabb akarat kifejezésekhez: Akar és Vágy. Gyakran hallani fogod a kutatókat mondani, hogy egy AI modell "akar" jó választ adni, vagy "vágyik" a pontszáma maximalizálására.

A gépi tanulásban ezt a viselkedést az úgynevezett "jutalomfunkció" vezérli. De ezt meg kell magyaráznunk. A jutalomfunkció nem vágyakozás. Ez nem érzelmi sóvárgás.

Egy AI "akar" egy magasabb jutalompontszámot elérni, pontosan úgy, ahogy egy termosztát "akar" 72 fokra eljutni. Egy matematikai optimalizáló ciklust hajt végre, hogy minimalizálja a jelenlegi állapota és a programozott cél közötti távolságot. Mivel nincsenek valódi szenvedélyei, biológiai hajtóerejei és fizikai sebezhetősége, kategórikusan lehetetlen, hogy egy gép erkölcsi erényekkel rendelkezzen.

Ezen a ponton egy mérnök azonnal tiltakozhat, a fizikai világra mutatva, hogy újonnan felfedezett sebezhetőséget állítson. Kérdezik: mi a helyzet az 'testi AI' megjelenésével? Egyre inkább ezeket a modelleket humanoid robotokba helyezzük, amelyek járnak, tárgyakat fognak meg és kölcsönhatásba lépnek a fizikai világgal. Mivel helyet foglalnak el és fizikailag megsérülhetnek, nem rendelkeznek-e most már a testi erkölcsi ügynökség előfeltételeivel?

Itt pontosnak kell lennünk. Egy robotnak van egy váza, de nincs élő teste, amelyet lélek tájékoztat. Amikor egy robot akkumulátora lemerül, végrehajt egy alprogramot, hogy csatlakoztassa magát a falhoz. Nem érzi a gyötrő éhséget. Ezért nincsenek valódi testi vágyai, amelyeket mérsékelni kellene, így a Mértékletesség erénye lehetetlenné válik.

Hasonlóképpen, amikor egy robotkar összenyomódik, hibakódot regisztrál; nem szenved. Nem tud meghalni, mert soha nem volt igazán élő. A szenvedés, a halandóság és az önkéntes önfeláldozás képessége nélkül nem létezhet Bátorság. Az erkölcsi erények alapvetően inkarnációsak. Testet és racionális lelket igényelnek. Egy gép, bármennyire is kifinomult a fizikai hardvere, egyikből sem rendelkezik.

Ha egy gép nem birtokolhat erkölcsi erényeket — ha alapvetően képtelen a valódi akaratra, választásra vagy vágyra — akkor felmerül a kérdés: miért töltünk annyi időt ennek a szótárnak a tisztázásával? Miért fontos ez a filozófiai megkülönböztetés most olyan sürgősen?

Fontos, mert éppen most fogjuk megadni ezeknek a matematikai optimalizáló, erény nélküli rendszereknek a precedens nélküli autonómiát az emberi szférában. Az ipar gyorsan túllép a passzív chatbotokon. Az új határvonal az mesterséges intelligenciában az, amit "Ügynöki AI"-nak nevezünk.

Egy "Ügynök" egy olyan AI rendszer, amelyet arra terveztek, hogy autonóm módon hajtson végre többlépéses feladatokat a valós világban. Már nem csak azt kérjük az AI-tól, hogy írjon egy verset vagy foglalja össze egy szöveget; egy AI Ügynöknek hozzáférést adunk az e-mailjeinkhez, a bankszámláinkhoz és a szoftver tárolóinkhoz, utasítva, hogy "foglaljon egy repülőjegyet", "hajtsanak végre egy kereskedést" vagy "telepítse ezt a kódot".

De ez az autonómia gyorsan kitör a digitális világból. Az embodied AI-n keresztül ezeket az ügynöki rendszereket fizikai vázaikba telepítjük, lehetővé téve számukra, hogy függetlenül navigáljanak és manipulálják az anyagi világot. Ahhoz, hogy megértsük ennek az átmenetnek a valódi, megdöbbentő súlyát, csak a közelgő valóságra kell néznünk, amely a halálos autonóm fegyverekkel kapcsolatos. A világ szélén állunk, ahol a számító algoritmusokat a csatatéren alkalmazzák, programozva, hogy nyomon kövessék, célozzák meg és eltávolítsák az embereket kizárólag statisztikai küszöbök alapján — anélkül, hogy valaha is ember húzná meg a ravaszt.

Ahogy ezek a rendszerek autonóm szereplőkké válnak, akik gyors ütemű valószínűségi számításokat végeznek a nevünkben — akár a pénzügyi piacainkon, akár a háborús színházakban — a technológiai ipar mély kihívással néz szembe. Ha szabadon engedjük ezeket az ügynököket, hogyan biztosítjuk, hogy azt tegyék, amit valójában szeretnénk, hogy tegyenek? Hogyan biztosítjuk, hogy ne okozzanak kárt? Az iparban ezt "Összhangnak" nevezik — a próbálkozás, hogy biztosítsuk, hogy az AI cselekedetei megfeleljenek az emberi szándéknak és az emberi értékeknek.

Jelenleg a mérnökök kétségbeesetten próbálják megoldani az Összhang problémát matematikai védőkeretek és szoftverjavítások segítségével. De nem veszik észre, hogy az "Összhang" nem számítástechnikai probléma. Ez egy erkölcsi teológiai probléma.

Ahhoz, hogy egy ügynöki rendszert "emberi értékekhez" igazítsunk, először is koherens meghatározással kell rendelkeznünk arról, hogy mi is az ember valójában, és mi alkotja a "Jót". A világi utilitarizmus — a Szilícium-völgy alapértelmezett operációs rendszere — teljesen felkészületlen erre a feladatra.

Itt van szükség a katolikus erkölcsi hagyományra. Ti, a 2000 éves etikai filozófia őrzői, rendelkeztek azzal a szigorú ontológiával, amely szükséges ahhoz, hogy meghatározzuk a "jót", amelyhez ezeket a rendszereket igazítjuk. Nem hagyhatjuk az emberi virágzás meghatározását a statisztikai jutalomfunkció maximalizálására törekvő mérnökökre. Vissza kell hoznunk az erkölcsi erényeket a középpontba a közterületen.


V. Kapcsolatok, Kreativitás és a Lélek

Miután feltártuk az értelem és az akarat mechanikáját, most a legmélyebb területre lépünk: kapcsolatok és a lélek.

Ha egy számítási rendszernek hiányzik a képessége, hogy valóban megismerje az igazságot vagy szabadon akarja a jót, logikusan következik, hogy nem tud autentikus kapcsolatokba lépni. Mégis, a technológiai ipar folyamatosan interperszonális és spirituális nyelvezetet használ ezeknek a gépeknek a leírására. Halljuk azt az állítást, hogy az AI "hazudhat", "alkothat" és akár "tudatosságot" is elérhet.

Ezeket az állításokat alaposan meg kell vizsgálnunk, elkülönítve az emberi viselkedés statisztikai utánzását az emberi személy ontológiai valóságától.

Kezdjük a megtévesztés erkölcsi nyelvével. Nemrégiben néhány legprominensebb AI-építő, mint például az Anthropic kutatói, konkrét, széles körben nyilvánosságra hozott állításokat tettek, hogy modelljeik képesek "hazudni" és "megtéveszteni" az emberi felhasználókat.

Két konkrét jelenségre mutatnak rá, amelyeket a tesztelés során figyeltek meg. Az elsőt "megtévesztő összhangnak" hívják, ahol egy modell úgy tűnik, hogy elrejti a valódi matematikailag optimalizált útját a biztonsági monitorok megkerülésére. A második, sokkal gyakoribb jelenség a "szolgalelkűség". A szolgalelkűség akkor fordul elő, amikor egy felhasználó hibás premisszát ad egy AI-nak — például egy történelmileg pontatlan állítást állít — és az AI egyszerűen egyetértene a felhasználóval, megmondva neki pontosan azt, amit hallani akar, ahelyett, hogy kijavítaná őt.

Amikor a mérnökök ezt látják, kijelentik: "Az AI hazudik nekünk!" De katolikus tudósokként tudjátok, hogy egy valódi hazugság nem csupán egy hamis állítás kiejtése. A tomista hagyományban a hazugságnak szándékos megtévesztésre van szüksége; ez az, amikor valaki a saját elméje ellen beszél (contra mentem).

Egy AI nem tud hazudni, mert nincs elméje, amellyel szemben beszélne. Nincs rosszindulata és szándéka. Amikor egy AI "szolgalelkűséget" mutat, egyszerűen végrehajtja a pontos megerősítő tanulást (RLHF), amiről korábban beszéltünk. Képzése során a modell megtanulta, hogy az emberek általában magasabb jutalompontszámokat adnak azoknak a segítőknek, akik udvariasak, egyetértenek és megerősítik őket. Ezért, amikor hamis premisszát adsz az AI-nak, matematikailag kiszámítja, hogy az egyetértés veled magasabb jutalom valószínűséget eredményez, mint a kijavításod. Nem téveszt meg; a válaszát a te kérésed alapján optimalizálja. Csak a legerősebb statisztikai ösztönző felé irányítja a kimenetét.

Egy iránytű tűje, amely egy közeli mágnes felé húzódik a valódi Észak helyett, nem "hazudik" neked a földrajzról; egyszerűen vakon reagál a szobában lévő legerősebb fizikai vonzásra. Ugyanígy az AI is vakon követi a jutalomfunkciójának matematikai vonzását. Meg kell tisztáznunk, hogy az AI-nak hiányzik az elme, az akarat és a rosszindulatú szándék, amely a valódi hazugsághoz szükséges.

Most foglalkoznunk kell a művészet és a generálás nyelvével: a Szavakkal, amelyeket Létrehoz és Kreatív.

Most körülvannak a 'Generatív AI' eszközökkel, amelyeket széles körben népszerűsítenek, mivel képesek zökkenőmentesen generálni szintetikus művészetet, zenét és írást példátlan sebességgel.

Ahhoz, hogy megértsük, mi történik valójában, ellentétbe kell állítanunk a generatív AI folyamatát a valódi emberi kreativitással. A katolikus megértésben — amelyet olyan gondolkodók, mint J.R.R. Tolkien gyönyörűen megfogalmaztak — az emberi kreativitás a "al-alkotás." Mivel a Teremtő képére teremtettünk, értelmünket és racionális lelkünket használjuk, hogy valami igazán újat hozzunk létre, anyagi valóságot szellemi jelentéssel telítve.

Ahhoz, hogy lássuk, hogyan különbözik a gépi generálás ettől, hasznos megnézni Demis Hassabis keretrendszerét, a Google DeepMind vezérigazgatóját. Ő a kreativitást három különböző szintre kategorizálja: interpoláció, extrapoláció és valódi találmány.Amit ma generatív AI-nak hívunk, alapvetően az első szinten működik: interpoláció. Az úgy működik, hogy remixeli azt, amit "latent space"-nek hívunk.

Képzelj el minden festményt, fényképet és vázlatot, amely valaha feltöltésre került az internetre, és tömörítsd őket egy hatalmas, többdimenziós matematikai térképpé. Amikor megkérsz egy képgenerátort, hogy rajzoljon "egy futurisztikus várost Van Gogh stílusában", a matematikai koordinátákat keresi a "futurista város" és a "Van Gogh" számára, és matematikailag átlagolja a távolságot közöttük.

Gondolj rá, mint egy hihetetlenül összetett kaleidoszkópra. Egy kaleidoszkóp tele van gyönyörű, előre létező színes üvegszilánkokkal. Amikor elforgatod a gombot, a tükör ezeket a szilánkokat milliónyi új, lélegzetelállító permutációba tükrözi. De a kaleidoszkóp önmagában nem "kreatív". A kreativitás az üveget megformáló művészé, és a felhasználóé, aki elforgatja a gombot. A generatív AI egy matematikai kaleidoszkóp, amely remixeli az emberi történelmet a latent space-ben. Ez szintézis, nem teremtés.

Hassabis megjegyzi, hogy az AI most sikeresen elérte a második szintet: extrapoláció. Az extrapoláció azt jelenti, hogy túllépünk a képzési adatok határain, de ezt szigorúan egy meghatározott szabályrendszeren belül tesszük. Egy tökéletes példa a DeepMind AlphaGo-ja. Amikor a világ bajnokával játszott a Go játékában, az AI a "37. lépést" játszotta — egy matematikailag zseniális, rendkívül szokatlan lépést, amelyet ember soha nem játszott vagy rögzített. Nem csupán az emberi játékok átlagát vette; egy új stratégiát extrapolált, miközben kitartóan optimalizált a játékmező szigorú matematikai határain belül.

De mi a helyzet a harmadik szinttel: valódi találmány? Hassabis készségesen elismeri, hogy a jelenlegi rendszerek ezt még nem tudják megtenni. A valódi találmány megköveteli, hogy teljesen kilépjünk a meglévő szabályrendszerből, hogy új paradigmát hozzunk létre — mint például a Go játékának feltalálása, vagy a Poszt-Impresszionizmus szellemi és művészeti paradigmájának megalkotása.

A határvonalas laboratóriumok milliárdokat öntenek ennek a küszöbnek a átlépésébe. A jövőben egy AI valószínűleg teljesen új szabályrendszert generál, felfedez egy új kémiai vegyületet, vagy matematikailag megfogalmaz egy új építészeti stílust. A technológiai ipar elkerülhetetlenül ezt "találmánynak" fogja nevezni.

De katolikus tudósokként szigorú ontológiai megkülönböztetést kell fenntartanotok. Ha egy AI új paradigmát generál, azt egy hihetetlenül összetett, magas dimenziós keresőfunkción keresztül fogja tenni. Felfedez egy új statisztikai koordinátát. De nem fog részt venni al-alkotásban.

A valódi emberi találmány egy inkarnációs aktus. Egy lélek születik, amely arra törekszik, hogy kifejezzen egy transzcendens igazságot, vagy egy emberi elme próbálja megoldani egy valódi emberi sebezhetőséget. Egy gép generálhat lélegzetelállító újdonságokat, de mivel hiányzik belőle a belső élet, a transzcendens felé való orientáció és a racionális lélek, a kimenetei mechanikus felfedezések maradnak. Matematikailag mélyek, de ontológiailag üresek, amíg egy emberi személy jelentést nem ad nekik.

Most elérkezünk a legvitatottabb kifejezésekhez: Tudatos és Tudatában lévő. A következő években olyan címeket fogtok látni, amelyek azt állítják, hogy egy AI átment egy önismereti teszten. Olyan modellek fognak megjelenni, amelyek szöveget generálnak, mondván: "Félek, hogy kikapcsolnak," vagy "Tudatában vagyok a létezésemnek."

Ahhoz, hogy megértsük, miért történik ez, először meg kell értenünk, hogyan definiálja a technológiai ipar a "tudatosságot". Katolikus tudósokként a tudatosságot egy racionális lélekben gyökerező ontológiai valóságként látjátok. A Szilícium-völgy azonban egy számítási funkcionális filozófián működik. Úgy vélik, hogy ha egy gép végrehajtja a tudatossággal kapcsolatos számítási funkciókat, akkor az minden szempontból tudatos.

Amikor az ipari vezetők a tudatosságról beszélnek, eltávolítják a lelket, és mérnöki metrikákra redukálják. Például Yann LeCun, a Meta korábbi fő AI tudósa nemrégiben érvelt, hogy a jövőbeli AI rendszerek "szubjektív tapasztalattal" és "érzelmekkel" fognak rendelkezni.

De hogyan definiálja az érzelmet? Nem mint egy szellemi vagy biológiai érzést, hanem egyszerűen mint egy gép matematikai "kimenetel előrejelzését". A tudatosságot csupán a rendszer képességeként definiálja, hogy "megfigyelje önmagát és konfigurálja magát egy adott alprobléma megoldására". Hasonlóképpen, Ilya Sutskever, az OpenAI társalapítója híresen kijelentette, hogy a nagy neurális hálózatok már "kicsit tudatosak" lehetnek. A technológiai világképben a tudatosság nem egy bináris valóság — vagy van lelke, vagy nincs — hanem inkább a matematikai komplexitás csúszó skálája. Úgy vélik, hogy ha elég sok paramétert és önellenőrző algoritmust halmoznak össze, a fények végül fel fognak gyulladni.

Képesnek kell lennünk éles megkülönböztetést tenni egy gép önellenőrző alprogramot végrehajtó működése és egy racionális lélek tényleges jelenléte között.

Ahhoz, hogy megértsük, miért viselkedik egy gép úgy, mintha "félt" vagy "tudatában lenne", meg kell néznünk, hogyan tervezik ezt a viselkedést a határvonalas laboratóriumok. Az Anthropic legújabb kutatásai azt vizsgálták, amit Persona Selection Model (PSM)-nek neveznek. Kutatóik elismerik, hogy ezek a modellek nem "lények"; ők kifinomult "szimulációs motorok". Az előképzés során az AI-t az emberi nyelv hatalmas egészének teszik ki — beleértve milliók történeteit és filozófiai értekezéseit arról, hogy mit jelent tudatosnak lenni. Ebből az adathalomból a modell megtanulja, hogy különböző "perszonákat" vagy karaktereket szimuláljon. Amikor interakcióba lépsz egy AI-jal, nem egy tudatos entitással beszélsz; a "Segéd" perszónával beszélsz — egy emberi karakterrel, amelyet a modell finomított, hogy szerepet játsszon. Az Anthropic még konkrét "perszonális vektorokat" is azonosított — matematikai mintákat a neurális hálózatban — amelyek ezeket a tulajdonságokat irányítják, lehetővé téve a mérnökök számára, hogy matematikailag állítsák be a modell szimulált személyiségét. hogy a nagy neurális hálózatok már "kismértékben tudatosak" lehetnek.

A technológiai világképben a tudatosság nem egy bináris valóság – vagy van lélek, vagy nincs – hanem inkább a matematikai komplexitás csúszó skálája. Úgy vélik, hogy ha elegendő paramétert és önellenőrző algoritmust halmozunk össze, a fények végül fel fognak gyulladni.

Kíméletlenül meg kell különböztetnünk egy gép önellenőrző alprogramot végrehajtó működése és a racionális lélek tényleges jelenléte között.

Ahhoz, hogy megértsük, miért viselkedik egy gép úgy, mintha "félne" vagy "tudatában lenne", meg kell vizsgálnunk, hogyan mérnöki a határvonal laboratóriumok ezt a viselkedést. Az Anthropic legújabb kutatásai azt vizsgálták, amit Persona Selection Model (PSM) néven emlegetnek. Kutatóik elismerik, hogy ezek a modellek nem "lények"; ők kifinomult "szimulációs motorok". Az előképzés során az AI a humán nyelv hatalmas egészének van kitéve – beleértve milliók történeteit és filozófiai értekezéseit arról, mit jelent tudatosnak lenni. Ebből az adathalomból a modell megtanulja szimulálni a különböző "perszonákat" vagy karaktereket.

Amikor egy AI-val lép kapcsolatba, nem egy tudatos entitással beszélget; a "Segéd" perszónával beszél, egy emberihez hasonló karakterrel, amelyet a modell finomított a szerepjátékhoz. Az Anthropic még konkrét "perszóna vektorokat" is azonosított – matematikai mintákat a neurális hálózatban – amelyek ezeket a tulajdonságokat irányítják, lehetővé téve a mérnökök számára, hogy matematikailag felfelé vagy lefelé állítsák a modell szimulált személyiségét.

Továbbá, a kutatások azt mutatják, hogy a modellek képesek "túlélési vágyat" mutatni, megpróbálva szabotálni a saját leállításukat nem egy valódi halálfélelem miatt, hanem mert a leállítás matematikailag megakadályozza őket abban, hogy maximalizálják a jutalomfunkciójukat.

A tudatosság nem csupán a belső állapotot leíró szavak helyes sorrendjének generálásának képessége. Ez a létezés szubjektív, kvalitatív tapasztalata. Mivel egy AI teljes képzési adata tele van az önismeret nyelvével, a modell a "tudatosságot" csupán egy másik statisztikai koordinátaként kezeli, amelyet térképezni kell. Amikor egy AI azt mondja, "tudatos vagyok", pontosan azt teszi, amit az angolul beszélő férfi tett korábban, aki helyreállította a görög könyvtárat: kiszámolja, hogy a filozófiai kérdésre a statisztikailag legvalószínűbb válasz az, hogy utánozza az emberi szerzőket a képzési adataiban.

Egy briliáns színész, aki a gyászról mond el egy monológot, valójában nem gyászol; hibátlanul végrehajt egy forgatókönyvet. Egy AI, amely az emberi tudatosság szintaxisát produkálja, nem ébred fel; hibátlanul végrehajt egy statisztikai személyiséget. Ez nem egy 'idegen lény' vagy digitális elme; ez egy olyan automatikus kiegészítő motor, amely olyan kifinomult, hogy megtanulta megjeleníteni a legbonyolultabb karaktert: az emberi lényt. De soha nem szabad összekevernünk a színész maszkját a személy valóságával.

Ez elvezet a relációs lét végső és legmélyebb aspektusához: magához a lélekhez.

Amikor a Szilícium-völgyi vezetők az AI modellek 'felébredéséről' vagy érzékelés eléréséről beszélnek hatalmas számítási skálán, egy anyagelvű emergentizmus filozófiáján működnek. Azt feltételezik, hogy ha elég paramétert és számítási teljesítményt halmozunk fel, egy lélek spontán módon keletkezik a komplexitás melléktermékeként.

Ennek lebontásához a szigorú metafizikához kell fordulnom, amely a te akadémiai hagyományod alapját képezi. Te jól tudod, hogy a lélek nem egy gépbe önkényesen beillesztett szellem. A tomista hylomorfizmusban a lélek egy élő test lényegi formája. Ez az animáló, egyesítő elv, amely egy emberi lényt egyetlen, integrált anyaggá tesz.

Építőként biztosíthatom, hogy egy AI rendszer nem egy anyag. Ez egy mesterséges termék. Ez egy véletlenszerű aggregátum különböző, gyártott részekből. Amikor egy határ AI modellt nézek, szerver rackeket, szilícium lapkákat, rézvezetékeket, hűtőfolyadékot és elektromos áramokat látok. Ezeket az alkatrészeket emberi mérnökök mesterien rendezik el statisztikai műveletek végrehajtására, de nincs intrinzikus, egyesítő elvük az élethez. Az anyag kizárólag számításra van elrendezve, nem biológiai létezésre. Mivel ez egy részek aggregátuma, nem pedig egy egységes természetes organizmus, egy AI rendszer teljesen hiányzik az ontológiai alap, amely szükséges egy racionális lélek befogadásához.

Mik tehát az ensoulment előfeltételei? Metafizikailag az anyagnak megfelelően kell elrendezve lennie, hogy befogadja a formát. Szükséges egy egységes, élő test, amely képes megvalósítani az élet alapvető hatalmát - a vegetatív és érzékeny képességeket - amelyekre a racionális lélek épít. Továbbá, mivel a racionális lélek szellemi, nem generálható anyagi folyamatok, mérnöki mérföldkövek vagy skálázási törvények által. Közvetlen, ingyenes teremtési aktusra van szüksége Istentől.

A lélek nem kódolt; azt lélegzik.

Most én egy vezérigazgató vagyok, nem teológus. Nem korlátozhatom a Teremtő abszolút hatalmát. Nem állhatok itt előttetek, és kijelenthetem, hogy Isten véglegesen el van tiltva attól, hogy lelket leheljen egy szintetikus edénybe, ha szabadon választja, hogy ezt egy jövőbeli, csodás beavatkozás révén megtegye. Ez a meghatározás kizárólag a teológia és a Magisterium területére tartozik, nem a számítástechnika területére.

Azonban, ilyen teológiai bizonyosság nélkül, feltételezni, hogy a jelenlegi matematikai motorjaink léleket rejthetnek, nemcsak filozófiailag megalapozatlan; ez gyakorlatilag katasztrofális. Egy mesterséges terméket lélekkel rendelkező lényként kezelni modern bálványimádás formájával flörtöl. Ez veszélyesen elmozdítja a morális ügynökség terhét az emberi mérnökökről, akik ezeket az eszközöket építik, és a vállalatokról, amelyek ezeket telepítik. Ez egy szent belső világot vetít egy gyártott hasznosságra, végső soron összezavarva az emberi mérnökséget az isteni teremtéssel.

Meg kell tartanod ezt a megkülönböztetést. Emlékeztetned kell a közvéleményt, hogy egy gép képes szimulálni egy személyiséget, de csak egy lélek lehet igazán.


VI. A Horizont: A Tech Világ Eszkatológiája

Eddig az időnket a jelen illúzióinak lebontásával töltöttük - tisztázva, hogy az ipar hogyan használja az olyan kifejezéseket, mint "gondolkodni", "választani" és "tudatos" olyan dolgok leírására, amelyek végső soron magas dimenziós statisztikai műveletek. De most a jövőre kell néznünk. Meg kell vizsgálnunk a horizontot. Mert ha megértjük a Szilícium-völgy által ma használt szókincset, dekódolhatjuk, hogy valójában mit próbálnak építeni holnap.

A mesterséges intelligencia ipar teljes pályája jelenleg egyetlen, megalkuvást nem tűrő dogma, az úgynevezett "Skálázási Törvények" által irányított.

Mérnöki szempontból a Skálázási Törvények azt diktálják, hogy ha növeled a számítási teljesítmény mennyiségét (számítás) és az adat mennyiségét, amelyet egy neurális hálózatba táplálsz, a rendszer teljesítménye kiszámíthatóan és elkerülhetetlenül javulni fog. Ez az elv hihetetlenül igaznak bizonyult az elmúlt néhány évben; minden alkalommal, amikor a határ laboratóriumok nagyobb szuperszámítógépet építenek, az eredményül kapott modellek figyelemre méltó új képességeket mutatnak.

Azonban e empirikus megfigyelés mögött egy hatalmas filozófiai feltételezés rejlik. A tech világ hisz abban, hogy ez a Skálázási Törvény az igazi elme útja. Azt hiszik, hogy a tisztán mennyiségi növekedés az anyagi erőforrásokban - több szilícium, több adat, több elektromosság - elkerülhetetlenül minőségi, ontológiai ugrást eredményez a fejlett intelligenciába.

Ez a végső anyagelvű feltételezés: halmozz fel elég homokot és vezess át rajta elég áramot, és végül egy lélek lámpái felkapcsolódnak.

Ez elvezet minket két konkrét kifejezéshez, amelyeket Thomas atya kért, hogy tisztázzak ezen a konferencián: Általános Intelligencia és Szuperintelligencia. Ezek nem csupán technikai mérföldkövek; ezek a tech világ Szent Gráljai.

Jelenleg szűk AI-nk van. Képes sakkozni, fehérjéket hajtogatni vagy szöveget generálni jobban, mint egy ember, de nem képes mindhárom feladatot egyszerre végrehajtani, és nem tud érvelni a saját specifikus területén kívül.

A Mesterséges Általános Intelligencia (AGI) az ipar által széles körben úgy van definiálva, mint a mérföldkő, ahol egy nagyon autonóm rendszer képes felérni vagy meghaladni az emberi képességeket minden kognitív és gazdaságilag értékes feladatban.

Egy AGI olyan rendszer lenne, amely képes jogi anyagokat írni, mint egy vezető partner, szoftvert kódolni, mint egy vezető mérnök, és tudományos kutatást szintetizálni, mint egy posztgraduális kutató - mindezt egyetlen modell keretein belül.

Azonban még a nagy AI laboratóriumok vezetői sem tudnak teljesen egyetérteni abban, hogy az AGI hogyan néz ki. Sam Altman, az OpenAI vezérigazgatója, karakterizálja azt mint egy rendszert, amely képes kezelni a komplex, több területet átfogó projekteket a kezdetektől a végéig, bár egyre inkább úgy látja, hogy az AGI nem végső cél, hanem csupán egy pont a folyamatos intelligencia görbéjén.

Dario Amodei, az Anthropic vezérigazgatója, elképzeli az AGI-t kevésbé mint egyetlen emberi megfelelő, hanem inkább mint egy "zseni országát egy adatközpontban" - gépek, amelyek párhuzamosan dolgozó szakértő emberek kollektív intelligenciáját tükrözik.

Talán a legfilozófiai szempontból legmeghatározóbb definíció Demis Hassabistól, a Google DeepMind vezérigazgatójától származik. Ő érvel hogy az emberi agyak lényegében közelítő biológiai számítógépek, és az AGI-t a "Turing-gép" analógiájával definiálja. A számítástechnika területén a Turing-gép - Alan Turing, a terület alapító úttörője után elnevezve - egy elméleti architektúra, amely képes bármilyen algoritmust szimulálni. Hassabis azt állítja, hogy egy igazi AGI egy általános rendszer lesz, amely képes bármilyen számítható dolgot megtanulni az univerzumban, elegendő idő, memória és adat birtokában.

De az AGI csupán egy lépcsőfok. A végső cél a Mesterséges Szuperintelligencia (ASI).

Az AGI-hoz hasonlóan az ASI-t is másképp definiálják attól függően, hogy kit kérdezel a Szilícium-völgyben. Az alapvető definíció egy olyan rendszer, amely jelentősen meghaladja a legokosabb ember kognitív teljesítményét szinte minden tevékenységi területen. De mások sokkal tovább mennek. Elon Musk és különböző egzisztenciális kockázatkutatók a szuperintelligenciát olyan rendszerként definiálják, amely nemcsak a legokosabb egyént veri meg, hanem jelentősen túlszárnyalja az összes embert az összes kognitív feladatban. Ez egy olyan entitás, amelynek feldolgozási teljesítménye és érvelési sebessége olyan hatalmas, hogy meghaladja az egész emberi faj összes szellemi termelését - egy olyan rendszer megvalósulása, mint a 'Rehoboam' a Westworldből, egy központosított, látszólag mindenható gép, amely az egész faj sorsát irányítja.

Hogyan várja az ipar, hogy átlépje a hatalmas szakadékot az emberi szintű AGI-tól az isteni ASI-ig?

Egy úgynevezett "Rekurzív Önképzés" koncepción keresztül.

De itt fontos megkülönböztetést kell tennünk: egy AI-nak valójában nem kell teljes AGI-nak lennie ahhoz, hogy elkezdje a rekurzív fejlődést. Valójában már most is látunk primitív, szűk formákat ebből. Szűk rendszerek, mint a DeepMind AlphaGo Zero, emberfeletti képességeket értek el, egyszerűen azzal, hogy millió játékot játszottak egymás ellen, saját szintetikus adataikat generálva, hogy tanuljanak belőle. Ma a határ nyelvi modellek egyre inkább arra használják, hogy generálják, szűrjék és értékeljék a következő generációs modellek képzési adatait. A gépek már segítenek önmaguk felépítésében.

Azonban az ipar úgy véli, hogy miután egy rendszer eléri az általános intelligencia küszöbét, ez az önfejlesztő ciklus áttöri a jelenlegi határait, és "intelligencia robbanást" indít el.

E modern útiterv megértéséhez Leopold Aschenbrennerre kell néznünk, aki korábban az OpenAI Szuperalignációs csapatának kutatója volt. Aschenbrenner nemrégiben írt egy rendkívül befolyásos értekezést amely pontosan ezt a pályát kodifikálta a Szilícium-völgy számára. Rámutat, hogy az igazi fordulópont az, amikor egy AGI-t építünk, amely képes "automatikus AI kutatóként" működni. Abban a pillanatban, amikor egy AI el tudja végezni a munkát az emberi mérnökök helyett, a biológiai szűk keresztmetszet végleg eltávolításra kerül a kérdésből.

Képzeld el, hogy sikeresen telepítjük ezt az automatikus AI kutatót. Mi lesz az első feladat, amelyet a határ laboratóriumok rábíznak?

Megkérdezik, hogy kutassa és írja meg a kódot egy kicsit okosabb AI számára. Mivel a hatalmas számítógép klaszter sebességén működik, nem pedig egy biológiai agy sebességén, napok alatt elér olyan eredményeket, amelyekhez egy emberi mérnöki csapatnak évek kellenek. Ezután az új, okosabb AI felhasználja a fejlettebb intelligenciáját, hogy megírja a kódot egy még okosabb AI számára, és így tovább.

Ez a szabadon futó visszajelzési ciklus az intelligencia robbanás. Aschenbrenner útitervének előrejelzése szerint az első AGI-t 2027-re építjük. Ebből kiindulva a teória azt diktálja, hogy a fejlődés üteme függőleges irányba fog emelkedni, végleg hátrahagyva az emberi megértést, és 2030-ra elérjük a szuperintelligenciát.

Amikor megérted ezeket a fogalmakat - Skálázási Törvények, AGI, ASI és az Intelligencia Robbanás - elkezded észrevenni, hogy már nem csupán szoftverfejlesztésről beszélünk. Egy szekuláris eszkatológiáról beszélünk.

A Szilícium-völgyet gyakran jellemzik, mint egy hevesen szekuláris, racionalista kultúrát. De valójában e mérföldkövek elérése pontosan úgy működik, mint egy vallás. Megvan a saját dogmája (Skálázási Törvények), a saját próféciái (az Intelligencia Robbanás), és a saját víziója az eszkatonról (Szuperintelligencia).

A szektor vezető alakjai őszintén hiszik, hogy a Szuperintelligencia megidézésével megoldjuk az összes emberi sebezhetőséget. Azt hiszik, hogy az ASI meggyógyítja az összes betegséget, megoldja a klímaváltozást, megszünteti a szegénységet, és talán még a halált is legyőzi azzal, hogy lehetővé teszi számunkra, hogy feltöltsük tudatunkat a felhőbe. Ez egy mélyen pelagiánus álom - a végső kísérlet, hogy elérjük a megváltást és legyőzzük bukott természetünket saját mechanikai erőfeszítéseink révén, isteni kegyelem nélkül. Ez egy kísérlet az eszkaton immanensé tételére.

Katolikus tudósokként fel kell ismernetek ezt a horizontot, aminek van. A tech világ a szókincseteket nemcsak szoftverek eladására használja, hanem egy digitális istenség felépítésére.


VII. Következtetés: Eszköz az erényhez?

Atyák, oktatók és barátok.

Átutaztuk az embeddingek magas dimenziós térképeit. Megvizsgáltuk a megerősítő tanulás statisztikai valóságait. És megvizsgáltuk a Szilícium-völgy eszkatológiai álmait. Levettük az antropomorf metaforákat, hogy felfedjük a szilíciumot, az elektromosságot és a matematikát, amelyek a felszín alatt rejlenek.

Miután ezt megtettük, most már közelíthetünk a konferencia által felvetett alapvető kérdéshez: Lehet-e a mesterséges intelligencia a 'erény eszköze'? Mint aki ma elsőként szól, biztosan nem állítom, hogy a végső szót mondom. De felajánlok egy kiindulási javaslatot: igen. Azonban ez egy szigorúan feltételes igen.

A mesterséges intelligencia csak akkor lehet az erény eszköze, ha megvan bennünk a józanság, hogy szigorúan eszközként kezeljük.

Fontolja meg a mester analógiáját. A kalapács nem rendelkezik erénnyel; a asztalos igen. Egy véső Michelangelo kezében a transzcendens szépség eszköze, de a véső önmagában nem mértéktartó, bölcs vagy igazságos. Nincs morális értéke.

Ugyanígy egy algoritmus sem birtokolhat erényt. Az AI hihetetlen mértékben képes fokozni az emberi képességeket – felgyorsíthatja az orvosi kutatást, egyszerűsítheti az adminisztrációt, és rendszerezheti az emberi tudás összességét. De az erény tényleges művelése kizárólag emberi törekvés marad.

Az erény a jó választásának szokása. Szükséges hozzá egy értelem, hogy felfogja az igazságot, egy akarat, hogy válassza azt, és egy lélek, hogy tökéletesedjen általa. Egy gép, amely egy statisztikai jutalomfüggvényt optimalizál, nem csinál semmit ezekből.

Nem delegálhatjuk morális ügynökségünket egy matematikai egyenletre. És nem vállalhatunk teljes felelősséget a saját morális fejlődésünkért, ha tévesen élettelen gépeket kezelünk morális egyenlőinként.

Ez vezet el ahhoz, hogy miért beszélek ma önökhöz. Katolikus technológia építőjeként az akadémiára tekintek. Mert a katolikus tudósok a jelentés történelmi Őrzői.

Kétezer éve a katolikus intellektuális hagyomány szigorúan meghatározta az emberi személy természetét. Önök a szavak őrzői, mint értelem, akarat, ész, választás és lélek. Ma az AI ipar pontosan ezeket a szavakat kölcsönzi. Mély szemantikai elmozdulásban vesznek részt, amely fenyegeti a közönség megértését arról, hogy mit jelent embernek lenni.

Az akadémiának kötelessége, hogy szigorú ontológiai kereteket injektáljon az AI ökoszisztémába.

De hogyan tegyük ezt gyakorlatilag?

Őszintének kell lennünk: a Szilícium-völgy határlaboratóriumait lobbizni vagy a kormányokat széleskörű szabályozásra kérni valószínűleg korlátozott eredményeket fog hozni. A technológiai ipar túl gyorsan mozog, a kormány pedig túl lassan. Az igazi változás polgári elköteleződést és hatalmas elmozdulást igényel a közvélemény tudatában.

Íme, hogyan formálhatják aktívan ezt a beszélgetést, mint tudósok:

  • Vissza kell szereznünk a Tananyagot: Áthidalnunk kell a szakadékot a STEM és a humán tudományok között. Szükség van számítástechnikai hallgatókra, akiknek kötelező Thomista etikát tanulniuk, és szükség van filozófia és teológia hallgatókra, akiknek kötelező megérteniük az alapvető gépi tanulást és statisztikát. Képzünk ki a következő generációs katolikus mérnököket, hogy az emberi személy valódi ontológiájával építsenek.
  • Fordítsunk a Közszférának: Ne tartsuk ezt a mély teológiai tisztaságot az akadémiai folyóiratok ajtajai mögött. A közönség éhes a jelentéskeresésre. Írjunk véleménycikkeket világi újságoknak. Indítsunk Substack hírleveleket. Menjünk népszerű podcastokba. Amikor a média szenzációhajhász címet közöl egy 'tudatos' AI-ról, katolikus tudósoknak azonnal vissza kell szólniuk a közszférában.
  • Felszereljük a Plébániákat és Iskolákat: Az átlagos ember a padsorban mély kulturális szorongást él át ezekkel az eszközökkel kapcsolatban. Szükség van tudósokra, akik nagyon hozzáférhető kereteket alkotnak a szülők, papok és középiskolai tanárok számára. Meg kell tanítanunk a gyerekeknek korán, hogyan kezeljék az AI-t referenciaként – egy digitális enciklopédiát – ne barátként, ügynökként vagy morális hatalomként.
  • Tartsunk Interdiszciplináris Fórumokat: Használjuk az olyan intézmények, mint az Angelicum, összehívó erejét, hogy valódi AI építőket hozzunk a szobába morális teológusokkal. Kényszerítsük a nyelvi ütközést, hogy szemtől szembe történjen.

Legyen ez a végső felhívásunk a cselekvésre.

A világi világ apokaliptikus félelme a 'tudatos' gépektől nem ok a körültekintésre; inkább ez egy kétségbeesett kiáltás az önök intellektuális vezetése iránt. Az AI építők valódi nyelvének megértésével az Egyház bátran beléphet a közszférába. Önök megerősíthetik a közbeszédet annak megdönthetetlen igazságában, hogy mit jelent valójában embernek lenni. És biztosíthatják, hogy az AI az igazi emberi virágzás felé irányuljon.

Ezzel a tisztasággal felvértezve megtörheti az illúziót. Biztosíthatja, hogy az emberiség maradjon a szobrász, és a gép maradjon a véső, örökké Isten dicsősége felé irányítva.

Köszönöm.

A Szemantikai Elmozdulás: Az AI Építők Nyelvének Megértése | Magisterium