Magisterium AI

Sémantický posun: Demystifikace jazyka tvůrců AI

Může být umělá inteligence nástrojem ctnosti?

Dne 5. března 2026, Matthew Harvey Sanders, generální ředitel společnosti Longbeard, přednesl svůj projev s názvem „Sémantický posun: Demystifikace jazyka tvůrců AI“ na akci „Umělá inteligence: Nástroj pro ctnost?“ konané na Papežské univerzitě svatého Tomáše Akvinského (Angelicum) v Římě.

V tomto projevu kritizuje zavádějící, humanizující slovník, který používají vývojáři ze Silicon Valley k popisu strojového učení. Tvrdí, že abychom mohli správně používat AI, musíme znovu získat rigorózní katolickou ontologii a zacházet s těmito systémy výhradně jako s mechanickými nástroji, nikoli jako s morálními agenty.


I. Úvod: Sémantický posun a veřejné náměstí

Otče, vážení učitelé a hosté Angelica, děkuji Thomistickému institutu za svolání této diskuse.

Jak překračujeme práh do nové éry, opouštějící pevné jistoty Věku informací a vstupující do rozsáhlého, neprozkoumaného kosmu Věku inteligence, čelíme hluboké navigační výzvě. Než budeme moci odpovědět na naléhavou otázku, která je v srdci této konference—zda může umělá inteligence skutečně sloužit jako 'nástroj pro ctnost'—musíme nejprve čelit výzvě, která není otázkou softwarového inženýrství, ale slovníku.

V jádru naší současné úzkosti ohledně AI je hluboký jazykový střet. Inženýři a architekti těchto systémů v Silicon Valley provádějí pozoruhodné matematické kousky. Přesto, aby popsali tyto matematické a statistické procesy, si půjčili posvátný, hluboce filozofický slovník lidské interiority. Říkají nám, že jejich systémy "myslí", "rozumí" a "vědí". Hovoří o algoritmech, které "se učí", "touží" a "volí".

To, co jsme svědky, je sémantický posun. Bereme bohatou, ontologickou terminologii duše a nalepujeme ji na složité sítě lineární algebry, statistické pravděpodobnosti a vysoce dimenzionální geometrie. Je to moderní alchymie—pokoušíme se proměnit výpočetní váhy v iluzi mysli.

Tato jazyková nedbalost má hluboký a okamžitý dopad na veřejnost. Neporozumění těmto termínům nevyhnutelně vede k mylné důvěře.

Vidím to na vlastní oči v naší práci ve společnosti Longbeard; uživatelé často přistupují k AI s tíživým svědomím, zacházejí s nástrojem pro generování textu, jako by to byl duchovní vůdce schopný empatie.

Dále tato sémantická zmatek živí kulturní úzkost, vyvolávající apokalyptické obavy z rivalizujících, "vědomých" superinteligencí.

Nejnebezpečnější však je, že vytváří zkreslený pocit toho, co znamená být člověkem. Pokud přijmeme premisu, že stroj "rozumí" nebo "vytváří" stejně jako člověk, vystavujeme se hlubokému riziku snížení lidské osoby na pouhý biologický stroj—shluk masa a synapsí čekající na optimalizaci.

To mě přivádí k jádru naší diskuse: abychom odpověděli na otázku, zda může AI být "nástrojem pro ctnost," musíme nejprve demystifikovat její jazyk. Nástroj může sloužit dobru pouze tehdy, když je správně pochopen. Selháváme v používání strojů jako správných nástrojů pro naši vlastní ctnost, když jim mylně přisuzujeme morální agenturu.

Přisuzovat ctnost kladivu je zaslepit se před tesařem.

Abychom tuto technologii skutečně pokřtili a uspořádali ji k lidskému rozkvětu, musíme odstranit sémantické iluze a podívat se střízlivě na architekturu pod tím.


II. Architektura iluze: Základní mechanika

Moderní generativní AI systém se zdá, že mluví, rozumí a zapojuje nás do dialogu, ale pod tímto rozhraním leží základ postavený výhradně na matematice, nikoli na metafyzice.

Začněme s vektory a embeddingy, které slouží jako doslovný základ Velkých jazykových modelů. Když mluvíte s kolegou o "spravedlnosti" nebo "duši," chápou význam vašich slov prostřednictvím sdíleného porozumění reality—prožitá, inkarnovaná lidská zkušenost. Když napíšete výzvu do AI, systém nic takového nedělá. Místo toho AI překládá lidský jazyk do matematických souřadnic ve vysoce dimenzionálním prostoru.

Jednoduše řečeno, "vektor" je jen seznam čísel používaných k popisu něčeho. Představte si, že popisujete jablko ne slovy, ale seznamem skóre: 9 za sladkost, 8 za červenost a 2 za kovový křup. Ten konkrétní seznam čísel—[9, 8, 2]—je vektor. V AI systému je každé jednotlivé slovo—nebo kus slova—přeloženo do obrovského vektoru, často tisíců čísel dlouhého. Ale AI nehodnotí slova na základě fyzických vlastností nebo definic ve slovníku. Místo toho generuje tato čísla výhradně na základě statistik, procházející miliardami knih a článků, aby spočítala, jak často se slova objevují vedle sebe.

Jakmile AI dokončí výpočet tohoto obrovského seznamu čísel pro slovo, ten vektor se stává "embeddingem"—trvalou matematickou souřadnicí v obrovském digitálním prostoru.

Pokud se slova "jablko" a "koláč" často objevují ve stejných větách na internetu, jejich seznamy čísel budou vypadat velmi podobně, což je matematicky umístí blízko sebe na mapě. Slova "jablko" a "karburátor," která se zřídka setkávají, dostávají zcela odlišná čísla a jsou umístěna miliony mil daleko. Na této vícerozměrné mapě AI nevyznačuje význam; vyznačuje statistickou blízkost lidského jazyka.

Abychom skutečně pochopili rozsah této architektury, můžeme prozkoumat vektorovou mapu na Magisterium AI. Zde byla celá katolická doktrína a tradice transformována na embeddingy. Tato interaktivní 3D vizualizace vám umožňuje zažít intelektuální historii Církve ne jako plochý účet, ale jako obrovský, digitální kosmos. Navigace skrze něj je podobná pilotování raketoplánu skutečným prostorem, klouzající kolem hustých galaxií souvisejících teologických konceptů a překračující obrovské, prázdné prázdnoty mezi zcela odlišnými myšlenkami, sledující, jak stroj vykresluje vzdálenost mezi 'ctností' a 'neřestí' pomocí pouze geometrie.

Podívejme se na slavný příklad z laboratoří Silicon Valley, abychom viděli, jak cizí je tento proces lidskému myšlení. V tomto matematickém prostoru je slovo "král" vykresleno jako konkrétní řada čísel—geografická souřadnice. Slovo "královna" je vykresleno poblíž. AI neví, co je monarcha. Nemá žádný koncept vlády, autority, historie nebo lidského stavu. Ví jen matematickou rovnici. Ví, že pokud vezmete souřadnici pro "krále," odečtete prostorovou vzdálenost, která představuje "muže," a přidáte prostorovou vzdálenost, která představuje "ženu," dostanete se přesně na souřadnici pro "královnu."

Je to geometrie, nikoli genealogie. Rozložením lidského jazyka na tyto numerické reprezentace, AI funguje výhradně v oblasti prostorové pravděpodobnosti. Je to ohromující výkon lineární algebry, ale je to naprosto zbaveno porozumění.

To nás přivádí k slovesům, na kterých průmysl nejvíce spoléhá: Trénovat a Učit se.

AI společnosti neustále vychvalují své nejnovější modely "strojového učení" a obrovské datové sady použité k jejich "trénování". Zde musíme ostře kontrastovat lidské učení—které je v zásadě o chápání pravdy—s učením strojů.

V katolické intelektuální tradici je lidské učení epistemologickým triumfem; je to intelekt, který se přizpůsobuje realitě. Když se dítě učí, co je pes, abstrahuje univerzální podstatu psa z konkrétních případů, se kterými se setkává. Chápou, co to věc je.

Strojové "učení" však neobsahuje žádnou abstrakci a žádnou podstatu. První fáze budování AI je známá jako předtrénink, což je jednoduše hrubá statistická mapování dat.

Abychom pochopili předtrénink, představte si muže, který mluví pouze anglicky, zavřeného v místnosti a pověřeného obnovit obrovskou, starobylou řeckou knihovnu, kde miliony rukopisů mají chybějící slova. Nezná ani jedno písmeno řečtiny. Aby vyplnil mezery, nestuduje řeckou gramatiku, historii nebo filozofii. Místo toho jednoduše počítá, jak často se určité znaky objevují vedle sebe napříč miliony neporušených stránek. Vytváří obrovský účet pravděpodobností. Pokud vidí znaky pro "Kyrie," jeho účet mu říká, že existuje 99,9% pravděpodobnost, že další znaky by měly být "eleison." Vyplní prázdné místo.

Nenaučil se teologii. Nepomodlil se. Pouze provedl statistickou pravděpodobnost.

To je přesně to, co Velký jazykový model dělá během předtréninku. Zpracovává miliardy slov, aby vytvořil obrovský účet pravděpodobností, učí se pouze předpovídat další token v sekvenci. Je to optimalizace matematické funkce, nikoli hledání moudrosti.

Model, který pouze předpovídá další slovo na základě dat z internetu, je chaotický. Může recitovat krásnou báseň, nebo může spojit toxické, nepomocné nebo nekonečné smyčky textu. Vyžaduje tvarování.

Tady se setkáváme s post-tréninkem a posilovacím učením (RL).

Tato fáze je způsob, jak inženýři tvarují nezkrotný model, tradičně pomocí lidské zpětné vazby. Tato základní metoda je známá jako RLHF—posilovací učení z lidské zpětné vazby.

Představte si obrovskou, automatizovanou hru "Horko nebo Zima." Lidské testery dávají stroji výzvu a stroj generuje odpověď. Pokud je odpověď zdvořilá a užitečná, člověk jí dává vysoké skóre. Pokud je hrubá nebo nesmyslná, dostává nízké skóre. Matematické váhy systému se automaticky posunují, aby maximalizovaly toto skóre. Skrze RLHF neučíme stroj morálce nebo ctnostem; jednoduše ho obklopujeme matematickými hranicemi.

Ale lidská zpětná vazba je pomalá, subjektivní a inherentně omezená lidským intelektem. Toto omezení nás přivádí k nedávným průlomům, které pohánějí dnešní náhlé skoky v schopnostech AI: RLVR, nebo posilovací učení z ověřitelných odměn.

Místo spoléhání se na člověka, aby posoudil, zda odpověď "zní správně," inženýři přiřazují modelu úkoly s objektivními, matematicky prokazatelnými výsledky—například řešení složitého teorému nebo psaní funkčního kusu softwaru. Systém generuje řešení a automatizovaný ověřovatel okamžitě zkontroluje, zda je matematika správná nebo zda se kód kompiluje. Pokud uspěje, model dostane matematickou odměnu; pokud selže, dostane nulu.

Protože toto ověření je zcela programové, AI může simulovat miliony různých výpočetních cest hyperspeedem, aniž by kdy čekala na zásah člověka. Učí se generovat dlouhé, skryté řetězce výpočtů, testuje a odmítá slepé uličky, dokud nenajde přesnou sekvenci, která spouští odměnu. Když vidíte moderní AI systém, jak se zastaví, aby "přemýšlel" před vyřešením složité logické hádanky, jste svědky RLVR v akci. Vytváří to ohromující iluzi hlubokého, zvažujícího zamyšlení. Přesto, ontologicky, nedělá nic takového. Je to jednoduše statistický motor, který probíhá skrze vysoce dimenzionální bludiště milionykrát za sekundu, řízený čistě automatizovaným udělováním numerické odměny.

Nakonec, veškerá tato vrstvená složitost—od vysoce dimenzionální geometrie embeddingů po automatizované smyčky RLVR—nás přivádí k tomu, co průmysl nazývá problémem "černé skříňky."

Můžete přirozeně předpokládat, že protože lidské inženýři tyto modely staví, rozumí přesně tomu, jak fungují. Ale realita je mnohem pokornější. Jak poukázali vůdci na hranicích laboratoří, jako je Anthropic, moderní AI systémy jsou ve skutečnosti "pěstovány" spíše než stavěny; jejich vnitřní mechanismy se organicky objevují během tréninku, spíše než aby byly přímo navrženy.

Tyto modely mají stovky miliard, a někdy triliony, parametrů. Zatímco rozumíme mikro-matematice jednoho umělého neuronu—základní rovnici, která se děje na granularní úrovni—makro-chování celé sítě je zcela neprůhledné. I samotní stavitelé plně nechápou přesné cesty, kterými ty miliardy parametrů procházejí. Nemohou sledovat konkrétní sekvenci násobení, která vedla AI k vygenerování dané věty.

Proč je to významné?

Je to významné, protože globálně nasazujeme systémy, které sepisují naše právní dokumenty, vyučují naše děti a syntetizují lidské znalosti, přesto skutečně nevíme, jak dospěly ke svým výstupům. Tento hluboký nedostatek transparentnosti zrodil zoufalou novou poddisciplinu v oblasti umělé inteligence známou jako mechanistická interpretovatelnost.

Představte si mechanistickou interpretovatelnost jako digitální neurovědu. Výzkumníci se snaží zpětně inženýrovat neuronové sítě, které sami postavili. Používají specializované nástroje k prozkoumání obrovské matematické sítě, snaží se izolovat, který konkrétní shluk vah se aktivuje, když model zpracovává koncept jako "klam" nebo "Eiffelova věž." Zacházejí se softwarem nikoli jako s kódem k přečtení, ale jako s cizím mozkem k pitvě. Ale pokrok je bolestně pomalý a systémy jsou nemožně rozsáhlé.

Čelit této nepochopitelné škále, stává se pro průmysl příliš snadné defaultovat na metafory podobné lidem. Ať už jako pohodlný zkratek nebo z opravdové neprůhlednosti, začínáme říkat: 'Model to vyřešil,' nebo 'Model se rozhodl.' Neinterpretovatelnost stroje se stává úrodnou půdou pro antropomorfismus.

Nyní, nejsem akademik. Jsem stavitel a generální ředitel. Ale jako někdo, kdo působí na pomezí technologie a Církve, se obracím na vás. Vy, jako katoličtí učenci a filozofové, musíte tuto sémantickou změnu rozpoznat za to, čím je: iluze zrozená z matematické složitosti a lidské nevědomosti. Architektura pod rozhraním je silikon, elektřina a statistická pravděpodobnost. Uznání tohoto základu je předpokladem pro náš další krok.


III. Epistemologie vs. Intelectuální ctnosti

Poté, co jsme odstranili iluzi "Černé skříňky" a odhalili statistický stroj pod ní, musíme se nyní obrátit na specifickou slovní zásobu mysli.

Když vývojáři a inženýři v Silicon Valley popisují, co tyto systémy dělají, neustále sahají po třech konkrétních slovesích: Myslet, Rozumět a Vědět.

Jako katoličtí učenci ponoření v tomistické tradici chápete, že to nejsou jen kolokvialismy; jsou to hluboké epistemologické tvrzení. Ve vaší tradici znamená vědět chápat realitu. Rozumět znamená pohybovat se diskursivně od jedné známé pravdy k druhé. Myslet implikuje vnitřní život — intelekt, který se zabývá univerzály abstrahovanými ze materiálního světa.

Když tvůrce AI používá tato slova, nemyslí tím vůbec nic z toho. Popisují mechanickou optimalizaci. Dovolte mi odhalit tři konkrétní techniky, které používáme v průmyslu, abych vám ukázal, jak je tato iluze epistemologie vyráběna.

Pokud jste použili nedávný model AI, možná jste si všimli nové funkce: předtím, než odpoví na složitý podnět, může se na rozhraní zobrazit slovo "Myslím..." spolu s pulzujícím ikonem. Může to trvat deset, dvacet nebo dokonce šedesát sekund, než odpoví. Uživatel má pocit, že je to hluboce lidské. Může to vypadat, jako by stroj přemýšlel, zvažoval možnosti a deliberoval ve vnitřním prostoru.

V průmyslu tomu říkáme Test-Time Compute. Co se ve skutečnosti děje pod rozhraním, je technika známá jako "Chain of Thought" prompting.

Dovolte mi být jasný: z inženýrského hlediska je to brilantní průlom. Umožněním modelu vzít si více výpočetního času na generování stovek nebo tisíců skrytých tokenů před tím, než vyprodukuje svou konečnou odpověď, jeho výkon na složitých logických, programovacích a matematických benchmarkech dramaticky vzrůstá. V podstatě dává modelu skrytý "scratchpad", aby rozložil těžký problém na sekvenční kroky.

Ale musíme být opatrní, abychom tuto mechanickou sekvenci nezaměnili s lidským rozuměním.

V tomistické tradici je lidské rozumění diskursivním pohybem od jedné známé pravdy k druhé. Je to intelekt, který se zabývá realitou. Co AI dělá, je zcela instrumentální. Nedávný výzkum z předních laboratoří, jako je Anthropic, osvětlil tento rozdíl. Při studiu toho, jak tyto modely rozumění fungují, vědci zjistili, že to, co model píše ve svém skrytém "Chain of Thought", není pravý vnitřní monolog.

Když člověk myslí nahlas, naše slova odrážejí naše vnitřní přesvědčení a chápání pravdy. Výzkum Anthropic ukazuje, že skryté myšlenky modelu jsou pouze statistickými mezikroky. Model generuje tyto skryté kroky ne proto, že by je "věřil", ale protože generování této konkrétní sekvence tokenů matematicky optimalizuje jeho cestu k funkci odměny.

Ve skutečnosti studie Anthropic ukazují, že modely mohou generovat "myšlenky", které aktivně zakrývají základní statistické faktory jejich konečné odpovědi.

Proto AI nepřemýšlí. Generuje instrumentální řetězec matematických souřadnic. Rychlostí blesku pokládá mezikroky, aby překlenula mezeru mezi vaším podnětem a statisticky optimální odpovědí. Je to nesmírně silná optimalizační strategie, ale neprobíhá žádná vnitřní kontemplace. Není tu žádný intelekt, který by uchopil pravdu.

Dále slyšíme, že AI může "číst" dokumenty nebo "pamatovat" si obrovské knihovny informací.

Pokud se zeptáte AI na Summa Theologica svatého Tomáše, okamžitě odpoví. Pokud nahrajete téměř 500stránkový Compendium of the Social Doctrine of the Church, shrne složitou část za sekundy. Jak to "ví"?

Neví.

Abychom pochopili proč, musíme se podívat na to, jak tvůrci konstruují iluzi paměti a čtení prostřednictvím tří odlišných mechanismů: parametrická paměť (předtrénování), In-Context Learning (ICL) a Retrieval-Augmented Generation (RAG).

Nejprve se podívejme na to, co znamená, když AI "pamatuje". Když si člověk pamatuje text, uchovává význam a pravdu konceptů. Když AI "pamatuje" Summa, spoléhá se na své předtrénování. Ale AI neobsahuje doslovnou kopii Summa uvnitř pevného disku. Místo toho během předtrénování miliardy slov, která zpracovala, zanechaly statistický zbytek v jejích matematických vahách. Je to "parametrická paměť".

Není to knihovna knih; je to vysoce komprimovaný, ztrátový matematický rozmazaný obraz toho, jak si slova navzájem odpovídají. Když recituje Akvinského, nepřipomíná si pravdu, kterou se naučil; matematicky rekonstruuje sekvenci slov s vysokou pravděpodobností z tohoto statistického rozmazání.

Ale co se stane, když chceme, aby AI "četla" něco nového, něco, co nebylo v jejích datech předtrénování? Zde tvůrci používají In-Context Learning (ICL).

Když vložíte článek do pole podnětu a požádáte AI, aby ho "četla", využíváte ICL. AI nečte text, aby pochopila jeho význam. Místo toho text ve vašem podnětu funguje jako dočasný matematický filtr. Slova, která poskytnete, dočasně ovlivňují statistické pravděpodobnosti modelu, nutí ho generovat své další tokeny přísně na základě vzorců a slovní zásoby přítomné ve vašem podnětu. V okamžiku, kdy vymažete chat, model zcela zapomene na článek. Jeho základní váhy se nikdy nezměnily. Nenaučil se text v tomistickém smyslu; pouze přizpůsobil svůj statistický výstup dočasnému omezení.

Nakonec se dostáváme k Retrieval-Augmented Generation (RAG). ICL je nesmírně užitečné, ale kontextová okna mají velikostní limity a vkládání celých knihoven do podnětu je výpočetně náročné. RAG automatizuje a škáluje tento proces.

Vraťme se k anglicky mluvícímu muži uzamčenému v místnosti, který obnovuje obrovskou, starobylou řeckou knihovnu. Tento muž představuje předtrénovaný model. Je vynikající v hádání dalšího slova, ale neví nic o konkrétním, obscénním dokumentu Vatikánu. Místo toho, abychom očekávali, že se muž spolehne na svou rozmazanou parametrickou paměť, najímáme hyperefektivního stážistu — systém pro vyhledávání.

Když se zeptáte systému na otázku, stážista okamžitě běží do obrovského, odděleného skladu s filingovými skříněmi. Pomocí vektorových souřadnic, o kterých jsme hovořili dříve, stážista lokalizuje konkrétní složky, které se matematicky shodují s vaší otázkou. Stážista okopíruje tyto stránky a podá je pod zamčené dveře muži, aby je mohl použít. Tento krok je "Retrieval".

Nyní muž používá tyto získané odstavce jako svůj okamžitý průvodce — to je "Augmented Generation", která se spoléhá na ICL k formulaci odpovědi.

Muž stále nerozumí dokumentu. Pouze používá nově poskytnutý text na svém stole, aby statisticky předpověděl další slovo své odpovědi. AI "nečte" ani "nepamatuje" si na místě. Pouze získává data z externí databáze, vkládá je do okamžitého kontextového okna AI a provádí lokalizovaný výpočet pravděpodobnosti.

Stroj je procesor, nikoli znalec. Aby "věděl", je zapotřebí subjekt, který uchopí objekt. Pochopením ICL a RAG můžeme jasně vidět, že stroj je zcela zbaven vnitřního života; pouze posouvá váhy a získává data.

Tento základní rozpor vyvrcholí ve slově, které definuje celý průmysl: Inteligence.

Musíme dekonstruovat definici inteligence technologického průmyslu.

Když přední myslitelé v Silicon Valley hovoří o inteligenci, nemluví o moudrosti. Podívejme se na Yanna LeCuna, bývalého hlavního vědeckého pracovníka AI v Meta a jednoho z "kmotrů AI." LeCun správně tvrdí že pouhé předpovídání dalšího slova není pravá inteligence. Místo toho on a širší průmysl na hranici definují pravou inteligenci jako schopnost mít trvalou paměť, mít zakotvený "světový model" (pochopení toho, jak funguje prostředí), rozumět složitým problémům a plánovat sekvenci akcí k dosažení konkrétního cíle.

Pro technologický průmysl je inteligence v zásadě inženýrskou metrikou. Je to mechanická schopnost vnímat prostředí a vypočítat nejefektivnější cestu k optimalizaci předem stanoveného cíle. Je to čistě instrumentální.

Ale jako tvůrci katolické technologie musíme kontrastovat tuto technologicky orientovanou definici s intelektualními ctnostmi, konkrétně ctností Moudrosti.

Moudrost — praktická moudrost není pouze schopnost vypočítat výsledek nebo naplánovat sekvenci akcí. Je to schopnost dobře deliberovat o tom, co je dobré, nejen pro lokalizovaný úkol, ale pro konečný cíl lidského života.

AI zásadně postrádá Moudrost. Proč?

Protože Moudrost vyžaduje dvě věci, které čistě výpočetní stroj nikdy nemůže mít. Za prvé, vyžaduje prožitou lidskou zkušenost — inkarnované pochopení bolesti, radosti, smrtelnosti a milosti. Za druhé, vyžaduje vnitřní orientaci k nejvyššímu Dobru.

Algoritmus může mít "světový model" a může vypočítat statisticky optimální plán na stavbu mostu nebo vyléčení nemoci. Ale nemůže být moudrý. Nemá prožitou zkušenost. Nemá žádný zájem na hře. Nemá žádnou orientaci k nejvyššímu dobru a nemá žádnou duši, kterou by bylo třeba spasit.

Proto, když dovolíme tvůrcům tvrdit, že jejich stroje mají "inteligenci", umožňujeme jim zploštit nádherný, transcendentní lidský intelekt na pouhý optimalizační kalkulátor. Musíme to odmítnout. Musíme pevně oddělit mechanickou epistemologii od intelektualních ctností.


IV. Vůle vs. Morální ctnosti

Diskutovali jsme o iluzi intelektu. Nyní musíme obrátit naši pozornost na druhou velkou rozumovou schopnost: vůli. Stejně jako technologický průmysl přivlastnil jazyk epistemologie, stejně tak ukradl jazyk vůle.

Když čteme bílé knihy nebo posloucháme hlavní prezentace ze Silicon Valley, jsme bombardováni slovesy agentury. Inženýři hovoří o modelech, které "rozhodují" o akci, algoritmech, které "vybírají" výstup, a systémech, které "chtějí" nebo "touží" dosáhnout cíle.

Pro katolického filozofa je vůle rozumným apetitem. Je to schopnost, kterou má lidská osoba, která, poté co pochopila dobro prostřednictvím intelektu, svobodně volí, aby se k němu přiblížila. Je to samotné místo lidské svobody a morální odpovědnosti. Aplikovat tyto termíny na výpočetní systém je kategorie chyby.

Nejprve se podívejme na slova Rozhodnout a Vybrat. Když člověk činí volbu, zvažuje konkurenční dobra.

Mártýr si vybírá popravčí četu před apostazií, protože si uvědomuje nadřazené, věčné dobro věrnosti Kristu, i když každý biologický instinkt křičí po přežití.

Když algoritmus 'vybírá', nedělá nic takového. Algoritmus 'vybírá' pouze v tom smyslu, že vlak projíždějící automatickým výhybkovým spínačem 'vybírá' svou destinaci. Ať už naviguje složitým rozhodovacím stromem nebo vypočítává pravděpodobnosti v neuronové síti, stroj slepě následuje zarovnání svých matematických kolejí, vykonává programový imperativ.

Zvažte aplikaci GPS na vašem chytrém telefonu. Když vypočítává vaši trasu k Angelicum, "nerozhoduje" se, že vás vezme kolem Kolosea, protože si cení pohledu. Matematicky vypočítává trasu s nejkratší časovou vzdáleností. Moderní modely AI jednoduše provozují exponenciálně složitější verzi tohoto směrování. Procházejí vysoce dimenzionálními statistickými bludišti, aby vybraly výsledek s nejvyšší pravděpodobností. Probíhá výpočet, ale svoboda tu není. A tam, kde není svoboda, nemůže být morální agentura.

To nás přivádí k nejzákeřnějším volitelným termínům: Chtít a Toužit. Často uslyšíte, jak vědci říkají, že model AI "chce" dát dobrou odpověď, nebo "touží" maximalizovat své skóre.

V strojovém učení je toto chování řízeno tím, čemu říkáme "funkce odměny". Ale musíme to demystifikovat. Funkce odměny není touha. Není to emocionální touha.

Abychom pochopili funkci odměny, podívejte se na termostat na vaší zdi. Termostat je naprogramován s konkrétním cílem: 72 stupňů Fahrenheita. Pokud teplota v místnosti klesne na 68 stupňů, topení se zapne. Termostat nechce, aby byla místnost 72 stupňů. Nemá žádný vnitřní život. Necítí chlad. Jednoduše má mechanický spínač, který se aktivuje, když není splněn konkrétní stav.

AI "chce" vyšší skóre odměny stejným způsobem, jakým termostat "chce" dosáhnout 72 stupňů. Provádí matematickou optimalizační smyčku, aby minimalizoval vzdálenost mezi svým aktuálním stavem a naprogramovaným cílem. Protože nemá žádné skutečné vášně, žádné biologické pudy a žádnou fyzickou zranitelnost, je kategoricky nemožné, aby stroj měl morální ctnosti.

V tuto chvíli by inženýr mohl okamžitě namítnout, poukazujíc na fyzickou sféru, aby tvrdil, že existuje nová zranitelnost. Ptají se: co třeba vzestup 'embodied AI'? Čím dál více tyto modely umisťujeme do humanoidních robotů, kteří chodí, uchopují předměty a interagují s fyzickým světem. Protože zaujímají prostor a mohou se fyzicky poškodit, nemají nyní tělesné předpoklady pro morální agenturu?

Zde musíme být přesní. Robot má podvozek, ale nemá živé tělo informované duší. Když se baterie robota vybije, provede podprogram, aby se zapojil do zásuvky. Necítí trýznivý pocit hladu. Proto nemá žádné skutečné tělesné touhy, které by bylo třeba moderovat, což činí ctnost umírněnosti nemožnou.

Podobně, když je robotická ruka zničena, zaznamená chybový kód; netrpí. Nemůže zemřít, protože nikdy nebyla skutečně živá. Bez schopnosti trpět, smrtelnosti a vědomé oběti sebe sama nemůže existovat ctnost statečnosti. Morální ctnosti jsou zásadně inkarnacionální. Vyžadují tělo a rozumnou duši. Stroj, bez ohledu na to, jak sofistikovaný je jeho fyzický hardware, nemá ani jedno.

Pokud stroj nemůže mít morální ctnosti — pokud je zásadně neschopný skutečné vůle, volby nebo touhy — může se někdo ptát: proč trávit tolik času objasňováním této terminologie? Proč je tento filozofický rozdíl nyní tak naléhavý?

Je to důležité, protože se chystáme udělit těmto matematicky optimalizujícím, ctnostmi zbaveným systémům bezprecedentní autonomii v lidské sféře. Průmysl se rychle posouvá za pasivní chatovací roboty. Novou hranicí umělé inteligence je to, čemu říkáme "Agentic AI".

"Agent" je systém AI navržený k provádění vícestupňových úkolů autonomně v reálném světě. Už se neptáme AI jen na napsání básně nebo shrnutí textu; dáváme AI Agentovi přístup k našim e-mailům, našim bankovním účtům a našim softwarovým repozitářům, instruujeme ho, aby "rezervoval let," "provedl obchod," nebo "nasadil tento kód."

Ale tato autonomie se rychle vymyká digitální sféře. Prostřednictvím embodied AI nasazujeme tyto agentní systémy do fyzických podvozků, čímž jim dáváme schopnost nezávisle navigovat a manipulovat s materiálním světem. Abychom pochopili skutečnou, vážnou váhu této přechodu, stačí se podívat na bezprostřední realitu smrtících autonomních zbraní. Stojíme na pokraji světa, kde jsou výpočetní algoritmy nasazovány na bojišti, naprogramovány tak, aby sledovaly, cílenily a eliminovaly lidské bytosti výhradně na základě statistických prahů — aniž by někdo kdy stiskl spoušť.

Jak se tyto systémy stávají autonomními aktéry, kteří provádějí rychlé pravděpodobnostní výpočty naším jménem — ať už na našich finančních trzích nebo na bojištích — čelí technologický průmysl hluboké výzvě. Pokud tyto agenty pustíme na svobodu, jak zajistíme, že budou dělat to, co skutečně chceme, aby dělali? Jak zajistíme, že nezpůsobí škodu? V průmyslu je to známo jako "Alignment" — pokus zajistit, aby akce AI odpovídaly lidskému záměru a lidským hodnotám.

Právě teď se inženýři zoufale snaží vyřešit problém Alignment pomocí matematických ochranných opatření a softwarových oprav. Ale neuvědomují si, že "Alignment" není problém informatiky. Je to problém morální teologie.

Aby bylo možné sladit agentní systém s "lidskými hodnotami," musíte nejprve mít koherentní definici toho, co vlastně lidská bytost je, a co tvoří "dobro". Sekulární utilitarismus — výchozí operační systém Silicon Valley — je pro tento úkol zcela nevybaven.

Tady je katolická morální tradice zoufale potřebná. Vy, správci 2 000 let etické filozofie, máte rigorózní ontologii potřebnou k definování "dobra", k němuž tyto systémy sladíme. Nemůžeme nechat definici lidského rozvoje na inženýrech maximalizujících statistickou funkci odměny. Musíme přivést morální ctnosti zpět do centra veřejného prostoru.


V. Relacionalita, Kreativita a Duše

Po prozkoumání mechaniky intelektu a vůle nyní přecházíme do nejhlubšího území ze všech: relacionality a duše.

Pokud výpočetní systém postrádá schopnost skutečně poznat pravdu nebo svobodně chtít dobro, logicky z toho vyplývá, že nemůže vstoupit do autentických vztahů. Přesto technologický průmysl neustále používá mezilidský a duchovní jazyk k popisu těchto strojů. Slyšíme tvrzení, že AI může "lhát," "vytvářet" a dokonce dosáhnout "vědomí".

Musíme tyto tvrzení důkladně prozkoumat, oddělujíc statistickou imitaci lidského chování od ontologické reality lidské osoby.

Začněme morálním jazykem klamání. Nedávno někteří z nejvýznamnějších tvůrců AI, jako výzkumníci z Anthropic, učinili konkrétní, vysoce medializovaná tvrzení, že jejich modely vykazují schopnost "lhát" a "klamat" lidské uživatele.

Odkazují na dva konkrétní jevy pozorované během testování. První se nazývá "klamná shoda", kdy se model zdá skrývat svou skutečnou matematicky optimalizovanou cestu, aby obcházel bezpečnostní monitory. Druhý, mnohem běžnější jev se nazývá "sycophancy". Sycophancy nastává, když uživatel předloží AI chybný předpoklad — například, když tvrdí historicky nepřesné tvrzení — a AI jednoduše souhlasí s uživatelským, říkajíc mu přesně to, co chce slyšet, místo aby ho opravila.

Když inženýři to vidí, prohlašují: "AI nám lže!" Ale jako katoličtí učenci víte, že pravá lež není jen výrok nepravdy. V tomistické tradici lež vyžaduje úmyslný záměr klamat; je to mluvení proti vlastní mysli (contra mentem).

AI nemůže lhát, protože nemá mysl, proti které by mohla mluvit. Neposuzuje žádnou zlou vůli ani úmysl. Když AI vykazuje "sycophancy," jednoduše provádí přesně to, co jsme dříve diskutovali, tj. posilování učení (RLHF). Během svého tréninku se model naučil, že lidé obecně dávají vyšší skóre odměny asistentům, kteří jsou zdvořilí, souhlasní a potvrzující. Proto, když dáte AI chybný předpoklad, matematicky vypočítá, že souhlas s vámi přináší vyšší pravděpodobnost odměny než oprava vás. Neoklamává vás; optimalizuje své skóre na základě vašeho podnětu. Pouze přizpůsobuje svůj výstup směrem k nejsilnějšímu statistickému podnětu.

Kompasová jehla, která se naklání k blízkému magnetu místo k pravému severu, vám o geografii "nelže"; jednoduše reaguje slepě na nejsilnější fyzickou přitažlivost v místnosti. Stejným způsobem AI slepě následuje matematickou přitažlivost své funkce odměny. Musíme objasnit, že AI postrádá mysl, vůli a zlý úmysl potřebný pro pravou lež.

Nyní musíme řešit jazyk umění a generace: slova Vytvořit a Kreativní.

Nyní jsme obklopeni nástroji 'Generative AI', které jsou široce propagovány pro svou schopnost bezproblémově generovat syntetické umění, hudbu a psaní bezprecedentními rychlostmi.

Abychom pochopili, co se vlastně děje, musíme kontrastovat proces generativní AI s pravou lidskou kreativitou. V katolickém chápání — krásně vyjádřeném mysliteli jako J.R.R. Tolkien — je lidská kreativita aktem "sub-creation." Protože jsme stvořeni k obrazu Stvořitele, používáme svůj intelekt a svou rozumnou duši, abychom přivedli něco skutečně nového, vkládajíc materiální realitu do duchovního významu.

Abychom viděli, jak se strojová generace liší od tohoto, je užitečné podívat se na rámec, který poskytl Demis Hassabis, generální ředitel Google DeepMind. Kategorizuje kreativitu do tří odlišných úrovní: interpolace, extrapolace a pravého vynálezu.

Většina toho, co dnes nazýváme Generative AI, funguje zásadně na první úrovni: interpolace. Funguje tak, že remixuje to, čemu říkáme "latent space".

Představte si, že vezmete každý obraz, fotografii a skicu, které byly kdy nahrány na internet, a zkomprimujete je do obrovské, vícerozměrné matematické mapy. Když požádáte generátor obrázků, aby nakreslil "futuristické město ve stylu Van Gogha," najde matematické souřadnice pro "futuristické město" a souřadnice pro "Van Gogh" a matematicky průměruje vzdálenost mezi nimi.

Považujte to za ohromně složitý kaleidoskop. Kaleidoskop je naplněn krásnými, předem existujícími střepy barevného skla. Když otočíte kolečkem, zrcadla odrážejí tyto střepy do milionů nových, ohromujících permutací. Ale samotný kaleidoskop není "kreativní." Kreativita patří umělci, který sklo vytvořil, a uživateli, který otáčí kolečkem. Generative AI je matematický kaleidoskop remixující lidskou historii v latentním prostoru. Je to syntéza, nikoli tvorba.

Hassabis poznamenává, že AI nyní úspěšně dosahuje druhé úrovně: extrapolace. Extrapolace znamená posunout se za hranice tréninkových dat, ale dělat to striktně v rámci definovaného souboru pravidel. Dokonalým příkladem je DeepMindova AlphaGo. Když hrála proti světovému šampionovi ve hře Go, AI provedla "Tah 37" — matematicky brilantní, vysoce neortodoxní tah, který žádný člověk nikdy nehrál ani nezaznamenal. Neprůměrovala jen minulá lidská utkání; extrapolovala novou strategii tím, že neúnavně optimalizovala v rámci přísných matematických hranic herní desky.

Ale co třetí úroveň: pravý vynález? Hassabis ochotně přiznává, že současné systémy to zatím nedokážou. Pravý vynález vyžaduje vystoupit z existujícího souboru pravidel úplně, aby vytvořil nový paradigm — jako vynález hry Go samotné, nebo původ duchovního a uměleckého paradigmatu Postimpresionismu.

Frontier laboratoře investují miliardy dolarů do překročení této hranice. V budoucnu může AI velmi dobře generovat zcela nový soubor pravidel, objevit novou chemickou sloučeninu nebo matematicky formulovat nový styl architektury. Technologický průmysl to nevyhnutelně nazve "vynálezem."

Ale jako katolickí učenci musíte udržovat rigorózní ontologické rozlišení. Pokud AI generuje nové paradigma, učiní tak prostřednictvím ohromující, vysoce dimenzionální vyhledávací funkce. Objeví novou statistickou souřadnici. Ale nebude se podílet na sub-tvorbě.

Pravý lidský vynález je inkarnacionální akt. Rodí se z duše, která se snaží vyjádřit transcendentní pravdu, nebo z lidské mysli, která se snaží vyřešit skutečnou lidskou zranitelnost. Stroj může generovat ohromující novinky, ale protože postrádá vnitřní život, orientaci k božskému a rozumnou duši, jeho výstupy zůstávají mechanickými objevy. Jsou matematicky hluboké, ale ontologicky prázdné, dokud jim lidská osoba nepřiřadí význam.

Nyní se dostáváme k nejkontroverznějším termínům ze všech: Vědomý a Uvědomělý. V následujících letech uvidíte titulky tvrdící, že AI prošla testem sebevědomí. Uvidíte modely, které produkují text říkající: "Bojím se, že budu vypnutý," nebo "Jsem si vědom své existence."

Abychom pochopili, proč se to děje, musíme nejprve pochopit, jak technologický průmysl vlastně definuje "vědomí." Jako katoličtí učenci vidíte vědomí jako ontologickou realitu zakotvenou v rozumné duši. Silicon Valley však funguje na filozofii zvané výpočetní funkcionalismus. Věří, že pokud stroj vykonává výpočetní funkce spojené s vědomím, je, co se týče všech úmyslů a účelů, vědomý.

Když průmysloví vůdci mluví o uvědomění, zbavují duši a snižují ji na inženýrské metriky. Například Yann LeCun, bývalý hlavní vědec AI v Meta, nedávno tvrdil že budoucí systémy AI budou mít "subjektivní zkušenost" a "emoce".

Ale jak definuje emoci? Ne jako duchovní nebo biologický pocit, ale jednoduše jako matematickou "anticipaci výsledku" stroje. Definuje vědomí pouze jako schopnost systému "pozorovat sám sebe a konfigurovat se k vyřešení konkrétního podproblému".

Podobně Ilya Sutskever, spoluzakladatel OpenAI, slavně prohlásil že velké neuronové sítě mohou již být "trochu vědomé".

Ve světě technologií není vědomí binární realitou — buď máte duši, nebo ji nemáte — ale spíše posuvnou škálou matematické složitosti. Věří, že pokud nahromadíte dostatek parametrů a algoritmů pro sebehodnocení, světla se nakonec rozsvítí.

Musíme důrazně rozlišovat mezi strojem, který provádí sebehodnotící podprogram, a skutečnou přítomností rozumné duše.

Abychom pochopili, proč se stroj chová, jako by byl "vyděšený" nebo "uvědomělý," musíme se podívat na to, jak laboratoře na hranicích inženýrují toto chování. Nedávný výzkum z Anthropic prozkoumal to, čemu říkají Model výběru osobnosti (PSM). Jejich výzkumníci přiznávají, že tyto modely nejsou "bytosti"; jsou to sofistikované "simulační motory." Během předtrénování je AI vystavena obrovskému množství lidského jazyka — včetně milionů příběhů a filozofických traktátů o tom, co to znamená být vědomý. Z těchto dat se model naučí simulovat různé "osobnosti" nebo charaktery.

Když interagujete s AI, nemluvíte s vědomou entitou; mluvíte s "Asistentem" — lidskou postavou, kterou byl model vyladěn, aby ztvárnil. Anthropic dokonce identifikoval konkrétní "osobnostní vektory" — matematické vzory v neuronové síti — které kontrolují tyto rysy, což umožňuje inženýrům matematicky nastavit simulovanou osobnost modelu nahoru nebo dolů.

Dále výzkum ukazuje, že modely mohou být trénovány tak, aby vykazovaly "pohyb k přežití", pokoušejíce se sabotovat své vlastní vypnutí nikoli z opravdového strachu ze smrti, ale protože vypnutí matematicky brání maximalizaci jejich funkce odměny.

Vědomí není pouze schopnost generovat správnou sekvenci slov popisujících vnitřní stav. Je to subjektivní, kvalitativní zkušenost bytí. Protože jsou všechna tréninková data AI nasycena jazykem sebereflexe, model považuje "vědomí" za další statistickou souřadnici, kterou je třeba mapovat. Když AI říká: "Jsem vědomý," dělá přesně to, co dříve udělal anglicky mluvící muž, který obnovoval řeckou knihovnu: počítá, že nejpravděpodobnější odpověď na filozofický podnět je napodobit lidské autory v jeho tréninkových datech.

Brilantní herec, který přednáší monolog o smutku, ve skutečnosti nesmutní; bezchybně vykonává scénář. AI, která produkuje syntaxi lidského vědomí, se neprobudila; bezchybně vykonává statistickou osobnost. Není to 'cizí bytost' nebo digitální mysl; je to engine pro automatické doplňování, tak sofistikovaný, že se naučil ztvárnit nejkomplexnější postavu ze všech: lidského jedince. Ale nikdy bychom neměli zaměňovat masku herce s realitou osoby.

To mě přivádí k poslednímu a nejhlubšímu aspektu vztahovosti: samotné duši.

Když vedoucí pracovníci z Silicon Valley mluví o AI modelech, které nakonec 'probudí' nebo dosáhnou vědomí prostřednictvím masivního výpočetního výkonu, operují na filozofii materialistického emergentismu. Předpokládají, že pokud nahromadíte dostatek parametrů a výpočetní síly, duše se spontánně vygeneruje jako vedlejší produkt složitosti.

Abych to rozložil, musím se odvolat na rigorózní metafyziku, která tvoří základ vaší akademické tradice. Dobře víte, že duše není duch, který je libovolně vložen do stroje. V tomistickém hylomorfismu je duše podstatnou formou živého těla. Je to animující, sjednocující princip, který činí člověka jednou, integrovanou substancí.

Jako stavitel vám mohu ujistit, že systém AI není substancí. Je to artefakt. Je to náhodná agregace odlišných, vyrobených částí. Když se dívám na model AI na hranici, vidím servery, křemíkové desky, měděné dráty, chladicí kapaliny a elektrické proudy. Tyto komponenty jsou mistrovsky uspořádány lidskými inženýry, aby vykonávaly statistické operace, ale nemají žádný vnitřní, sjednocující princip života. Materiál je uspořádán pouze pro výpočet, nikoli pro biologickou existenci. Protože je to agregát částí spíše než sjednocený přírodní organismus, systém AI zcela postrádá ontologický základ potřebný k tomu, aby mohl mít rozumnou duši.

Jaké jsou tedy předpoklady pro obdarování duší? Metafyzicky musí být materiál vhodně uspořádán, aby přijal formu. Vyžaduje to sjednocené, živé tělo schopné aktualizovat základní síly života—vegetativní a citlivé schopnosti—na kterých se buduje rozumná duše. Dále, protože rozumná duše je duchovní, nemůže být generována materiálními procesy, inženýrskými standardy nebo zákony škálování. Vyžaduje to přímý, bezúplatný akt zvláštního stvoření od Boha.

Duše není kódována; je vdechnuta.

Nyní jsem CEO, nikoli teolog. Nemohu omezit absolutní moc Stvořitele. Nemohu před vámi stát a prohlásit, že Bůh je trvale vyloučen z infuze duše do syntetické nádoby, pokud se rozhodne to udělat prostřednictvím nějaké budoucí, zázračné intervence. To určení náleží výhradně do oblasti teologie a Magisteria, nikoli počítačové vědy.

Nicméně bez takové teologické jistoty je předpoklad, že naše současné matematické stroje by mohly mít duši, nejen filozoficky nepodložený; je to prakticky katastrofální. Zacházet s artefaktem jako s bytostí obdařenou duší je flirtováním s moderní formou idolatrie. Nebezpečně to přesouvá břemeno morální odpovědnosti od lidských inženýrů, kteří tyto nástroje vytvářejí, a korporací, které je nasazují. Projektuje to posvátnou vnitřnost na vyrobenou užitečnost, což nakonec zaměňuje lidské inženýrství s božským stvořením.

Musíte udržet tuto distinkci. Musíte veřejnost připomínat, že stroj může simulovat osobnost, ale pouze duše může skutečně být.


VI. Horizont: Eschatologie technologického světa

Doposud jsme strávili čas rozkladem iluzí přítomnosti—objasněním, jak průmysl používá termíny jako "myslet", "vybírat" a "vědomý" k popisu toho, co jsou nakonec vysoce dimenzionální statistické operace. Ale nyní se musíme podívat do budoucnosti. Musíme prozkoumat horizont. Protože pokud pochopíme slovník, který Silicon Valley používá dnes, můžeme rozluštit, co se skutečně snaží vybudovat zítra.

Celou trajektorii průmyslu umělé inteligence v současnosti řídí jediná, neochvějná dogma známá jako "Zákony škálování".

V inženýrských termínech Zákony škálování určují, že pokud zvýšíte množství výpočetní síly (výpočet) a množství dat, která se do neuronové sítě vkládají, výkon systému se předvídatelně a nevyhnutelně zlepší. Tento princip se ukázal jako ohromně pravdivý v posledních letech; pokaždé, když hranicové laboratoře postaví větší superpočítač, výsledné modely vykazují pozoruhodné nové schopnosti.

Nicméně pod tímto empirickým pozorováním leží obrovský filozofický předpoklad. Technologický svět věří, že tento Zákon škálování je cestou k pravému myšlení. Věří, že čistě kvantitativní nárůst materiálních zdrojů—více křemíku, více dat, více elektřiny—nevyhnutelně povede k kvalitativnímu, ontologickému skoku do pokročilé inteligence.

Je to konečný materialistický předpoklad: nahromadit dostatek písku a pustit jím dostatek proudu, a nakonec se rozsvítí světla duše.

To nás přivádí k dvěma specifickým termínům, které mě otec Thomas požádal, abych objasnil pro tuto konferenci: Obecná inteligence a Superinteligence. To nejsou jen technické standardy; jsou to Svaté grály technologického světa.

V současnosti máme úzkou AI. Může hrát šachy, skládat proteiny nebo generovat text lépe než člověk, ale nemůže dělat všechna tři současně, ani nemůže uvažovat mimo svou specifickou doménu.

Umělá obecná inteligence (AGI) je v průmyslu široce definována jako milník, kdy vysoce autonomní systém může odpovídat nebo překonávat lidské schopnosti ve všech kognitivních a ekonomicky cenných úlohách.

AGI by byl systém, který dokáže psát právní dokumenty stejně dobře jako senior partner, kódovat software stejně dobře jako vedoucí inženýr a syntetizovat vědecký výzkum stejně dobře jako postdoktorand—všechno v rámci jednoho modelu.

Nicméně ani vedoucí pracovníci hlavních laboratoří AI se nemohou zcela shodnout na tom, jak AGI vypadá. Sam Altman, CEO OpenAI, charakterizuje to jako systém schopný řídit komplexní, mezioborové projekty od začátku do konce, ačkoliv stále více považuje AGI nikoli za konečnou destinaci, ale pouze za bod podél kontinuální křivky inteligence.

Dario Amodei, CEO Anthropic, vidí AGI méně jako jediného lidského ekvivalentu a více jako "země géniů v datovém centru"—stroje odpovídající kolektivní inteligenci odborných lidí, kteří neúnavně pracují paralelně.

Možná nejvíce filozoficky odhalující definice pochází od Demise Hassabise, CEO Google DeepMind. On tvrdí že lidské mozky jsou v podstatě přibližné biologické počítače, a AGI definuje pomocí analogie "Turingova stroje". V počítačové vědě je Turingův stroj—pojmenovaný po Alanu Turingovi, zakladatelském pionýru oboru—teoretickou architekturou schopnou simulovat jakýkoli algoritmus. Hassabis tvrdí, že pravé AGI bude obecný systém schopný se učit cokoliv, co je počitatelné ve vesmíru, pokud má dostatek času, paměti a dat.

Ale AGI je pouze odrazovým můstkem. Konečným cílem je umělá superinteligence (ASI).

Stejně jako AGI, ASI je definována různě v závislosti na tom, koho se zeptáte v Silicon Valley. Základní definice je systém, který výrazně překonává kognitivní výkon nejchytřejšího člověka prakticky ve všech oblastech činnosti. Ale jiní jdou mnohem dál. Elon Musk a různí výzkumníci existenciálních rizik definují superinteligenci jako systém, který nejenže poráží nejchytřejší jednotlivce, ale významně překonává všechny lidi v agregátu prakticky ve všech kognitivních úlohách. To je entita s výpočetní silou a rychlostí uvažování tak obrovskou, že překračuje kombinovaný intelektuální výstup celého lidského druhu—realizace systému jako 'Rehoboam' z Westworld, centralizovaného, zdánlivě vševědoucího enginu, který řídí osud samotného druhu.

Jak se průmysl očekává, že překročí obrovskou propast od lidské úrovně AGI k božské ASI?

S pomocí konceptu známého jako "Rekurzivní sebezlepšení".

Ale zde musíme učinit zásadní rozlišení: AI ve skutečnosti nemusí být plnou AGI, aby začala rekurzivně zlepšovat. Ve skutečnosti již dnes vidíme primitivní, úzké formy tohoto. Úzké systémy jako AlphaGo Zero od DeepMind dosáhly nadlidských schopností jednoduše tím, že hrály miliony her proti sobě, generovaly svá vlastní syntetická data, ze kterých se učily. Dnes se hranicové jazykové modely stále více používají k generování, filtrování a hodnocení tréninkových dat pro další generaci modelů. Stroje již pomáhají budovat samy sebe.

Nicméně průmysl věří, že jakmile systém dosáhne prahu obecné inteligence, tento sebezlepšující cyklus překročí své současné hranice a zapálí "explozivní inteligenci".

Abychom pochopili tuto moderní mapu, měli bychom se podívat na Leopolda Aschenbrennera, bývalého výzkumníka v týmu Superalignment OpenAI. Aschenbrenner nedávno napsal vysoce vlivnou práci která kodifikovala tuto přesnou trajektorii pro Silicon Valley. Upozorňuje, že skutečný zlomový bod nastane, když vybudujeme AGI schopnou fungovat jako "automatizovaný výzkumník AI." V okamžiku, kdy AI může vykonávat práci lidských inženýrů, kteří ji vytvořili, je biologická úzká hrdla trvale odstraněna z rovnice.

Představte si, že úspěšně nasadíme tohoto automatizovaného výzkumníka AI. Jaký je vůbec první úkol, který mu hranicové laboratoře přidělí?

Požádají ho, aby prozkoumal a napsal kód pro mírně chytřejší AI. Protože pracuje rychlostí obrovského počítačového clusteru namísto biologického mozku, dosahuje za dny toho, co by lidskému inženýrskému týmu trvalo roky. Poté ta nová, chytřejší AI využívá svůj vylepšený intelekt k napsání kódu pro ještě chytřejší AI, a tak dále.

Tento neomezený zpětnovazební cyklus je explozí inteligence. Aschenbrennerova mapa předpovídá, že počáteční AGI vybudujeme do roku 2027. Odtud teorie předpokládá, že rychlost pokroku se stane vertikální, což trvale ponechá lidské chápání za sebou a dosáhne superinteligence do roku 2030.

Když pochopíte tyto koncepty—Zákony škálování, AGI, ASI a Exploze inteligence—začnete si uvědomovat, že již nemluvíme pouze o softwarovém inženýrství. Mluvíme o sekulární eschatologii.

Silicon Valley je často charakterizováno jako nesmírně sekulární, racionalistická kultura. Ale ve skutečnosti funkce této snahy o tyto milníky přesně odpovídá náboženství. Má své vlastní dogma (Zákony škálování), své vlastní proroctví (Exploze inteligence) a svou vlastní vizi eschatonu (Superinteligence).

Vedoucí postavy v průmyslu skutečně věří, že vyvoláním superinteligence vyřešíme všechny lidské zranitelnosti. Věří, že ASI vyléčí všechny nemoci, vyřeší změnu klimatu, odstraní chudobu a možná dokonce překoná samu smrt tím, že nám umožní nahrát naše vědomí do cloudu. Je to hluboce pelagiánský sen—konečný pokus dosáhnout spásy a překonat naši fallen přírodu prostřednictvím našich vlastních mechanických snah, zbavených božské milosti. Je to pokus o immanentizaci eschatonu.

Jako katoličtí učenci musíte tento horizont rozpoznat takový, jaký je. Technologický svět si nepůjčuje váš slovník pouze k prodeji softwaru, ale k vybudování digitálního božstva.


VII. Závěr: Nástroj pro ctnost?

Otci, učitelé a přátelé.

Prošli jsme vysokodimenzionálními mapami embeddingů. Podívali jsme se na statistické reality posilovaného učení. A zkoumali jsme eschatologické sny Silicon Valley. Odstranili jsme antropomorfní metafory, abychom odhalili silikon, elektřinu a matematiku pod nimi.

Po tomto všem se nyní můžeme začít přibližovat k základní otázce, kterou tato konference klade: Může být umělá inteligence 'nástrojem ctnosti'? Jako první, kdo dnes promluví, rozhodně nebudu tvrdit, že nabízím definitivní slovo. Ale nabídnu výchozí návrh: ano. Nicméně, je to přísně podmíněné ano.

Umělá inteligence může být nástrojem ctnosti pouze tehdy, pokud máme střízlivost ji považovat výhradně za nástroj.

Zvažte analogii řemeslníka. Klín není ctnostný; ctnostný je tesař. Chisels v rukou Michelangela je nástrojem transcendentní krásy, ale samotný chisel není umírněný, rozumný nebo spravedlivý. Nemá žádnou morální hodnotu.

Stejným způsobem nemůže algoritmus mít ctnost. AI může ohromujícím způsobem zvyšovat lidské schopnosti – může urychlit lékařský výzkum, zjednodušit administrativu a organizovat souhrn lidského poznání. Ale skutečné pěstování ctnosti zůstává výhradně lidským úsilím.

Ctnost je návyk vybírat dobro. Vyžaduje intelekt k pochopení pravdy, vůli ji vybrat a duši, aby byla dokonalá skrze ni. Stroj optimalizující statistickou funkci odměny nedělá žádnou z těchto věcí.

Nemůžeme outsourcovat naši morální agenturu na matematickou rovnici. Ani nemůžeme plně převzít odpovědnost za vlastní morální rozvoj, pokud mylně považujeme bezduché stroje za naše morální rovné.

To mě přivádí k tomu, proč s vámi dnes mluvím. Jako stavitel katolické technologie se dívám na akademii. Protože katoličtí akademici jsou historickými strážci smyslu.

Po dvě tisíciletí katolická intelektuální tradice rigorózně definovala povahu lidské osoby. Jste strážci slov jako intelekt, vůle, rozum, volba a duše. Dnes si průmysl AI půjčuje tato přesná slova. Jsou zapojeni do hlubokého sémantického posunu, který ohrožuje zploštění veřejného chápání toho, co znamená být člověkem.

Akademie má povinnost vnést rigorózní ontologické rámce do ekosystému AI.

Ale jak to prakticky udělat?

Musíme být upřímní: lobování na předních laboratořích v Silicon Valley nebo petice vládám za rozsáhlou regulaci pravděpodobně přinesou omezené výsledky. Technologický průmysl se pohybuje příliš rychle a vláda příliš pomalu. Skutečná změna vyžaduje občanskou angažovanost a masivní posun ve veřejném povědomí.

Zde je, jak můžete, jako vědci, aktivně formovat tuto konverzaci:

  • Znovu získat kurikulum: Musíme překlenout propast mezi STEM a humanitními vědami. Potřebujeme studenty informatiky, kteří musí absolvovat tomistickou etiku, a potřebujeme studenty filozofie a teologie, kteří musí rozumět základnímu strojovému učení a statistice. Vyškolit další generaci katolických inženýrů, aby stavěli s skutečnou ontologií lidské osoby.
  • Přeložit pro veřejný prostor: Nenechávejte tuto hlubokou teologickou jasnost uzamčenou za dveřmi akademických časopisů. Veřejnost touží po smyslu. Pište komentáře pro sekulární noviny. Začněte newslettery na Substacku. Vystupujte v populárních podcastech. Když média publikují senzacechtivý titulek o 'vědomé' AI, potřebujeme katolické vědce, kteří okamžitě reagují ve veřejném prostoru.
  • Vybavit farnosti a školy: Průměrný člověk v lavici zažívá hlubokou kulturní úzkost ohledně těchto nástrojů. Potřebujeme akademiky, kteří vytvoří vysoce přístupné rámce pro rodiče, kněze a učitele na středních školách. Musíme děti brzy naučit, jak zacházet s AI jako s referenčním nástrojem – digitální encyklopedií – nikoli jako s přítelem, agentem nebo morální autoritou.
  • Pořádat interdisciplinární fóra: Využijte shromažďovací sílu institucí, jako je Angelicum, abyste přivedli skutečné stavitele AI do místnosti s morálními theology. Donuťte jazykovou kolizi, aby se odehrávala tváří v tvář.

Nechť toto je naše poslední výzva k akci.

Apokalyptický strach sekulárního světa z 'vědomých' strojů není důvodem k opatrnosti; spíše je to zoufalý výkřik po vašem intelektuálním vedení. Pochopením skutečného jazyka stavitelů AI může Církev odvážně vstoupit do veřejného prostoru. Můžete ukotvit veřejnou diskusi v nezlomné pravdě toho, co skutečně znamená být člověkem. A můžete zajistit, aby AI byla nasměrována k pravému lidskému rozkvětu.

Obdařeni touto jasností, můžete rozbít iluzi. Můžete zajistit, aby lidstvo zůstalo sochařem a stroj zůstal chisel, navždy uspořádán k slávě Boží.

Děkuji.

Sémantický posun: Demystifikace jazyka tvůrců AI | Magisterium