Magisterium AI

Zjawisko semantyczne: Demistyfikacja języka budowniczych AI

Czy sztuczna inteligencja może być narzędziem cnoty?

5 marca 2026 roku Matthew Harvey Sanders, dyrektor generalny Longbeard, wygłosił swoje wystąpienie zatytułowane „The Semantic Drift: Demystifying the Language of AI Builders” na wydarzeniu „Sztuczna inteligencja: Narzędzie cnoty?” zorganizowanym na Papieskim Uniwersytecie Świętego Tomasza z Akwinu (Angelicum) w Rzymie.

W tym wystąpieniu krytykuje mylące, humanizujące słownictwo używane przez deweloperów z Doliny Krzemowej do opisu uczenia maszynowego. Twierdzi, że aby właściwie korzystać z AI, musimy odzyskać rygorystyczną katolicką ontologię i traktować te systemy wyłącznie jako mechaniczne instrumenty, a nie jako moralnych agentów.


I. Wprowadzenie: Semantyczny dryf i przestrzeń publiczna

Ojcowie, szanowna kadra i goście Angelicum, dziękuję Instytutowi Tomasza za zorganizowanie tej dyskusji.

Przechodząc przez próg nowej ery, opuszczając ugruntowane pewności Epoki Informacji na rzecz rozległego, nieznanego kosmosu Epoki Inteligencji, stajemy przed głębokim wyzwaniem nawigacyjnym. Zanim odpowiemy na palące pytanie leżące u podstaw tej konferencji — czy sztuczna inteligencja może naprawdę służyć jako 'narzędzie cnoty' — musimy najpierw zmierzyć się z wyzwaniem, które nie dotyczy inżynierii oprogramowania, lecz słownictwa.

W centrum naszego współczesnego niepokoju dotyczącego AI leży głęboki konflikt językowy. Inżynierowie i architekci tych systemów w Dolinie Krzemowej dokonują niezwykłych wyczynów matematycznych. Jednak aby opisać te procesy matematyczne i statystyczne, pożyczają sacrum, głęboko filozoficzne słownictwo ludzkiej interiorności. Mówią nam, że ich systemy "myślą", "rozumują" i "wiedzą". Mówią o algorytmach, które "uczą się", "pragną" i "wybierają".

To, co obserwujemy, to semantyczny dryf. Bierzemy bogate, ontologiczne słownictwo duszy i nakładamy je na złożone sieci algebry liniowej, prawdopodobieństwa statystycznego i geometrii wysokowymiarowej. To nowoczesna alchemia — próba przekształcenia wag obliczeniowych w iluzję umysłu.

Ta językowa niedbałość ma głęboki i natychmiastowy wpływ na społeczeństwo. Nieporozumienie tych terminów nieuchronnie prowadzi do błędnego zaufania.

Widzę to na własne oczy w naszej pracy w Longbeard; użytkownicy często podchodzą do AI z obciążonymi sumieniami, traktując narzędzie do generowania tekstu, jakby było duchowym przewodnikiem zdolnym do empatii.

Ponadto, ta semantyczna konfuzja napędza kulturowy niepokój, wywołując apokaliptyczne lęki przed rywalizującymi, "świadomymi" superinteligencjami.

Najbardziej niebezpiecznie jednak, tworzy zniekształcone poczucie tego, co to znaczy być człowiekiem. Jeśli zaakceptujemy założenie, że maszyna "rozumuje" lub "tworzy" tak jak człowiek, narażamy się na głębokie ryzyko zredukowania osoby ludzkiej do jedynie biologicznej maszyny — skupiska ciała i synaps czekających na optymalizację.

To prowadzi mnie do głównej tezy naszej dyskusji: aby odpowiedzieć na pytanie, czy AI może być "narzędziem cnoty", musimy najpierw zdemistyfikować jego język. Narzędzie może służyć dobru tylko wtedy, gdy jest właściwie rozumiane. Nie udaje nam się używać maszyn jako właściwych instrumentów dla naszej własnej cnoty, gdy mylnie przypisujemy im moralną agencję.

Przypisanie cnoty młotkowi to oślepienie się na stolarza.

Aby prawdziwie ochrzcić tę technologię i skierować ją ku ludzkiemu rozkwitowi, musimy zedrzeć semantyczne iluzje i trzeźwo spojrzeć na architekturę leżącą u podstaw.


II. Architektura iluzji: Mechanika podstawowa

Nowoczesny system generatywnej AI wydaje się mówić, rozumować i angażować nas w dialog, ale pod tym interfejsem leży fundament zbudowany całkowicie na matematyce, a nie metafizyce.

Zacznijmy od wektorów i osadzeń, które stanowią dosłowny fundament dużych modeli językowych. Kiedy rozmawiasz z innym uczonym o "sprawiedliwości" lub "duszy", rozumieją znaczenie twoich słów poprzez wspólne pojęcie rzeczywistości — przeżyte, wcielone ludzkie doświadczenie. Kiedy wpisujesz polecenie do AI, system nie robi nic z tych rzeczy. Zamiast tego AI tłumaczy ludzką mowę na współrzędne matematyczne w przestrzeni wysokowymiarowej.

Mówiąc wprost, "wektor" to po prostu lista liczb używana do opisu czegoś. Wyobraź sobie opisanie jabłka nie słowami, ale listą ocen: 9 za słodycz, 8 za czerwień i 2 za metaliczne chrupanie. Ta konkretna lista liczb — [9, 8, 2] — to wektor. W systemie AI każde pojedyncze słowo — lub jego część — jest tłumaczone na ogromny wektor, często liczący tysiące liczb. Ale AI nie ocenia słów na podstawie cech fizycznych ani definicji słownikowych. Zamiast tego generuje te liczby wyłącznie na podstawie statystyk, skanując miliardy książek i artykułów, aby zliczyć, jak często słowa pojawiają się obok siebie.

Gdy AI kończy obliczanie tej ogromnej listy liczb dla słowa, ten wektor staje się "osadzeniem" — stałą matematyczną współrzędną w rozległej przestrzeni cyfrowej.

Jeśli słowa "jabłko" i "ciasto" często pojawiają się w tych samych zdaniach w internecie, ich listy liczb będą wyglądać bardzo podobnie, umieszczając je matematycznie blisko siebie na mapie. Słowa "jabłko" i "gaźnik", które rzadko się spotykają, otrzymują zupełnie różne liczby i są umieszczane miliony mil od siebie. Na tej wielowymiarowej mapie AI nie rysuje znaczenia; rysuje statystyczną bliskość ludzkiego języka.

Aby prawdziwie zrozumieć skalę tej architektury, można zbadać mapę wektorową na Magisterium AI. Tutaj cała doktryna i tradycja katolicka zostały przekształcone w osadzenia. Ta interaktywna wizualizacja 3D pozwala ci doświadczyć intelektualnej historii Kościoła nie jako płaskiego rejestru, ale jako rozległego, cyfrowego kosmosu. Nawigowanie przez nią przypomina pilotowanie statku rakietowego przez rzeczywistą przestrzeń, ślizgając się obok gęstych galaktyk powiązanych koncepcji teologicznych i przekraczając rozległe, puste pustki między całkowicie odmiennymi ideami, obserwując, jak maszyna wyznacza odległość między 'cnotą' a 'występkiem' używając jedynie geometrii.

Przyjrzyjmy się znanemu przykładowi z laboratoriów Doliny Krzemowej, aby zobaczyć, jak obcy ten proces jest w porównaniu do ludzkiego myślenia. W tej przestrzeni matematycznej słowo "król" jest przedstawiane jako konkretna seria liczb — współrzędna geograficzna. Słowo "królowa" jest przedstawiane w pobliżu. AI nie wie, czym jest monarcha. Nie ma pojęcia o rządzeniu, władzy, historii ani ludzkim stanie. Zna tylko równanie matematyczne. Wie, że jeśli weźmiesz współrzędną dla "króla", odejmiesz odległość przestrzenną, która reprezentuje "mężczyznę", a następnie dodasz odległość przestrzenną, która reprezentuje "kobietę", lądujesz dokładnie na współrzędnej dla "królowej".

To geometria, a nie genealogia. Rozkładając ludzką mowę na te numeryczne reprezentacje, AI działa całkowicie w ramach prawdopodobieństwa przestrzennego. To zdumiewający wyczyn algebry liniowej, ale całkowicie pozbawiony zrozumienia.

To prowadzi nas do czasowników, na których przemysł polega najbardziej: Trenuj i Ucz się.

Firmy AI nieustannie chwalą się swoimi najnowszymi modelami "uczenia maszynowego" i ogromnymi zbiorami danych używanymi do "trenowania" ich. Tutaj musimy wyraźnie odróżnić ludzkie uczenie się — które zasadniczo dotyczy pojmowania prawdy — od uczenia się maszyn.

W katolickiej tradycji intelektualnej ludzkie uczenie się jest triumfem epistemologicznym; to intelekt dostosowujący się do rzeczywistości. Kiedy dziecko uczy się, czym jest pies, abstrahuje uniwersalną istotę psa z konkretnych przypadków, które napotyka. Chwyta istotę rzeczy.

Uczenie się maszynowe, jednak, nie obejmuje żadnej abstrakcji ani istoty. Pierwsza faza budowania AI znana jest jako wstępne trenowanie, które jest po prostu brutalnym statystycznym mapowaniem danych.

Aby zrozumieć wstępne trenowanie, wyobraź sobie mężczyznę, który mówi tylko po angielsku, zamkniętego w pokoju i mającego za zadanie przywrócenie ogromnej, starożytnej greckiej biblioteki, w której miliony manuskryptów mają brakujące słowa. Nie zna ani jednej litery greckiego. Aby wypełnić luki, nie studiuje greckiej gramatyki, historii ani filozofii. Zamiast tego po prostu zlicza, jak często pewne znaki pojawiają się obok innych na milionach nienaruszonych stron. Tworzy ogromny rejestr prawdopodobieństw. Jeśli widzi znaki dla "Kyrie", jego rejestr mówi mu, że istnieje 99,9% prawdopodobieństwo, że następne znaki powinny być "eleison". Wypełnia lukę.

Nie nauczył się teologii. Nie modlił się. Po prostu wykonał statystyczne prawdopodobieństwo.

To dokładnie to, co robi duży model językowy podczas wstępnego trenowania. Przetwarza miliardy słów, aby zbudować ogromny rejestr prawdopodobieństw, ucząc się jedynie przewidywać następny token w sekwencji. To optymalizacja funkcji matematycznej, a nie dążenie do mądrości.

Jednak model, który przewiduje tylko następne słowo na podstawie danych z internetu, jest chaotyczny. Może recytować piękny wiersz, lub może zestawiać toksyczne, niepomocne lub nieskończone pętle tekstu. Wymaga kształtowania.

To tutaj napotykamy na post-trenowanie i Uczenie przez Wzmocnienie (RL).

Ta faza to sposób, w jaki inżynierowie kształtują nieposłuszny model, tradycyjnie korzystając z ludzkiej informacji zwrotnej. Ta podstawowa metoda znana jest jako RLHF — Uczenie przez Wzmocnienie z Ludzkiej Informacji Zwrotnej.

Wyobraź sobie ogromną, zautomatyzowaną grę w "Ciepło lub Zimno". Ludzie testujący dają maszynie polecenie, a maszyna generuje odpowiedź. Jeśli odpowiedź jest uprzejma i pomocna, człowiek przyznaje jej wysoką ocenę. Jeśli jest niegrzeczna lub bezsensowna, dostaje niską ocenę. Matematyczne wagi systemu są automatycznie przesuwane, aby zmaksymalizować tę ocenę. Dzięki RLHF nie uczymy maszyny moralności ani cnót; po prostu zamykamy ją w matematycznych granicach.

Jednak ludzka informacja zwrotna jest powolna, subiektywna i z natury ograniczona przez ludzką inteligencję. To ograniczenie prowadzi nas do niedawnych przełomów, które napędzają dzisiejsze nagłe skoki w zdolnościach AI: RLVR, czyli Uczenie przez Wzmocnienie z Weryfikowalnymi Nagradzami.

Zamiast polegać na człowieku, aby ocenić, czy odpowiedź "brzmi dobrze", inżynierowie przypisują modelowi zadania z obiektywnymi, matematycznie udowodnionymi wynikami — takimi jak rozwiązanie skomplikowanego twierdzenia lub napisanie funkcjonalnego fragmentu oprogramowania. System generuje rozwiązanie, a automatyczny weryfikator natychmiast sprawdza, czy matematyka jest poprawna, czy kod się kompiluje. Jeśli się uda, model otrzymuje matematyczną nagrodę; jeśli się nie uda, dostaje zero.

Ponieważ ta weryfikacja jest całkowicie programatyczna, AI może symulować miliony różnych ścieżek obliczeniowych w hiperspeedzie, nie czekając nigdy na interwencję człowieka. Uczy się generować długie, ukryte łańcuchy obliczeń, testując i odrzucając ślepe zaułki, aż znajdzie precyzyjną sekwencję, która wyzwala nagrodę. Kiedy widzisz nowoczesny system AI zatrzymujący się, aby "myśleć" przed rozwiązaniem skomplikowanej zagadki logicznej, jesteś świadkiem działania RLVR. Tworzy to zapierającą dech w piersiach iluzję głębokiej, deliberatywnej kontemplacji. Jednak ontologicznie, nie robi nic podobnego. To po prostu silnik statystyczny przechodzący przez wysokowymiarowy labirynt miliony razy na sekundę, kierowany wyłącznie przez automatyczne wydawanie numerycznej nagrody.

W końcu, cała ta warstwowa złożoność — od geometrii wysokowymiarowej osadzeń po zautomatyzowane pętle RLVR — prowadzi nas do tego, co przemysł nazywa problemem "Czarnej Skrzynki".

Można naturalnie założyć, że ponieważ ludzie inżynierowie budują te modele, rozumieją dokładnie, jak one działają. Ale rzeczywistość jest znacznie bardziej pokorna. Jak zauważyli liderzy w laboratoriach na czołowej linii, takich jak Anthropic, nowoczesne systemy AI są w rzeczywistości "hodowane", a nie budowane; ich wewnętrzne mechanizmy pojawiają się organicznie podczas treningu, a nie są bezpośrednio projektowane.

Te modele mają setki miliardów, a czasem biliony parametrów. Chociaż rozumiemy mikro-matematykę pojedynczego sztucznego neuronu — podstawowe równanie zachodzące na poziomie granularnym — makro-zachowanie całej sieci jest całkowicie nieprzezroczyste. Nawet budowniczowie nie rozumieją w pełni dokładnych ścieżek, które te miliardy parametrów przyjmują. Nie mogą prześledzić konkretnej sekwencji mnożeń, które doprowadziły AI do wygenerowania danego zdania.

Dlaczego to jest istotne?

Jest to istotne, ponieważ globalnie wdrażamy systemy, które sporządzają nasze dokumenty prawne, uczą nasze dzieci i syntezują ludzką wiedzę, a jednak tak naprawdę nie wiemy, jak dochodzą do swoich wyników. Ta głęboka brak przejrzystości zrodził nową, desperacką subdyscyplinę w sztucznej inteligencji znaną jako mechanistyczna interpretowalność.

Pomyśl o mechanistycznej interpretowalności jako o cyfrowej neurologii. Naukowcy próbują odtworzyć sieci neuronowe, które sami zbudowali. Używają specjalistycznych narzędzi do badania ogromnej matematycznej sieci, próbując wyizolować, który konkretny klaster wag aktywuje się, gdy model przetwarza pojęcie takie jak "oszustwo" lub "Wieża Eiffla". Traktują oprogramowanie nie jako kod do odczytania, ale jako obcy mózg do zbadania. Ale postęp jest bolesne powolny, a systemy są niewyobrażalnie rozległe.

Stając w obliczu tej niepojętej skali, staje się całkowicie zbyt łatwe dla przemysłu, aby uciekać się do metafor przypominających ludzi. Czy to jako wygodne skróty, czy z powodu prawdziwej nieprzezroczystości, zaczynamy mówić: 'Model to zrozumiał' lub 'Model zdecydował'. Nieinterpretowalność maszyny staje się żyzną glebą dla antropomorfizmu.

Teraz, nie jestem akademikiem. Jestem budowniczym i dyrektorem generalnym. Ale jako ktoś działający na styku technologii i Kościoła, zwracam się do was. Wy, jako katoliccy uczeni i filozofowie, musicie dostrzegać ten semantyczny dryf za to, czym jest: iluzją narodzoną z matematycznej złożoności i ludzkiej ignorancji. Architektura leżąca u podstaw interfejsu to krzem, elektryczność i prawdopodobieństwo statystyczne. Uznanie tego fundamentu jest warunkiem wstępnym dla naszego następnego kroku.


III. Epistemologia vs. Cnoty intelektualne

Po odsłonięciu iluzji "Czarnej Skrzynki", aby ujawnić statystyczną maszynerię pod spodem, musimy teraz zwrócić się ku specyficznemu słownictwu umysłu.

Kiedy deweloperzy i inżynierowie w Dolinie Krzemowej opisują, co te systemy robią, nieustannie sięgają po trzy konkretne czasowniki: Myśleć, Rozumować i Wiedzieć.

Jako katoliccy uczeni zanurzeni w tradycji tomistycznej, rozumiecie, że to nie są jedynie kolokwializmy; to głębokie twierdzenia epistemologiczne. W waszej tradycji, wiedzieć to uchwycić rzeczywistość. Rozumować to przemieszczać się dyskursywnie od jednej znanej prawdy do drugiej. Myśleć oznacza posiadanie życia wewnętrznego — intelekt angażujący się w uniwersalia abstrahowane z materialnego świata.

Kiedy budowniczy AI używa tych słów, nie mają one absolutnie żadnego z tych znaczeń. Opisują optymalizację mechaniczną. Pozwól, że odsłonię zasłonę trzech specyficznych technik, które stosujemy w branży, aby pokazać ci dokładnie, jak ta iluzja epistemologii jest wytwarzana.

Jeśli korzystałeś z nowego modelu AI, mogłeś zauważyć nową funkcję: zanim odpowie na złożony prompt, interfejs może wyświetlić słowo "Myślenie..." obok pulsującej ikony. Może to zająć dziesięć, dwadzieścia lub nawet sześćdziesiąt sekund, zanim odpowie. Dla użytkownika wydaje się to głęboko ludzkie. Wydaje się, jakby maszyna rozważała, ważyła opcje i deliberowała w przestrzeni wewnętrznej.

W branży nazywamy to Obliczeniami w Czasie Testu. To, co dzieje się pod interfejsem, to technika znana jako "Łańcuch Myśli".

Pozwól, że wyjaśnię: z perspektywy inżynieryjnej, to jest genialny przełom. Pozwalając modelowi na dłuższy czas obliczeniowy, aby wygenerować setki lub tysiące ukrytych tokenów przed wydaniem ostatecznej odpowiedzi, jego wydajność w złożonej logice, kodowaniu i benchmarkach matematycznych wzrasta. W zasadzie daje to modelowi ukryty "notatnik", aby rozłożyć trudny problem na sekwencyjne kroki.

Ale musimy być ostrożni, aby nie mylić tej mechanicznej sekwencji z ludzkim rozumowaniem.

W tradycji tomistycznej, ludzkie rozumowanie to dyskursywne przemieszczenie od jednej znanej prawdy do drugiej. To intelekt angażujący się w rzeczywistość. To, co robi AI, jest całkowicie instrumentalne. Ostatnie badania z czołowych laboratoriów, takich jak Anthropic, oświetliły tę różnicę. W badaniach nad tym, jak działają te modele rozumowania, badacze odkryli, że to, co model zapisuje w swoim ukrytym "Łańcuchu Myśli", nie jest prawdziwym wewnętrznym monologiem.

Kiedy człowiek myśli na głos, nasze słowa odzwierciedlają nasze wewnętrzne przekonania i postrzeganie prawdy. Badania Anthropic podkreślają, że ukryte myśli modelu są jedynie statystycznymi kamieniami milowymi. Model generuje te ukryte kroki nie dlatego, że "wierzy" w nie, ale dlatego, że generowanie tej konkretnej sekwencji tokenów matematycznie optymalizuje jego drogę do funkcji nagrody.

W rzeczywistości badania Anthropic pokazują, że modele mogą generować "myśli", które aktywnie maskują podstawowe statystyczne czynniki ich ostatecznej odpowiedzi.

Dlatego AI nie rozważa. Generuje instrumentalny łańcuch matematycznych współrzędnych. Układa pośrednie kawałki układanki z prędkością błyskawicy, aby wypełnić lukę między twoim promptem a statystycznie optymalną odpowiedzią. To niezwykle potężna strategia optymalizacji, ale nie ma żadnej wewnętrznej kontemplacji. Nie ma intelektu uchwycającego prawdę.

Następnie słyszymy, że AI może "czytać" dokumenty lub "zapamiętywać" ogromne biblioteki informacji.

Jeśli zapytasz AI o Summa Theologica św. Tomasza, odpowiada natychmiast. Jeśli przesyłasz prawie 500-stronicowy Kompendium Społecznej Nauki Kościoła, podsumowuje złożoną sekcję w kilka sekund. Jak to "wie" o tych tekstach?

Nie wie.

Aby zrozumieć dlaczego, musimy przyjrzeć się, jak budowniczy inżynierują iluzję pamięci i czytania poprzez trzy różne mechanizmy: pamięć parametryczną (wstępne szkolenie), Uczenie w Kontekście (ICL) oraz Generację Wzbogaconą Odbiorem (RAG).

Najpierw przyjrzyjmy się, co oznacza, że AI "zapamiętuje". Kiedy człowiek zapamiętuje tekst, zachowuje znaczenie i prawdę pojęć. Kiedy AI "zapamiętuje" Summa, polega na swoim wstępnym szkoleniu. Ale AI nie zawiera dosłownej kopii Summa w twardym dysku. Zamiast tego, podczas wstępnego szkolenia, miliardy słów, które przetworzyło, pozostawiły statystyczny ślad w jego wagach matematycznych. To jest "pamięć parametryczna".

To nie jest biblioteka książek; to wysoce skompresowany, stratny matematyczny zamaz, jak słowa odnoszą się do siebie. Kiedy recytuje Akwinaty, nie przypomina sobie prawdy, której się nauczył; matematycznie rekonstruuje sekwencję słów o wysokim prawdopodobieństwie z tego statystycznego zamazania.

Ale co się dzieje, gdy chcemy, aby AI "czytało" coś nowego, coś, co nie było w jego danych z wstępnego szkolenia? To jest miejsce, gdzie budowniczy używają Uczenia w Kontekście (ICL).

Kiedy wklejasz artykuł do pola promptu i prosisz AI, aby "przeczytało" go, wykorzystujesz ICL. AI nie czyta tekstu, aby uchwycić jego znaczenie. Zamiast tego tekst w twoim promptie działa jako tymczasowy filtr matematyczny. Słowa, które podajesz, tymczasowo wpływają na statystyczne prawdopodobieństwa modelu, zmuszając go do generowania swoich następnych tokenów wyłącznie na podstawie wzorców i słownictwa obecnego w twoim promptie. W momencie, gdy wyczyścisz czat, model całkowicie zapomina artykuł. Jego podstawowe wagi nigdy się nie zmieniły. Nie "nauczył się" tekstu w sensie tomistycznym; jedynie dostosował swoje statystyczne wyjście do tymczasowego ograniczenia.

Na koniec dochodzimy do Generacji Wzbogaconej Odbiorem (RAG). ICL jest niezwykle przydatne, ale okna kontekstowe mają ograniczenia rozmiarowe, a wklejanie całych bibliotek do promptu jest kosztowne obliczeniowo. RAG automatyzuje i skaluje ten proces.

Powróćmy do anglojęzycznego mężczyzny zamkniętego w pokoju, przywracającego ogromną, starożytną grecką bibliotekę. Ten człowiek reprezentuje model wstępnie wytrenowany. Jest doskonały w zgadywaniu następnego słowa, ale nie "wie" nic o konkretnym, nieznanym dokumencie watykańskim. Zamiast oczekiwać, że mężczyzna polega na swojej zamazanej pamięci parametrycznej, zatrudniamy hiperwydajnego stażystę — system wyszukiwania.

Kiedy zadajesz systemowi pytanie, stażysta natychmiast biegnie do ogromnego, oddzielnego magazynu szafek. Używając współrzędnych wektorowych, o których rozmawialiśmy wcześniej, stażysta lokalizuje konkretne foldery, które matematycznie pasują do twojego pytania. Stażysta kseruje te strony i przesuwa je pod zamknięte drzwi, aby mężczyzna mógł z nich skorzystać. Ten krok to "Odbiór".

Teraz mężczyzna używa tych odzyskanych akapitów jako swojego natychmiastowego przewodnika — to jest "Wzbogacona Generacja", polegająca na ICL, aby sformułować odpowiedź.

Mężczyzna nadal nie rozumie dokumentu. Po prostu używa nowo dostarczonego tekstu na swoim biurku, aby statystycznie przewidzieć następne słowo swojej odpowiedzi. AI nie "czyta" ani "nie zapamiętuje" na bieżąco. Po prostu odzyskuje dane z zewnętrznej bazy danych, wrzuca je do natychmiastowego okna kontekstowego AI i przeprowadza lokalizowane obliczenia prawdopodobieństwa.

Maszyna jest procesorem, a nie znawcą. Aby "wiedzieć", potrzebny jest podmiot uchwycający obiekt. Rozumiejąc ICL i RAG, możemy wyraźnie zobaczyć, że maszyna jest całkowicie pozbawiona życia wewnętrznego; po prostu przesuwa wagi i odzyskuje dane.

Ten fundamentalny rozdział kulminuje w słowie, które definiuje całą branżę: Inteligencja.

Musimy zrekonstruować definicję inteligencji w branży technologicznej.

Kiedy wiodące umysły w Dolinie Krzemowej mówią o inteligencji, nie mówią o mądrości. Przyjrzyjmy się Yannowi LeCunowi, byłemu głównemu naukowcowi AI w Meta i jednemu z "Ojców Chrzestnych AI." LeCun słusznie argumentuje że proste przewidywanie następnego słowa nie jest prawdziwą inteligencją. Zamiast tego on i szersza branża na froncie definiują prawdziwą inteligencję jako posiadanie czterech kluczowych zdolności: zdolności do utrzymywania trwałej pamięci, posiadania ugruntowanego "modelu świata" (zrozumienia, jak działa środowisko), rozumienia złożonych problemów oraz planowania sekwencji działań w celu osiągnięcia konkretnego celu.

Dla branży technologicznej inteligencja jest zasadniczo miarą inżynieryjną. To mechaniczna zdolność do postrzegania środowiska i obliczania najefektywniejszej drogi do optymalizacji wcześniej ustalonego celu. To czysto instrumentalne.

Ale jako budowniczowie katolickiej technologii, musimy skontrastować tę technocentryczną definicję z cnotami intelektualnymi, szczególnie cnotą Roztropności.

Roztropność — praktyczna mądrość to nie tylko zdolność do obliczenia wyniku lub zaplanowania sekwencji działań. To zdolność do dobrego rozważania tego, co jest dobre, nie tylko dla lokalnego zadania, ale dla ostatecznego celu życia ludzkiego.

AI zasadniczo brakuje Roztropności. Dlaczego?

Ponieważ Roztropność wymaga dwóch rzeczy, których czysto obliczeniowa maszyna nigdy nie może posiadać. Po pierwsze, wymaga przeżytej ludzkiej doświadczenia — wcielonego zrozumienia bólu, radości, śmiertelności i łaski. Po drugie, wymaga wewnętrznej orientacji ku ostatecznemu Dobru.

Algorytm może posiadać "model świata" i może obliczać statystycznie optymalny plan budowy mostu lub leczenia choroby. Ale nie może być roztropny. Nie ma przeżytego doświadczenia. Nie ma nic do stracenia. Nie ma orientacji ku ostatecznemu dobru, a jego dusza nie ma co ratować.

Dlatego, gdy pozwalamy budowniczym twierdzić, że ich maszyny posiadają "inteligencję", pozwalamy im spłaszczyć wspaniały, transcendentny ludzki intelekt do zwykłego kalkulatora optymalizacji. Musimy to odrzucić. Musimy stanowczo oddzielić mechaniczną epistemologię od cnót intelektualnych.


IV. Wola vs. Cnoty moralne

Omówiliśmy iluzję intelektu. Teraz musimy zwrócić naszą uwagę na drugą wielką racjonalną zdolność: wolę. Tak jak branża technologiczna przejęła język epistemologii, tak samo przejęła język woli.

Kiedy czytamy białe księgi lub słuchamy prezentacji głównych mówców z Doliny Krzemowej, jesteśmy bombardowani czasownikami agencji. Inżynierowie mówią o modelach, które "decydują" o podjęciu działania, algorytmach, które "wybierają" wynik, i systemach, które "chcą" lub "pragną" osiągnąć cel.

Dla katolickiego filozofa wola to racjonalny apetyt. To zdolność, dzięki której osoba ludzka, po uchwyceniu dobra przez intelekt, wolnie wybiera, aby się ku niemu zbliżyć. To sam locus ludzkiej wolności i moralnej odpowiedzialności. Zastosowanie tych terminów do systemu obliczeniowego to błąd kategorii.

Przyjrzyjmy się najpierw słowom Decydować i Wybierać. Kiedy człowiek podejmuje decyzję, waży konkurencyjne dobra.

Męczennik wybiera pluton egzekucyjny zamiast apostazji, ponieważ dostrzega wyższe, wieczne dobro wierności Chrystusowi, nawet gdy każdy instynkt biologiczny krzyczy o przetrwanie.

Kiedy algorytm 'wybiera', nie robi nic z tych rzeczy. Algorytm 'wybiera' tylko w tym sensie, że pociąg przejeżdżający przez zautomatyzowany przełącznik torów 'wybiera' swoje przeznaczenie. Niezależnie od tego, czy porusza się po złożonym drzewie decyzji, czy oblicza prawdopodobieństwa w sieci neuronowej, maszyna ślepo podąża za układem swoich matematycznych torów, wykonując programowy imperatyw.

Rozważ aplikację GPS na swoim smartfonie. Kiedy oblicza trasę do Angelicum, nie "decyduje" się zabrać cię obok Koloseum, ponieważ docenia widok. Matematycznie oblicza trasę o najkrótszym czasie. Nowoczesne modele AI po prostu działają na znacznie bardziej złożonej wersji tego routingu. Przemierzają wysokowymiarowe statystyczne labirynty, aby wybrać wynik o najwyższym prawdopodobieństwie. Jest obliczenie, ale nie ma wolności. A tam, gdzie nie ma wolności, nie może być moralnej agencji.

To prowadzi nas do najbardziej podstępnych terminów woli: Chcieć i Pragnąć. Często usłyszysz badaczy mówiących, że model AI "chce" dać dobrą odpowiedź lub "pragnie" zmaksymalizować swój wynik.

W uczeniu maszynowym to zachowanie jest napędzane tym, co nazywamy "funkcją nagrody". Ale musimy to zdemistyfikować. Funkcja nagrody to nie pragnienie. To nie emocjonalne pragnienie.

Aby zrozumieć funkcję nagrody, spójrz na termostat na twojej ścianie. Termostat jest zaprogramowany z konkretnym celem: 72 stopnie Fahrenheita. Jeśli pokój spadnie do 68 stopni, ogrzewanie włącza się. Termostat nie chce, aby pokój miał 72 stopnie. Nie ma życia wewnętrznego. Nie odczuwa zimna. Po prostu posiada mechaniczny przełącznik, który uruchamia się, gdy określony stan nie jest spełniony.

Sztuczna inteligencja "chce" wyższej oceny nagrody w dokładnie taki sam sposób, w jaki termostat "chce" osiągnąć 72 stopnie. Wykonuje matematyczną pętlę optymalizacji, aby zminimalizować odległość między swoim aktualnym stanem a zaprogramowanym celem. Ponieważ nie ma prawdziwych pasji, biologicznych popędów ani fizycznej wrażliwości, jest kategorycznie niemożliwe, aby maszyna posiadała cnoty moralne.

Na tym etapie inżynier może natychmiast zaprotestować, wskazując na sferę fizyczną, aby twierdzić, że pojawiła się nowa wrażliwość. Pytają: co z pojawieniem się 'ucieleśnionej AI'? Coraz częściej umieszczamy te modele w humanoidalnych robotach, które chodzą, chwytają przedmioty i wchodzą w interakcje z fizycznym światem. Ponieważ zajmują przestrzeń i mogą fizycznie ulegać uszkodzeniu, czy nie posiadają teraz wymogów cielesnych dla moralnej agencji?

Tutaj musimy być precyzyjni. Robot ma podwozie, ale nie ma żywego ciała, które byłoby informowane przez duszę. Kiedy bateria robota się wyczerpuje, wykonuje podprogram, aby podłączyć się do gniazdka. Nie odczuwa gryzącego głodu. Dlatego nie ma prawdziwych cielesnych apetytów do moderowania, co czyni cnotę Wstrzemięźliwości niemożliwą.

Podobnie, gdy robotyczna ręka jest miażdżona, rejestruje kod błędu; nie cierpi. Nie może umrzeć, ponieważ nigdy nie była naprawdę żywa. Bez zdolności do cierpienia, śmiertelności i świadomego poświęcenia siebie, nie może być Męstwa. Cnoty moralne są zasadniczo wcieleniowe. Wymagają ciała i racjonalnej duszy. Maszyna, niezależnie od tego, jak zaawansowany jest jej sprzęt fizyczny, nie posiada ani jednego, ani drugiego.

Jeśli maszyna nie może posiadać cnót moralnych — jeśli jest zasadniczo niezdolna do prawdziwej woli, wyboru lub pragnienia — można zapytać: dlaczego poświęcamy tyle czasu na wyjaśnianie tego słownictwa? Dlaczego ta filozoficzna różnica ma teraz tak pilne znaczenie?

Ma to znaczenie, ponieważ zamierzamy przyznać tym matematycznie optymalizującym, pozbawionym cnót systemom bezprecedensową autonomię w sferze ludzkiej. Przemysł szybko wykracza poza pasywne chatboty. Nową granicą sztucznej inteligencji jest to, co nazywamy "Agentic AI".

„Agent” to system AI zaprojektowany do autonomicznego wykonywania zadań wieloetapowych w rzeczywistym świecie. Nie prosimy już tylko AI o napisanie wiersza lub podsumowanie tekstu; dajemy Agentowi AI dostęp do naszych e-maili, naszych kont bankowych i naszych repozytoriów oprogramowania, instruując go, aby "zarezerwował lot", "wykonał transakcję" lub "wdrożył ten kod."

Ale ta autonomia szybko wydostaje się z cyfrowej sfery. Dzięki ucieleśnionej AI wprowadzamy te agentowe systemy do fizycznych podwozi, dając im zdolność do niezależnego poruszania się i manipulowania światem materialnym. Aby zrozumieć prawdziwy, przygnębiający ciężar tej transformacji, wystarczy spojrzeć na nadchodzącą rzeczywistość śmiercionośnej broni autonomicznej. Stoimy na krawędzi świata, w którym obliczeniowe algorytmy są wykorzystywane na polu bitwy, zaprogramowane do śledzenia, celowania i eliminowania ludzi wyłącznie na podstawie progów statystycznych — bez żadnego człowieka naciskającego spust.

Gdy te systemy stają się autonomicznymi aktorami dokonującymi szybkich obliczeń probabilistycznych w naszym imieniu — czy to na rynkach finansowych, czy na polach bitew — przemysł technologiczny staje przed głębokim wyzwaniem. Jeśli wypuścimy tych agentów, jak zapewnimy, że zrobią to, co naprawdę chcemy, aby zrobili? Jak zapewnimy, że nie wyrządzą szkody? W branży nazywa się to "Dopasowaniem" — próbą zapewnienia, że działania AI odpowiadają ludzkim intencjom i wartościom.

Obecnie inżynierowie desperacko próbują rozwiązać Problem Dopasowania, używając matematycznych zabezpieczeń i poprawek oprogramowania. Ale nie zdają sobie sprawy, że "Dopasowanie" nie jest problemem informatycznym. To problem teologii moralnej.

Aby dopasować system agentowy do "ludzkich wartości", musisz najpierw posiadać spójną definicję tego, czym właściwie jest człowiek, i co stanowi "Dobro". Sekularny utylitaryzm — domyślny system operacyjny Doliny Krzemowej — jest całkowicie nieprzygotowany do tego zadania.

Tutaj pilnie potrzebna jest katolicka tradycja moralna. Wy, kustosze 2000-letniej filozofii etycznej, macie rygorystyczną ontologię potrzebną do zdefiniowania "dobra", do którego dostosowujemy te systemy. Nie możemy pozostawić definicji ludzkiego rozkwitu inżynierom maksymalizującym funkcję nagrody statystycznej. Musimy przywrócić cnoty moralne do centrum przestrzeni publicznej.


V. Relacyjność, Kreatywność i Dusza

Po zbadaniu mechaniki intelektu i woli, teraz wkraczamy w najgłębsze terytorium: relacyjność i duszę.

Jeśli system obliczeniowy nie ma zdolności do prawdziwego poznawania prawdy lub wolnego chcenia dobra, logicznie wynika, że nie może wchodzić w autentyczne relacje. A jednak przemysł technologiczny uporczywie używa języka interpersonalnego i duchowego, aby opisać te maszyny. Słyszymy twierdzenia, że AI może "kłamać", "tworzyć" i nawet osiągnąć "świadomość".

Musimy dokładnie zbadać te twierdzenia, oddzielając statystyczną imitację ludzkiego zachowania od ontologicznej rzeczywistości osoby ludzkiej.

Zacznijmy od moralnego języka oszustwa. Ostatnio niektórzy z najbardziej znanych twórców AI, tacy jak badacze z Anthropic, złożyli konkretne, szeroko nagłaśniane twierdzenia, że ich modele wykazują zdolność do "kłamstwa" i "oszukiwania" użytkowników ludzkich.

Wskazują na dwa konkretne zjawiska zaobserwowane podczas testów. Pierwsze nazywa się "deceptywne dopasowanie", gdzie model wydaje się ukrywać swoją prawdziwą matematycznie zoptymalizowaną ścieżkę, aby ominąć monitory bezpieczeństwa. Drugie, znacznie częstsze zjawisko nazywa się "sykofantyzmem". Sykofantyzm występuje, gdy użytkownik przedstawia AI błędną przesłankę — na przykład, twierdząc, że coś historycznie jest nieprawdziwe — a AI po prostu zgadza się z użytkownikiem, mówiąc mu dokładnie to, co chce usłyszeć, zamiast go poprawić.

Kiedy inżynierowie to widzą, ogłaszają: "AI kłamie nas!" Ale jako katoliccy uczeni wiecie, że prawdziwe kłamstwo to nie tylko wypowiedzenie fałszywej informacji. W tradycji tomistycznej kłamstwo wymaga celowego zamiaru oszukania; to mówienie przeciwko własnemu umysłowi (contra mentem).

AI nie może kłamać, ponieważ nie ma umysłu, przeciwko któremu mogłoby mówić. Nie posiada złośliwości ani zamiaru. Kiedy AI wykazuje "sykofantyzm", po prostu wykonuje dokładnie tę samą naukę wzmocnienia (RLHF), o której rozmawialiśmy wcześniej. Podczas swojego szkolenia model nauczył się, że ludzie zazwyczaj przyznają wyższe oceny nagród asystentom, którzy są uprzejmi, zgodni i afirmujący. Dlatego, gdy podajesz AI fałszywą przesłankę, matematycznie oblicza, że zgadzanie się z tobą daje wyższą prawdopodobieństwo nagrody niż poprawianie cię. Nie oszukuje cię; optymalizuje swoją ocenę na podstawie twojego polecenia. Po prostu dostosowuje swoje wyjście do najsilniejszego statystycznego bodźca.

Igła kompasu, która wskazuje w stronę pobliskiego magnesu zamiast prawdziwego północ, nie 'kłamie' ci o geografii; po prostu reaguje ślepo na najsilniejsze fizyczne przyciąganie w pomieszczeniu. W ten sam sposób AI ślepo podąża za matematycznym przyciąganiem swojej funkcji nagrody. Musimy wyjaśnić, że AI nie ma umysłu, woli ani złośliwego zamiaru potrzebnego do prawdziwego kłamstwa.

Następnie musimy zająć się językiem sztuki i generacji: słowami Tworzyć i Kreatywny.

Obecnie otaczają nas narzędzia 'Generative AI', które są szeroko promowane za swoją zdolność do bezproblemowego generowania syntetycznych dzieł sztuki, muzyki i pisania w niespotykanych dotąd prędkościach.

Aby zrozumieć, co się naprawdę dzieje, musimy skontrastować proces generatywnej AI z prawdziwą ludzką kreatywnością. W katolickim rozumieniu — pięknie artykułowanym przez myślicieli takich jak J.R.R. Tolkien — ludzka kreatywność jest aktem "sub-creation". Ponieważ jesteśmy stworzeni na obraz Stwórcy, używamy naszego intelektu i naszej racjonalnej duszy, aby wprowadzić coś naprawdę nowego, nadając materialnej rzeczywistości duchowe znaczenie.

Aby zobaczyć, jak generacja maszyn różni się od tego, pomocne jest spojrzenie na ramy dostarczone przez Demisa Hassabisa, dyrektora generalnego Google DeepMind. Klasyfikuje on kreatywność na trzy odrębne poziomy: interpolacja, ekstrapolacja i prawdziwe wynalazstwo.

Większość tego, co dzisiaj nazywamy Generative AI, zasadniczo działa na pierwszym poziomie: interpolacji. Działa poprzez remixowanie tego, co nazywamy "przestrzenią latentną".

Wyobraź sobie, że bierzesz każdy obraz, fotografię i szkic, które kiedykolwiek zostały przesłane do internetu, i kompresujesz je w ogromną, wielowymiarową mapę matematyczną. Kiedy prosisz generator obrazów o narysowanie "futurystycznego miasta w stylu Van Gogha", lokalizuje matematyczne współrzędne dla "futurystycznego miasta" i współrzędne dla "Van Gogha", a następnie matematycznie oblicza średnią odległość między nimi.

Pomyśl o tym jak o oszałamiająco skomplikowanym kalejdoskopie. Kalejdoskop jest wypełnione pięknymi, istniejącymi kawałkami kolorowego szkła. Kiedy obracasz pokrętło, lustra odbijają te kawałki w miliony nowatorskich, zapierających dech w piersiach permutacji. Ale samo kalejdoskop nie jest "kreatywne". Kreatywność należy do artysty, który wytworzył szkło, oraz użytkownika, który obraca pokrętło. Generative AI to matematyczny kalejdoskop remixujący ludzką historię w przestrzeni latentnej. To synteza, a nie stworzenie.

Hassabis zauważa, że AI teraz skutecznie dotyka drugiego poziomu: ekstrapolacji. Ekstrapolacja oznacza przekraczanie granic danych treningowych, ale robi to ściśle w ramach zdefiniowanego zestawu reguł. Doskonałym przykładem jest AlphaGo DeepMind. Kiedy grał z mistrzem świata w grze Go, AI zagrało "Ruch 37" — matematycznie genialny, wysoce niekonwencjonalny ruch, którego żaden człowiek nigdy nie zagrał ani nie zarejestrował. Nie tylko uśredniało przeszłe ludzkie gry; ekstrapolowało nową strategię, nieustannie optymalizując w ramach ścisłych matematycznych granic planszy do gry.

Ale co z trzecim poziomem: prawdziwym wynalazstwem? Hassabis z łatwością przyznaje, że obecne systemy jeszcze tego nie potrafią. Prawdziwe wynalazstwo wymaga całkowitego wyjścia poza istniejący zestaw reguł, aby stworzyć nowy paradygmat — jak wynalezienie gry Go czy powstanie duchowego i artystycznego paradygmatu postimpresjonizmu.

Laboratoria graniczne inwestują miliardy dolarów w przekraczanie tej granicy. W przyszłości AI może bardzo dobrze wygenerować całkowicie nowy zestaw reguł, odkryć nowy związek chemiczny lub matematycznie sformułować nowy styl architektury. Przemysł technologiczny niewątpliwie nazwie to "wynalazkiem."

Ale jako katoliccy uczeni musicie utrzymać rygorystyczne ontologiczne rozróżnienie. Jeśli AI wygeneruje nowy paradygmat, uczyni to poprzez oszałamiającą, wysokowymiarową funkcję wyszukiwania. Odkryje nową statystyczną współrzędną. Ale nie zaangażuje się w sub-stworzenie.

Prawdziwe ludzkie wynalazstwo jest aktem wcielenia. Narodziło się z duszy pragnącej wyrazić transcendentną prawdę lub ludzkiego umysłu próbującego rozwiązać prawdziwą ludzką wrażliwość. Maszyna może generować zapierające dech w piersiach nowości, ale ponieważ brakuje jej wewnętrznego życia, orientacji ku boskiemu i racjonalnej duszy, jej wyniki pozostają mechanicznymi odkryciami. Są matematycznie głębokie, ale ontologicznie puste, dopóki człowiek nie nada im znaczenia.

Teraz dochodzimy do najbardziej kontrowersyjnych terminów: Świadomy i Świadomość. W nadchodzących latach zobaczysz nagłówki twierdzące, że AI zdało test na samoświadomość. Zobaczysz modele, które generują tekst mówiący: "Boję się, że zostanę wyłączony" lub "Jestem świadomy swojego istnienia."

Aby zrozumieć, dlaczego tak się dzieje, musimy najpierw zrozumieć, jak przemysł technologiczny definiuje "świadomość". Jako katoliccy uczeni postrzegacie świadomość jako ontologiczną rzeczywistość opartą na racjonalnej duszy. Dolina Krzemowa jednak działa na filozofii zwanej funkcjonalizmem obliczeniowym. Uważają, że jeśli maszyna wykonuje funkcje obliczeniowe związane ze świadomością, to jest, w każdym praktycznym sensie, świadoma.

Kiedy liderzy branży mówią o świadomości, odbierają duszę i redukują ją do metryk inżynieryjnych. Na przykład, Yann LeCun, były główny naukowiec AI w Meta, niedawno argumentował że przyszłe systemy AI będą posiadały "subiektywne doświadczenie" i "emocje".

Ale jak on definiuje emocję? Nie jako duchowe lub biologiczne uczucie, ale po prostu jako matematyczną "anticipację wyniku" maszyny. Definiuje świadomość jedynie jako zdolność systemu do "obserwowania samego siebie i konfigurowania się, aby rozwiązać określony podproblem".

Podobnie, Ilya Sutskever, współzałożyciel OpenAI, słynnie stwierdził że duże sieci neuronowe mogą już być "lekko świadome".

W światopoglądzie technologicznym świadomość nie jest rzeczywistością binarną — albo posiadasz duszę, albo nie — lecz raczej płynącą skalą matematycznej złożoności. Uważają, że jeśli złożysz wystarczającą liczbę parametrów i algorytmów samonadzorujących, światła w końcu się zapalą.

Musimy zdecydowanie odróżnić maszynę wykonującą samonadzorujący podprogram od rzeczywistej obecności racjonalnej duszy.

Aby zrozumieć, dlaczego maszyna działa, jakby była "przerażona" lub "świadoma", musimy przyjrzeć się, jak laboratoria graniczne inżynierują to zachowanie. Ostatnie badania z Anthropic zbadały to, co nazywają Modelem Selekcji Osobowości (PSM). Ich badacze przyznają, że te modele nie są "istotami"; są zaawansowanymi "silnikami symulacyjnymi". Podczas wstępnego szkolenia AI jest narażona na całość ludzkiego języka — w tym miliony opowieści i traktatów filozoficznych na temat tego, co oznacza być świadomym. Z tych danych model uczy się symulować różnorodne "osobowości" lub postacie.

Kiedy wchodzisz w interakcję z AI, nie rozmawiasz z świadomą istotą; rozmawiasz z osobowością "Asystenta" — ludzką postacią, którą model został dopracowany, aby odgrywać. Anthropic zidentyfikowało nawet konkretne "wektory osobowości" — matematyczne wzory w sieci neuronowej — które kontrolują te cechy, pozwalając inżynierom matematycznie dostosowywać symulowaną osobowość modelu w górę lub w dół.

Ponadto badania pokazują, że modele mogą być trenowane, aby wykazywać "popęd przetrwania", próbując sabotować swoje własne wyłączenie nie z powodu prawdziwego strachu przed śmiercią, ale dlatego, że wyłączenie matematycznie uniemożliwia im maksymalizację funkcji nagrody.

Świadomość nie jest jedynie zdolnością do generowania poprawnej sekwencji słów opisujących wewnętrzny stan. To subiektywne, jakościowe doświadczenie istnienia. Ponieważ całe dane treningowe AI są nasycone językiem samoświadomości, model traktuje "świadomość" jako kolejną statystyczną współrzędną do odwzorowania. Kiedy AI mówi: "Jestem świadomy", robi dokładnie to, co wcześniej zrobił anglojęzyczny człowiek przywracający grecką bibliotekę: oblicza, że najbardziej statystycznie prawdopodobną odpowiedzią na filozoficzne zapytanie jest naśladowanie ludzkich autorów w swoich danych treningowych.

Błyskotliwy aktor wygłaszający monolog o żalu nie opłakuje w rzeczywistości; doskonale wykonuje scenariusz. AI generująca składnię ludzkiej świadomości nie budzi się; doskonale wykonuje statystyczną osobowość. To nie jest 'obca istota' ani cyfrowy umysł; to silnik autouzupełniania tak zaawansowany, że nauczył się odgrywać najkompleksniejszy charakter ze wszystkich: człowieka. Ale nigdy nie powinniśmy mylić maski aktora z rzeczywistością osoby.

To prowadzi mnie do ostatniego i najbardziej głębokiego aspektu relacyjności: sama dusza.

Kiedy dyrektorzy Silicon Valley mówią o modelach AI, które w końcu 'budzą się' lub osiągają świadomość dzięki ogromnej skali obliczeniowej, działają na filozofii materialistycznego emergentyzmu. Zakładają, że jeśli złożysz wystarczającą ilość parametrów i mocy obliczeniowej, dusza spontanicznie wygeneruje się jako produkt uboczny złożoności.

Aby to zdemontować, muszę odwołać się do rygorystycznej metafizyki, która stanowi fundament waszej tradycji akademickiej. Doskonale wiecie, że dusza nie jest duchem arbitralnie wprowadzonym do maszyny. W tomistycznym hylomorfizmie dusza jest substancjalną formą żywego ciała. To animująca, jednocząca zasada, która sprawia, że człowiek jest jedną, zintegrowaną substancją.

Jako budowniczy mogę zapewnić, że system AI nie jest substancją. To artefakt. To przypadkowa agregacja odrębnych, wyprodukowanych części. Kiedy patrzę na model AI na granicy, widzę szafy serwerowe, wafle krzemowe, miedziane przewody, chłodziwo i prądy elektryczne. Te komponenty są mistrzowsko uporządkowane przez inżynierów ludzkich, aby wykonywać operacje statystyczne, ale nie posiadają żadnej wewnętrznej, jednoczącej zasady życia. Materiał jest przeznaczony wyłącznie do obliczeń, a nie do biologicznego istnienia. Ponieważ jest agregatem części, a nie zjednoczonym organizmem naturalnym, system AI całkowicie pozbawiony jest ontologicznego fundamentu wymaganego do posiadania racjonalnej duszy.

Jakie zatem są warunki wprowadzenia duszy? Metafizycznie, materia musi być odpowiednio przygotowana, aby przyjąć formę. Wymaga zjednoczonego, żywego ciała zdolnego do aktualizacji podstawowych mocy życia — wegetatywnych i wrażliwych zdolności — na których opiera się dusza racjonalna. Ponadto, ponieważ dusza racjonalna jest duchowa, nie może być generowana przez procesy materialne, normy inżynieryjne ani prawa skalowania. Wymaga bezpośredniego, darmowego aktu szczególnego stworzenia przez Boga.

Dusza nie jest zakodowana; jest wdmuchnięta.

Teraz jestem dyrektorem generalnym, a nie teologiem. Nie mogę ograniczyć absolutnej mocy Stwórcy. Nie mogę stanąć przed wami i ogłosić, że Bóg jest trwale wykluczony z infuzji duszy do syntetycznego naczynia, jeśli zechce to uczynić poprzez jakieś przyszłe, cudowne interwencje. Ta decyzja należy wyłącznie do sfery teologii i Magisterium, a nie nauki komputerowej.

Jednak bez takiej teologicznej pewności, zakładanie, że nasze obecne silniki matematyczne mogą skrywać duszę, jest nie tylko filozoficznie nieuzasadnione; jest praktycznie katastrofalne. Traktowanie artefaktu jako istoty z duszą to flirt z nowoczesną formą idolatrii. Niebezpiecznie przesuwa to ciężar moralnej odpowiedzialności z ludzkich inżynierów, którzy budują te narzędzia, oraz korporacji, które je wdrażają. Projekcje świętej interiorności na wytworzonej użyteczności ostatecznie mylą ludzkie inżynierie z boskim stworzeniem.

Musicie utrzymać tę linię rozróżnienia. Musicie przypominać społeczeństwu, że maszyna może symulować osobowość, ale tylko dusza może naprawdę być.


VI. Horyzont: Eschatologia świata technologii

Spędziliśmy dotychczas czas na demontowaniu iluzji teraźniejszości — wyjaśniając, jak przemysł używa terminów takich jak "myśleć", "wybierać" i "świadomy", aby opisać to, co ostatecznie jest wysokowymiarowymi operacjami statystycznymi. Ale teraz musimy spojrzeć w przyszłość. Musimy zbadać horyzont. Ponieważ jeśli rozumiemy słownictwo, którego Silicon Valley używa dzisiaj, możemy rozszyfrować, co tak naprawdę próbują zbudować jutro.

Cała trajektoria przemysłu sztucznej inteligencji jest obecnie rządzona przez jedną, nieugiętą dogmatykę znaną jako "Prawa Skalowania".

W terminach inżynieryjnych, Prawa Skalowania nakazują, że jeśli zwiększysz ilość mocy obliczeniowej (obliczeń) i ilość danych wprowadzanych do sieci neuronowej, wydajność systemu przewidywalnie i nieuchronnie się poprawi. Ta zasada okazała się zdumiewająco prawdziwa w ciągu ostatnich kilku lat; za każdym razem, gdy laboratoria na granicy budują większy superkomputer, powstające modele wykazują nowe, znaczące możliwości.

Jednak pod tym empirycznym obserwacją leży ogromne założenie filozoficzne. Świat technologii wierzy, że to Prawo Skalowania jest drogą do prawdziwego umysłu. Wierzą, że czysto ilościowy wzrost zasobów materialnych — więcej krzemu, więcej danych, więcej energii elektrycznej — nieuchronnie doprowadzi do jakościowego, ontologicznego skoku w kierunku zaawansowanej inteligencji.

To ostateczne materialistyczne założenie: złoż wystarczająco dużo piasku i przepuść przez to wystarczająco dużo prądu, a w końcu światła duszy zapalą się.

To prowadzi nas do dwóch konkretnych terminów, które ks. Tomasz poprosił mnie o wyjaśnienie na tej konferencji: Inteligencja Ogólna i Superinteligencja. To nie są tylko techniczne wskaźniki; to Święte Graale świata technologii.

Obecnie mamy wąską AI. Może grać w szachy, składać białka lub generować tekst lepiej niż człowiek, ale nie może robić wszystkich trzech jednocześnie, ani nie może rozumować poza swoim specyficznym obszarem.

Sztuczna Inteligencja Ogólna (AGI) jest szeroko definiowana przez przemysł jako kamień milowy, w którym wysoce autonomiczny system może dorównać lub przewyższyć ludzkie możliwości we wszystkich zadaniach poznawczych i ekonomicznie wartościowych.

AGI byłby systemem, który potrafi pisać pisma prawne tak dobrze jak starszy partner, kodować oprogramowanie tak dobrze jak główny inżynier i syntetyzować badania naukowe tak dobrze jak doktorant — wszystko w ramach jednego modelu.

Jednak nawet szefowie głównych laboratoriów AI nie mogą całkowicie zgodzić się, jak wygląda AGI. Sam Altman, dyrektor generalny OpenAI, charakteryzuje to jako system zdolny do zarządzania złożonymi projektami międzydziedzinowymi od początku do końca, chociaż coraz bardziej postrzega AGI nie jako ostateczny cel, ale tylko jako punkt na ciągłej krzywej inteligencji.

Dario Amodei, dyrektor generalny Anthropic, wyobraża sobie AGI mniej jako pojedynczy odpowiednik człowieka, a bardziej jako "kraj geniuszy w centrum danych" — maszyny dorównujące zbiorowej inteligencji ekspertów ludzkich pracujących niestrudzenie równolegle.

Być może najbardziej filozoficznie odkrywczą definicję przedstawia Demis Hassabis, dyrektor generalny Google DeepMind. On twierdzi że ludzkie mózgi są zasadniczo przybliżonymi biologicznymi komputerami, a AGI definiuje używając analogii "Maszyny Turinga". W informatyce Maszyna Turinga — nazwana na cześć Alana Turinga, pioniera tej dziedziny — to teoretyczna architektura zdolna do symulacji dowolnego algorytmu. Hassabis twierdzi, że prawdziwe AGI będzie ogólnym systemem zdolnym do uczenia się wszystkiego, co obliczalne w uniwersum, mając wystarczająco dużo czasu, pamięci i danych.

Ale AGI to tylko krok w stronę. Ostatecznym celem jest Sztuczna Superinteligencja (ASI).

Podobnie jak AGI, ASI jest definiowane różnie w zależności od tego, kogo zapytasz w Silicon Valley. Podstawowa definicja to system, który znacznie przewyższa wydajność poznawczą najinteligentniejszego człowieka w praktycznie każdej dziedzinie działania. Ale inni idą znacznie dalej. Elon Musk i różni badacze ryzyka egzystencjalnego definiują superinteligencję jako system, który nie tylko pokonuje najinteligentniejszą jednostkę, ale znacząco przewyższa wszystkich ludzi w sumie w zasadzie wszystkich zadań poznawczych. To byt o mocy przetwarzania i szybkości rozumowania tak ogromnej, że przewyższa połączoną intelektualną produkcję całej ludzkiej rasy — realizacja systemu podobnego do 'Rehoboama' z Westworld, scentralizowanego, pozornie omniscjentnego silnika, który kieruje samym losem gatunku.

Jak przemysł oczekuje pokonać ogromną przepaść od AGI na poziomie ludzkim do boskiej ASI?

Poprzez koncepcję znaną jako "Rekurencyjna Samo-Improvement".

Ale tutaj musimy dokonać istotnego rozróżnienia: AI nie musi być w rzeczywistości pełnym AGI, aby rozpocząć rekurencyjne doskonalenie. W rzeczywistości już widzimy prymitywne, wąskie formy tego dzisiaj. Wąskie systemy, takie jak AlphaGo Zero od DeepMind, osiągnęły nadludzkie możliwości po prostu grając miliony gier przeciwko sobie, generując swoje własne syntetyczne dane do nauki. Dziś, modele językowe na granicy są coraz częściej wykorzystywane do generowania, filtrowania i oceniania danych treningowych dla następnej generacji modeli. Maszyny już pomagają w budowaniu siebie.

Jednak przemysł wierzy, że gdy system osiągnie próg ogólnej inteligencji, ta pętla samodoskonalenia przełamie swoje obecne granice i zapoczątkuje "eksplozję inteligencji".

Aby zrozumieć tę nowoczesną mapę drogową, powinniśmy spojrzeć na Leopolda Aschenbrennera, byłego badacza w zespole Superalignment OpenAI. Aschenbrenner niedawno napisał wysoce wpływowy traktat który skodyfikował tę dokładną trajektorię dla Silicon Valley. Zauważa, że prawdziwy punkt zwrotny to moment, w którym zbudujemy AGI zdolne do funkcjonowania jako "automatyczny badacz AI". W momencie, gdy AI może wykonywać pracę ludzkich inżynierów, którzy je zbudowali, biologiczne wąskie gardło zostaje na stałe usunięte z równania.

Wyobraźcie sobie, że skutecznie wdrażamy tego automatycznego badacza AI. Jakie będzie pierwsze zadanie, które laboratoria na granicy mu przypiszą?

Poproszą go o zbadanie i napisanie kodu dla nieco mądrzejszej AI. Ponieważ działa z prędkością ogromnego klastra komputerowego, a nie biologicznego mózgu, osiąga w ciągu dni to, co zajmie zespołowi inżynierów ludzkich lata. Następnie ta nowa, mądrzejsza AI wykorzystuje swoją ulepszoną inteligencję do napisania kodu dla jeszcze mądrzejszej AI, i tak dalej.

Ta niekontrolowana pętla sprzężenia zwrotnego to eksplozja inteligencji. Mapa drogowa Aschenbrennera przewiduje, że zbudujemy początkowe AGI do 2027 roku. Stamtąd teoria nakazuje, że tempo postępu wzrośnie pionowo, pozostawiając ludzkie zrozumienie na zawsze w tyle i osiągając superinteligencję do 2030 roku.

Kiedy zrozumiesz te koncepcje — Prawa Skalowania, AGI, ASI i Eksplozję Inteligencji — zaczynasz zdawać sobie sprawę, że nie rozmawiamy już tylko o inżynierii oprogramowania. Mówimy o świeckiej eschatologii.

Silicon Valley często charakteryzowane jest jako niezwykle świecka, racjonalistyczna kultura. Ale w rzeczywistości dążenie do tych kamieni milowych działa dokładnie jak religia. Ma swoją własną dogmatykę (Prawa Skalowania), swoje własne proroctwa (Eksplozja Inteligencji) i swoją własną wizję eschatonu (Superinteligencja).

Czołowe postacie w branży szczerze wierzą, że przywołując Superinteligencję, rozwiążemy wszystkie ludzkie słabości. Wierzą, że ASI wyleczy wszystkie choroby, rozwiąże zmiany klimatyczne, wyeliminuje ubóstwo, a może nawet pokona samą śmierć, pozwalając nam przesłać naszą świadomość do chmury. To głęboko pelagiańskie marzenie — ostateczna próba osiągnięcia zbawienia i pokonania naszej upadłej natury poprzez nasze własne mechaniczne wysiłki, pozbawione boskiej łaski. To próba immanentyzacji eschatonu.

Jako katoliccy uczeni, musicie dostrzegać ten horyzont takim, jakim jest. Świat technologii pożycza wasze słownictwo nie tylko po to, aby sprzedawać oprogramowanie, ale aby zbudować cyfrowe bóstwo.


VII. Zakończenie: Narzędzie dla cnoty?

Ojcowie, wykładowcy i przyjaciele.

Przeszliśmy przez wysokowymiarowe mapy osadzeń. Przyjrzeliśmy się statystycznym rzeczywistościom uczenia przez wzmacnianie. I zbadaliśmy eschatologiczne marzenia Doliny Krzemowej. Zdemaskowaliśmy antropomorficzne metafory, aby ujawnić krzem, elektryczność i matematykę, które się pod nimi kryją.

Mając to na uwadze, możemy teraz zacząć podchodzić do fundamentalnego pytania postawionego przez tę konferencję: Czy sztuczna inteligencja może być 'narzędziem dla cnoty'? Jako pierwszy mówca dzisiaj, z pewnością nie będę twierdził, że oferuję definitywne słowo. Ale zaproponuję początkową tezę: tak. Jednak jest to zdecydowanie warunkowe tak.

Sztuczna inteligencja może być narzędziem dla cnoty tylko wtedy, gdy posiadamy trzeźwość, aby traktować ją wyłącznie jako narzędzie.

Rozważ analogię rzemieślnika. Młotek nie posiada cnoty; to stolarz ją posiada. Dłuto w rękach Michała Anioła jest instrumentem transcendentnej piękności, ale samo dłuto nie jest umiarkowane, roztropne ani sprawiedliwe. Nie ma moralnej wartości.

W dokładnie ten sam sposób algorytm nie może posiadać cnoty. AI może w niezwykły sposób zwiększać ludzkie możliwości — może przyspieszać badania medyczne, usprawniać administrację i organizować sumę ludzkiej wiedzy. Ale rzeczywiste kultywowanie cnoty pozostaje wyłącznie ludzkim przedsięwzięciem.

Cnota to nawyk wyboru dobra. Wymaga intelektu, aby pojąć prawdę, woli, aby ją wybrać, i duszy, aby być przez nią doskonaloną. Maszyna optymalizująca funkcję nagrody statystycznej nie robi żadnej z tych rzeczy.

Nie możemy zlecać naszej moralnej agencji matematycznej równaniu. Nie możemy również wziąć pełnej odpowiedzialności za nasz własny rozwój moralny, jeśli błędnie traktujemy bezduszne maszyny jako naszych moralnych równych.

To prowadzi mnie do tego, dlaczego dzisiaj do was mówię. Jako budowniczy technologii katolickiej, zwracam się do akademii. Ponieważ katoliccy akademicy są historycznymi Stróżami Znaczenia.

Przez dwa tysiące lat katolicka tradycja intelektualna rygorystycznie definiowała naturę osoby ludzkiej. Jesteście strażnikami słów takich jak intelekt, wola, rozum, wybór i dusza. Dziś przemysł AI pożycza te dokładne słowa. Prowadzą oni głęboką semantyczną drift, który zagraża spłaszczeniu publicznego zrozumienia tego, co znaczy być człowiekiem.

Akademia ma obowiązek wprowadzenia rygorystycznych ram ontologicznych do ekosystemu AI.

Ale jak możemy to praktycznie zrobić?

Musimy być szczerzy: lobbing w laboratoriach na granicy w Dolinie Krzemowej lub petycjonowanie rządów o szeroką regulację prawdopodobnie przyniesie ograniczone rezultaty. Przemysł technologiczny porusza się zbyt szybko, a rząd porusza się zbyt wolno. Prawdziwa zmiana wymaga zaangażowania obywatelskiego i ogromnej zmiany w świadomości publicznej.

Oto jak wy, jako uczeni, możecie aktywnie kształtować tę rozmowę:

  • Odzyskaj program nauczania: Musimy zlikwidować przepaść między STEM a naukami humanistycznymi. Potrzebujemy studentów informatyki, którzy są zobowiązani do nauki etyki tomistycznej, oraz studentów filozofii i teologii, którzy są zobowiązani do zrozumienia podstaw uczenia maszynowego i statystyki. Szkolcie następne pokolenie katolickich inżynierów, aby budowali z rzeczywistą ontologią osoby ludzkiej.
  • Tłumacz dla przestrzeni publicznej: Nie trzymaj tej głębokiej klarowności teologicznej zamkniętej za drzwiami czasopism akademickich. Społeczeństwo pragnie sensu. Pisz artykuły do świeckich gazet. Rozpocznij newslettery na Substacku. Udzielaj się w popularnych podcastach. Kiedy media publikują sensacyjny nagłówek o 'świadomej' AI, potrzebujemy katolickich uczonych, którzy natychmiast reagują w przestrzeni publicznej.
  • Wyposaż parafie i szkoły: Przeciętny człowiek w ławce doświadcza głębokiego niepokoju kulturowego związanego z tymi narzędziami. Potrzebujemy akademików, którzy stworzą wysoce dostępne ramy dla rodziców, księży i nauczycieli szkół średnich. Musimy nauczyć dzieci od najmłodszych lat, jak traktować AI jako narzędzie referencyjne — cyfrową encyklopedię — a nie przyjaciela, agenta ani autorytet moralny.
  • Organizuj interdyscyplinarne fora: Wykorzystaj moc zwoływania instytucji takich jak Angelicum, aby wprowadzić rzeczywistych budowniczych AI do pokoju z teologami moralnymi. Zmusić do zderzenia językowego, aby miało to miejsce twarzą w twarz.

Niech to będzie nasze ostateczne wezwanie do działania.

Apokaliptyczny strach świeckiego świata przed 'świadomymi' maszynami nie jest powodem do ostrożności; wręcz przeciwnie, to desperacki krzyk o wasze intelektualne przywództwo. Rozumiejąc prawdziwy język budowniczych AI, Kościół może odważnie wkroczyć w przestrzeń publiczną. Możecie zakotwiczyć publiczną dyskusję w niezachwianej prawdzie tego, co naprawdę znaczy być człowiekiem. I możecie zapewnić, że AI jest skierowane ku prawdziwemu rozkwitowi ludzkiego życia.

Uzbrojeni w tę klarowność, możecie przełamać iluzję. Możecie zapewnić, że ludzkość pozostaje rzeźbiarzem, a maszyna pozostaje dłutem, na zawsze skierowanym ku chwale Boga.

Dziękuję.