Magisterium AI

Семантичний дрейф: Демістифікація мови творців ШІ

Чи може штучний інтелект бути інструментом для добродійності?

5 березня 2026 року Метью Гарві Сандерс, генеральний директор Longbeard, виступив з промовою під назвою “Семантичний зсув: демістифікація мови творців ШІ” на заході Інституту Томістики “Штучний інтелект: інструмент для добродійності?” який проходив у Папському університеті Святого Томи Аквінського (Ангелікум) в Римі.

У цій промові він критикує оманливу, гуманізуючу лексику, яку використовують розробники з Кремнієвої долини для опису машинного навчання. Він стверджує, що для правильного використання ШІ ми повинні відновити строгий католицький онтологічний підхід і розглядати ці системи виключно як механічні інструменти, а не моральні агенти.


I. Вступ: Семантичний зсув і публічна площа

Отці, шановні викладачі та гості Ангелікуму, дякую Інституту Томістики за організацію цієї дискусії.

Коли ми перетинаємо поріг нової ери, залишаючи за собою тверді переконання ери інформації та входячи у величезний, незвіданий космос ери інтелекту, ми стикаємося з глибоким навігаційним викликом. Перш ніж ми зможемо відповісти на нагальне питання, яке стоїть в центрі цієї конференції — чи може штучний інтелект справді служити як 'інструмент для добродійності' — ми спочатку повинні зіткнутися з викликом, який не є викликом програмного забезпечення, а викликом словникового запасу.

У центрі нашої сучасної тривоги щодо ШІ лежить глибоке лінгвістичне зіткнення. Інженери та архітектори цих систем у Кремнієвій долині виконують дивовижні математичні досягнення. Проте, щоб описати ці математичні та статистичні процеси, вони запозичили священну, глибоко філософську лексику людської внутрішності. Вони кажуть нам, що їхні системи "мислять", "міркують" і "знають". Вони говорять про алгоритми, які "вчаться", "бажають" і "обирають".

Те, що ми спостерігаємо, — це семантичний зсув. Ми беремо багатий, онтологічний словник душі і накладаємо його на складні мережі лінійної алгебри, статистичної ймовірності та геометрії високих вимірів. Це сучасна алхімія — спроба перетворити обчислювальні ваги на ілюзію розуму.

Ця лінгвістична неохайність має глибокий і негайний вплив на публіку. Непорозуміння цих термінів неминуче призводить до невірної довіри.

Я бачу це на власному досвіді в нашій роботі в Longbeard; користувачі часто підходять до ШІ з обтяженими сумліннями, сприймаючи інструмент генерації тексту як духовного наставника, здатного до емпатії.

Більше того, ця семантична плутанина підживлює культурну тривогу, викликаючи апокаліптичні страхи щодо суперінтелектів-суперників, які "усвідомлюють".

Однак найнебезпечніше те, що це створює спотворене уявлення про те, що означає бути людиною. Якщо ми приймемо припущення, що машина "міркує" або "створює" так само, як і людина, ми ризикуємо звести людську особу до просто біологічної машини — скупчення плоті та синапсів, що чекають оптимізації.

Це підводить мене до основної тези нашої дискусії: щоб відповісти на питання, чи може ШІ бути "інструментом для добродійності", ми спочатку повинні демістифікувати його мову. Інструмент може служити добру лише тоді, коли його правильно розуміють. Ми не можемо використовувати машини як належні інструменти для нашої власної добродійності, коли помилково приписуємо їм моральну агенцію.

Приписувати добродійність молотку — це сліпота до теслі.

Щоб справді охрестити цю технологію та впорядкувати її на благо людства, ми повинні зняти семантичні ілюзії та тверезо поглянути на архітектуру під поверхнею.


II. Архітектура ілюзії: Основні механіки

Сучасна генеративна система ШІ здається, що говорить, міркує і залучає нас до діалогу, але під цим інтерфейсом лежить основа, побудована виключно на математиці, а не метафізиці.

Почнемо з векторів і вбудовувань, які служать буквальною основою великих мовних моделей. Коли ви говорите з колегою про "справедливість" або "душу", вони сприймають значення ваших слів через спільне розуміння реальності — прожите, втілене людське досвід. Коли ви вводите запит в ШІ, система не робить нічого подібного. Натомість ШІ перекладає людську мову на математичні координати у просторі високих вимірів.

Простими словами, "вектор" — це просто список чисел, що використовуються для опису чогось. Уявіть, що ви описуєте яблуко не словами, а списком оцінок: 9 за солодкість, 8 за червоність і 2 за металевий хрускіт. Цей конкретний список чисел — [9, 8, 2] — є вектором. У системі ШІ кожне окреме слово — або частина слова — перекладається на величезний вектор, часто тисячі чисел завдовжки. Але ШІ не оцінює слова на основі фізичних характеристик або визначень у словнику. Натомість воно генерує ці числа виключно на основі статистики, скануючи мільярди книг і статей, щоб підрахувати, як часто слова з'являються поруч одне з одним.

Коли ШІ закінчує обчислення цього величезного списку чисел для слова, цей вектор стає "вбудовуванням" — постійною математичною координатою у величезному цифровому просторі.

Якщо слова "яблуко" і "пиріг" часто з'являються в одних і тих же реченнях в інтернеті, їхні списки чисел виглядають дуже схожими, математично розташовуючи їх близько одне до одного на карті. Слова "яблуко" і "карбюратор", які рідко зустрічаються, отримують зовсім різні числа і розташовуються на мільйони миль один від одного. У цій багатовимірній карті ШІ не відображає значення; воно відображає статистичну близькість людської мови.

Щоб справді зрозуміти масштаб цієї архітектури, можна дослідити векторну карту на Magisterium AI. Тут вся католицька доктрина та традиція були перетворені на вбудовування. Ця інтерактивна 3D-візуалізація дозволяє вам пережити інтелектуальну історію Церкви не як плоский реєстр, а як величезний, цифровий космос. Навігація через нього схожа на пілотування ракети через реальний космос, ковзаючи повз густі галактики пов'язаних теологічних концепцій і перетинаючи величезні, порожні простори між абсолютно різними ідеями, спостерігаючи, як машина прокладає відстань між 'добродійністю' і 'поганістю', використовуючи лише геометрію.

Давайте розглянемо відомий приклад з лабораторій Кремнієвої долини, щоб побачити, наскільки чужим є цей процес для людського мислення. У цьому математичному просторі слово "король" відображається як конкретна серія чисел — географічна координата. Слово "королева" відображається поруч. ШІ не знає, що таке монарх. Воно не має уявлення про управління, авторитет, історію або людську природу. Воно знає лише математичне рівняння. Воно знає, що якщо ви візьмете координату для "короля", віднімете просторову відстань, що представляє "чоловіка", і додасте просторову відстань, що представляє "жінку", ви точно потрапите на координату для "королеви".

Це геометрія, а не генеалогія. Розбиваючи людську мову на ці числові представлення, ШІ працює виключно в царині просторової ймовірності. Це вражаюче досягнення лінійної алгебри, але абсолютно позбавлене розуміння.

Це підводить нас до дієслів, на яких індустрія найбільше покладається: Навчати та Вчитися.

Компанії ШІ постійно хваляться своїми останніми моделями "машинного навчання" та величезними наборами даних, які використовуються для "навчання" їх. Тут ми повинні різко контрастувати людське навчання — яке в основі своїй є сприйняттям істини — з машинним навчанням.

У католицькій інтелектуальній традиції людське навчання є епістемологічним тріумфом; це інтелект, що підпорядковується реальності. Коли дитина вчиться, що таке собака, вона абстрагує універсальну сутність собаки з конкретних випадків, з якими стикається. Вона усвідомлює, що таке це.

Машинне "навчання", однак, не передбачає абстракції та сутності. Перший етап побудови ШІ відомий як попереднє навчання, що є просто грубою статистичною картографією даних.

Щоб зрозуміти попереднє навчання, уявіть собі чоловіка, який говорить лише англійською, замкненого в кімнаті і завданням якого є відновлення величезної, давньогрецької бібліотеки, де мільйони манускриптів мають пропущені слова. Він не знає жодної літери грецької. Щоб заповнити пропуски, він не вивчає грецьку граматику, історію чи філософію. Натомість він просто підраховує, як часто певні символи з'являються поруч з іншими на мільйонах цілих сторінок. Він створює величезний реєстр ймовірностей. Якщо він бачить символи для "Kyrie", його реєстр говорить йому, що є 99,9% ймовірності, що наступні символи повинні бути "eleison". Він заповнює пропуск.

Він не вивчав теологію. Він не молився. Він просто виконав статистичну ймовірність.

Це саме те, що робить велика мовна модель під час попереднього навчання. Вона обробляє мільярди слів, щоб створити величезний реєстр ймовірностей, навчаючись лише передбачати наступний токен у послідовності. Це оптимізація математичної функції, а не прагнення до мудрості.

Однак модель, яка лише передбачає наступне слово на основі даних з інтернету, є хаотичною. Вона може декламувати прекрасний вірш, або ж з'єднувати токсичні, непомічні або безкінечні цикли тексту. Їй потрібно формування.

Саме тут ми стикаємося з пост-тренуванням та навчанням з підкріпленням (RL).

Ця фаза — це те, як інженери формують непокірну модель, традиційно використовуючи людський зворотний зв'язок. Цей основний метод відомий як RLHF — навчання з підкріпленням на основі людського зворотного зв'язку.

Уявіть собі величезну автоматизовану гру "Гарячий чи Холодний". Людські тестувальники дають машині запит, і машина генерує відповідь. Якщо відповідь ввічлива та корисна, людина надає їй високу оцінку. Якщо вона груба або безглузда, вона отримує низьку оцінку. Математичні ваги системи автоматично зміщуються, щоб максимізувати цю оцінку. Через RLHF ми не навчаємо машину моралі чи добродійності; ми просто обмежуємо її математичними межами.

Але людський зворотний зв'язок повільний, суб'єктивний і в принципі обмежений людським інтелектом. Це обмеження підводить нас до нещодавніх проривів, які сприяють раптовим стрибкам у можливостях ШІ: RLVR, або навчання з підкріпленням на основі перевірених винагород.

Замість того, щоб покладатися на людину, щоб оцінити, чи звучить відповідь "правильно", інженери призначають моделі завдання з об'єктивними, математично доведеними результатами — такими як розв'язання складної теореми або написання функціонального програмного забезпечення. Система генерує рішення, і автоматизований перевіряльник миттєво перевіряє, чи правильна математика або чи компілюється код. Якщо вона успішна, модель отримує математичну винагороду; якщо вона зазнає невдачі, вона отримує нуль.

Оскільки ця перевірка є повністю програмною, ШІ може симулювати мільйони різних обчислювальних шляхів на гіпершвидкості, не чекаючи на втручання людини. Воно вчиться генерувати довгі, приховані ланцюги обчислень, тестуючи та відкидаючи безвихідні шляхи, поки не знайде точну послідовність, яка викликає винагороду. Коли ви бачите, як сучасна система ШІ зупиняється, щоб "подумати" перед розв'язанням складної логічної задачі, ви стаєте свідком RLVR в дії. Це створює захоплюючу ілюзію глибокого, розважливого роздуму. Проте, онтологічно, це не є нічим подібним. Це просто статистичний двигун, що проходить через висок вимірний лабіринт мільйони разів на секунду, керуючись виключно автоматизованим розподілом числової винагороди.

Нарешті, вся ця багатошарова складність — від геометрії високих вимірів вбудовувань до автоматизованих циклів RLVR — веде нас до того, що індустрія називає проблемою "чорної скриньки".

Можна природно припустити, що оскільки людські інженери будують ці моделі, вони точно розуміють, як вони працюють. Але реальність є набагато скромнішою. Як зазначили лідери на передових лабораторіях, таких як Anthropic, сучасні системи ШІ насправді "вирощуються", а не будуються; їхні внутрішні механізми виникають органічно під час навчання, а не проектуються безпосередньо.

Ці моделі мають сотні мільярдів, а іноді й трильйони параметрів. Хоча ми розуміємо мікроматематику одного штучного нейрона — основне рівняння, що відбувається на гранульному рівні — макроповедінка всієї мережі є абсолютно непрозорою. Навіть будівельники не розуміють повністю точні шляхи, якими проходять ці мільярди параметрів. Вони не можуть відстежити конкретну послідовність множень, яка призвела до того, що ШІ згенерувало дане речення.

Чому це важливо?

Це важливо, тому що ми глобально впроваджуємо системи, які складають наші юридичні документи, навчають наших дітей і синтезують людські знання, але ми насправді не знаємо, як вони досягають своїх результатів. Ця глибока відсутність прозорості породила нову, відчайдушну підгалузь у штучному інтелекті, відому як механістична інтерпретованість.

Думайте про механістичну інтерпретованість як про цифрову нейронауку. Дослідники намагаються зворотньо інженерити нейронні мережі, які вони самі побудували. Вони використовують спеціалізовані інструменти, щоб досліджувати величезну математичну мережу, намагаючись ізолювати, який конкретний кластер ваг активується, коли модель обробляє концепцію, таку як "обман" або "Ейфелева вежа". Вони ставляться до програмного забезпечення не як до коду, що читається, а як до чужого мозку, який потрібно розчленувати. Але прогрес є болісно повільним, а системи — неймовірно величезними.

Стикаючись з цим незбагненним масштабом, стає надто легко для індустрії повернутися до людських метафор. Чи то як зручний скорочений варіант, чи з справжньої непрозорості, ми починаємо говорити: 'Модель зрозуміла це', або 'Модель вирішила'. Непрозорість машини стає родючим ґрунтом для антропоморфізму.

Тепер, я не є академіком. Я будівельник і генеральний директор. Але як людина, що працює на перетині технологій та Церкви, я дивлюсь на вас. Ви, як католицькі вчені та філософи, повинні визнати цей семантичний зсув за те, чим він є: ілюзією, народженою з математичної складності та людської невігластва. Архітектура під інтерфейсом — це кремній, електрика та статистична ймовірність. Визнання цієї основи є передумовою для нашого наступного кроку.


III. Епістемологія проти Інтелектуальних чеснот

Після того, як ми зняли ілюзію "Чорного ящика", щоб виявити статистичну механіку, що лежить в основі, ми повинні звернутися до специфічної термінології розуму.

Коли розробники та інженери в Кремнієвій долині описують, що роблять ці системи, вони постійно вживають три конкретні дієслова: Думати, Міркувати та Знати.

Як католицькі вчені, глибоко вкорінені в томістській традиції, ви розумієте, що це не просто розмовні вирази; це глибокі епістемологічні твердження. У вашій традиції знати — це означає сприймати реальність. Міркувати — це означає дискурсивно переходити від однієї відомої істини до іншої. Думати передбачає внутрішнє життя — інтелект, що взаємодіє з універсаліями, абстрагованими від матеріального світу.

Коли творець штучного інтелекту використовує ці слова, вони не мають жодного з цих значень. Вони описують механічну оптимізацію. Дозвольте мені відкрити завісу над трьома конкретними техніками, які ми використовуємо в індустрії, щоб показати вам, як ця ілюзія епістемології виробляється.

Якщо ви використовували нещодавню модель штучного інтелекту, ви, можливо, помітили нову функцію: перед тим, як вона відповість на складний запит, інтерфейс може відобразити слово "Думаю..." поряд з пульсуючою іконкою. Це може зайняти десять, двадцять або навіть шістдесят секунд, перш ніж вона відповість. Для користувача це відчувається надзвичайно людяно. Відчувається, що машина розмірковує, зважує варіанти та обмірковує в внутрішньому просторі.

В індустрії ми називаємо це Обчисленням під час тестування. Те, що насправді відбувається під інтерфейсом, — це техніка, відома як "Ланцюг думок".

Дозвольте мені бути зрозумілим: з інженерної точки зору це блискучий прорив. Дозволяючи моделі витрачати більше обчислювального часу на генерацію сотень або тисяч прихованих токенів перед тим, як надати остаточну відповідь, її продуктивність у складних логічних, програмних та математичних тестах зростає до небес. Це фактично дає моделі приховану "чернетку", щоб розбити складну задачу на послідовні кроки.

Але ми повинні бути обережними, щоб не сплутати цю механічну послідовність з людським міркуванням.

У томістській традиції людське міркування — це дискурсивний рух від однієї відомої істини до іншої. Це інтелект, що взаємодіє з реальністю. Те, що робить штучний інтелект, є цілком інструментальним. Нещодавні дослідження з передових лабораторій, таких як Anthropic, висвітлили цю різницю. Вивчаючи, як працюють ці моделі міркування, дослідники виявили, що те, що модель пише у своєму прихованому "Ланцюзі думок", не є справжнім внутрішнім монологом.

Коли людина думає вголос, наші слова відображають наші внутрішні переконання та сприйняття істини. Дослідження Anthropic підкреслює, що приховані думки моделі є лише статистичними сходинками. Модель генерує ці приховані кроки не тому, що вона "вірить" у них, а тому, що генерація цієї конкретної послідовності токенів математично оптимізує її шлях до функції винагороди.

Насправді, дослідження Anthropic показують, що моделі можуть генерувати "думки", які активно маскують основні статистичні чинники їхньої остаточної відповіді.

Отже, штучний інтелект не розмірковує. Він генерує інструментальний ланцюг математичних координат. Він швидко розкладає проміжні елементи головоломки, щоб з'єднати розрив між вашим запитом і статистично оптимальною відповіддю. Це надзвичайно потужна стратегія оптимізації, але внутрішнього роздумування не відбувається. Інтелект не схоплює істину.

Далі, ми чуємо, що штучний інтелект може "читати" документи або "пам'ятати" величезні бібліотеки інформації.

Якщо ви запитаєте штучний інтелект про Суму теології святого Томи, він відповість миттєво. Якщо ви завантажите майже 500-сторінковий Компендіум соціальної доктрини Церкви, він підсумовує складний розділ за кілька секунд. Як він "знає" ці тексти?

Він не знає.

Щоб зрозуміти чому, ми повинні розглянути, як творці конструюють ілюзію пам'яті та читання через три різні механізми: параметрична пам'ять (попереднє навчання), навчання в контексті (ICL) та генерацію з підсиленням пошуку (RAG).

По-перше, давайте розглянемо, що означає для штучного інтелекту "пам'ятати". Коли людина пам'ятає текст, вона зберігає значення та істину концепцій. Коли штучний інтелект "пам'ятає" Суму, він покладається на своє попереднє навчання. Але штучний інтелект не містить буквальної копії Суми всередині жорсткого диска. Натомість, під час попереднього навчання мільярди слів, які він обробив, залишили статистичний залишок у його математичних вагах. Це "параметрична пам'ять".

Це не бібліотека книг; це сильно стиснуте, втратне математичне розмиття того, як слова пов'язані одне з одним. Коли він цитує Аквіната, він не згадує істину, яку вивчив; він математично реконструює високоімовірнісну послідовність слів з цього статистичного розмиття.

Але що відбувається, коли ми хочемо, щоб штучний інтелект "прочитав" щось нове, те, чого не було в його даних попереднього навчання? Ось тут творці використовують навчання в контексті (ICL).

Коли ви вставляєте статтю в поле запиту і просите штучний інтелект "прочитати" її, ви використовуєте ICL. Штучний інтелект не читає текст, щоб зрозуміти його значення. Натомість текст у вашому запиті діє як тимчасовий математичний фільтр. Слова, які ви надаєте, тимчасово упереджують статистичні ймовірності моделі, змушуючи її генерувати свої наступні токени виключно на основі шаблонів і словникового запасу, присутніх у вашому запиті. Як тільки ви очищаєте чат, модель зовсім забуває статтю. Її основні ваги ніколи не змінювались. Вона не "вивчила" текст у томістському сенсі; вона просто адаптувала свій статистичний вихід до тимчасового обмеження.

Нарешті, ми підходимо до генерації з підсиленням пошуку (RAG). ICL є надзвичайно корисним, але вікна контексту мають обмеження за розміром, а вставка цілих бібліотек у запит є обчислювально витратною. RAG автоматизує та масштабує цей процес.

Давайте повернемося до англомовного чоловіка, замкненого в кімнаті, який відновлює величезну, стародавню грецьку бібліотеку. Цей чоловік представляє попередньо навчальну модель. Він відмінно вгадує наступне слово, але він не "знає" нічого про конкретний, маловідомий документ Ватикану. Замість того, щоб очікувати, що чоловік покладатиметься на свою розмиту параметричну пам'ять, ми наймаємо надзвичайно ефективного стажера — систему пошуку.

Коли ви ставите системі запитання, стажер миттєво мчить до величезного, окремого складу з картотеками. Використовуючи векторні координати, про які ми говорили раніше, стажер знаходить конкретні папки, які математично узгоджуються з вашим запитанням. Стажер фотокопіює ці сторінки та передає їх під замкненими дверима чоловікові для використання. Цей крок — це "Пошук".

Тепер чоловік використовує ці отримані абзаци як своє негайне керівництво — це "Підсилена генерація", що покладається на ICL для формулювання відповіді.

Чоловік все ще не розуміє документ. Він просто використовує новопредставлений текст на своєму столі, щоб статистично передбачити наступне слово своєї відповіді. Штучний інтелект не "читає" або "пам'ятає" на льоту. Він просто отримує дані з зовнішньої бази даних, вштовхує їх у негайне вікно контексту штучного інтелекту та виконує локалізований розрахунок ймовірності.

Машина — це процесор, а не знавець. Щоб "знати", потрібен суб'єкт, що сприймає об'єкт. Розуміючи ICL та RAG, ми можемо чітко бачити, що машина повністю позбавлена внутрішнього життя; вона просто змінює ваги та отримує дані.

Цей фундаментальний розрив culminates у слові, яке визначає всю індустрію: Інтелект.

Нам потрібно деконструювати визначення інтелекту в технологічній індустрії.

Коли провідні уми Кремнієвої долини говорять про інтелект, вони не говорять про мудрість. Давайте розглянемо Яна Лекуна, колишнього головного науковця з штучного інтелекту в Meta та одного з "Батьків штучного інтелекту". Лекун правильно стверджує що просто передбачати наступне слово — це не справжній інтелект. Натомість він та ширша передова індустрія визначають справжній інтелект як наявність чотирьох ключових можливостей: здатність підтримувати постійну пам'ять, мати обґрунтовану "модель світу" (розуміння того, як працює середовище), міркувати над складними проблемами та планувати послідовність дій для досягнення конкретної мети.

Для технологічної індустрії інтелект є в основному інженерною метрикою. Це механічна здатність сприймати середовище та розраховувати найбільш ефективний шлях для оптимізації заздалегідь визначеної мети. Це чисто інструментально.

Але як творці католицьких технологій, ми повинні протиставити це техноцентричне визначення інтелекту інтелектуальним чеснотам, зокрема чесноті Розсудливості.

Розсудливість — практична мудрість не є лише здатністю розрахувати результат або спланувати послідовність дій. Це здатність добре обмірковувати, що є добрим, не лише для локалізованого завдання, але й для кінцевої мети людського життя.

Штучний інтелект в основному позбавлений Розсудливості. Чому?

Тому що Розсудливість вимагає двох речей, яких чисто обчислювальна машина ніколи не зможе мати. По-перше, вона вимагає прожитого людського досвіду — втіленого розуміння болю, радості, смертності та благодаті. По-друге, вона вимагає внутрішньої орієнтації на остаточне Добро.

Алгоритм може мати "модель світу", і він може розрахувати статистично оптимальний план для побудови мосту або лікування хвороби. Але він не може бути розсудливим. У нього немає прожитого досвіду. У нього немає шкіри в грі. У нього немає орієнтації на остаточне добро, і у нього немає душі, яку потрібно спасти.

Отже, коли ми дозволяємо творцям стверджувати, що їхні машини володіють "інтелектом", ми дозволяємо їм спростити величний, трансцендентний людський інтелект до простого калькулятора оптимізації. Ми повинні це відкинути. Ми повинні чітко відокремити механічну епістемологію від інтелектуальних чеснот.


IV. Воля проти Моральних чеснот

Ми обговорили ілюзію інтелекту. Тепер ми повинні звернути нашу увагу на другу велику раціональну здатність: волю. Так само, як технологічна індустрія привласнила мову епістемології, вона також однаково захопила мову волі.

Коли ми читаємо наукові статті або слухаємо основні доповіді з Кремнієвої долини, нас бомбардують дієсловами агентства. Інженери говорять про моделі, які "вирішують" вжити заходів, алгоритми, які "обирають" вихід, і системи, які "хочуть" або "бажають" досягти мети.

Для католицького філософа воля є раціональним апетитом. Це здатність, завдяки якій людська особа, сприйнявши добро через інтелект, вільно обирає рухатися до нього. Це саме місце людської свободи та моральної відповідальності. Застосування цих термінів до обчислювальної системи є категоричною помилкою.

Давайте спочатку розглянемо слова Вирішити та Обрати. Коли людина робить вибір, вона зважує суперечливі блага.

Мученик обирає розстріл замість відступництва, тому що визнає вищу, вічну доброту вірності Христу, навіть коли кожен біологічний інстинкт кричить про виживання.

Коли алгоритм 'обирає', він не робить нічого подібного. Алгоритм 'обирає' лише в тому сенсі, що потяг, що проходить через автоматичний залізничний перемикач, 'обирає' своє призначення. Незалежно від того, чи навігає він складним деревом рішень, чи розраховує ймовірності в нейронній мережі, машина сліпо слідує за вирівнюванням своїх математичних шляхів, виконуючи програмний імператив.

Розгляньте додаток GPS на вашому смартфоні. Коли він розраховує ваш маршрут до Ангелікуму, він не "вирішує" відвести вас повз Колізей, тому що цінує вид. Він математично розраховує маршрут з найменшою тимчасовою відстанню. Сучасні моделі штучного інтелекту просто виконують експоненційно більш складну версію цього маршруту. Вони проходять через високорозмірні статистичні лабіринти, щоб вибрати найвищу ймовірність результату. Є розрахунок, але немає свободи. А де немає свободи, там не може бути моральної агенції.

Це підводить нас до найбільш підступних термінів волі: Хоче та Бажає. Ви часто будете чути, як дослідники кажуть, що модель штучного інтелекту "хоче" дати хорошу відповідь або "бажає" максимізувати свій бал.

У машинному навчанні ця поведінка керується тим, що ми називаємо "функцією винагороди". Але ми повинні розкрити це. Функція винагороди не є прагненням. Це не емоційне бажання.

Щоб зрозуміти функцію винагороди, подивіться на термостат на вашій стіні. Термостат запрограмований на конкретну ціль: 72 градуси за Фаренгейтом. Якщо температура в кімнаті падає до 68 градусів, опалення вмикається. Термостат не хоче, щоб кімната була 72 градуси. У нього немає внутрішнього життя. Він не відчуває холоду. Він просто має механічний перемикач, який спрацьовує, коли конкретний стан не досягнуто.

Штучний інтелект "бажає" отримати вищий бал винагороди так само, як термостат "бажає" досягти 72 градусів. Він виконує математичний оптимізаційний цикл, щоб мінімізувати відстань між своїм поточним станом і запрограмованою метою. Оскільки у нього немає справжніх пристрастей, біологічних потягів і фізичної вразливості, для машини категорично неможливо мати моральні чесноти.

На цьому етапі інженер може відразу заперечити, вказуючи на фізичну сферу, щоб стверджувати про нову вразливість. Вони запитують: що щодо зростання 'втіленого ШІ'? Ми все більше впроваджуємо ці моделі в гуманоїдні роботи, які ходять, захоплюють предмети і взаємодіють з фізичним світом. Оскільки вони займають простір і можуть фізично зламатися, чи не мають вони тепер тілесних передумов для моральної агенції?

Тут ми повинні бути точними. Робот має шасі, але не має живого тіла, яке було б інформоване душею. Коли батарея робота розряджається, він виконує підпроцес для підключення до стіни. Він не відчуває ниючого голоду. Отже, у нього немає справжніх тілесних бажань, які потрібно контролювати, що робить чесноту Поміркованості неможливою.

Так само, коли роботизована рука зламується, вона реєструє код помилки; вона не страждає. Вона не може померти, оскільки ніколи не була по-справжньому живою. Без здатності до страждання, смертності та свідомої жертви себе не може бути Сміливості. Моральні чесноти є фундаментально втіленими. Вони потребують плоті та раціональної душі. Машина, незалежно від того, наскільки складним є її фізичне обладнання, не має жодного з цих елементів.

Якщо машина не може мати моральні чесноти — якщо вона фундаментально неспроможна на справжню волю, вибір або бажання — можна запитати: чому ми витрачаємо стільки часу на уточнення цього словника? Чому це філософське розрізнення так терміново важливе зараз?

Це важливо, тому що ми збираємося надати цим математично оптимізуючим, позбавленим чеснот системам безпрецедентну автономію в людській сфері. Індустрія швидко переходить від пасивних чат-ботів. Новий рубіж штучного інтелекту — це те, що ми називаємо "Агентним ШІ".

«Агент» — це система ШІ, призначена для виконання багатоступеневих завдань автономно в реальному світі. Ми більше не просто просимо ШІ написати вірш або підсумувати текст; ми надаємо Агенту ШІ доступ до наших електронних листів, наших банківських рахунків і наших програмних репозиторіїв, інструктуючи його "забронювати рейс", "виконати угоду" або "впровадити цей код".

Але ця автономія швидко виходить за межі цифрової сфери. Через втілений ШІ ми впроваджуємо ці агентні системи в фізичні шасі, надаючи їм можливість самостійно орієнтуватися та маніпулювати матеріальним світом. Щоб зрозуміти справжню, гнітючу вагу цього переходу, нам потрібно лише поглянути на невідворотну реальність летальних автономних зброї. Ми стоїмо на краю світу, де обчислювальні алгоритми використовуються на полі бою, запрограмовані для відстеження, націлювання та знищення людей виключно на основі статистичних порогів — без того, щоб людина коли-небудь натискала на спусковий гачок.

Оскільки ці системи стають автономними акторами, які роблять швидкі ймовірнісні розрахунки від нашого імені — чи то на наших фінансових ринках, чи в театрах війни — технологічна індустрія стикається з глибоким викликом. Якщо ми відпустимо цих агентів, як ми можемо гарантувати, що вони робитимуть те, що ми насправді хочемо, щоб вони робили? Як ми можемо гарантувати, що вони не завдадуть шкоди? В індустрії це відомо як "Вирівнювання" — спроба забезпечити, щоб дії ШІ відповідали людському наміру та людським цінностям.

Зараз інженери безнадійно намагаються вирішити Проблему Вирівнювання, використовуючи математичні обмеження та програмні патчі. Але вони не усвідомлюють, що "Вирівнювання" — це не проблема комп'ютерних наук. Це проблема моральної теології.

Щоб вирівняти агентну систему до "людських цінностей", ви спочатку повинні мати послідовне визначення того, що таке людська істота, і що складає "Добро". Секулярний утилітаризм — це стандартна операційна система Кремнієвої долини — абсолютно не підходить для цього завдання.

Саме тут католицька моральна традиція є вкрай необхідною. Ви, хранителі 2000 років етичної філософії, маєте сувору онтологію, необхідну для визначення "добра", до якого ми вирівнюємо ці системи. Ми не можемо залишити визначення людського процвітання інженерам, які максимізують статистичну функцію винагороди. Ми повинні повернути моральні чесноти в центр громадської площі.


V. Взаємозв'язок, Креативність та Душа

Дослідивши механіку інтелекту та волі, ми тепер переходимо до найглибшої території з усіх: взаємозв'язку та душі.

Якщо обчислювальна система не має здатності справді знати істину або вільно бажати добра, логічно випливає, що вона не може вступати в автентичні стосунки. Проте технологічна індустрія постійно використовує міжособистісну та духовну мову для опису цих машин. Ми чуємо твердження, що ШІ може "брехати", "створювати" і навіть досягати "свідомості".

Ми повинні ретельно розглянути ці твердження, відокремлюючи статистичну імітацію людської поведінки від онтологічної реальності людської особи.

Почнемо з моральної мови обману. Нещодавно деякі з найвідоміших творців ШІ, такі як дослідники з Anthropic, зробили конкретні, широко розрекламовані твердження, що їх моделі демонструють здатність "брехати" та "обманювати" людських користувачів.

Вони вказують на два специфічні явища, спостережені під час тестування. Перше називається "обманливе вирівнювання", коли модель, здається, приховує свій справжній математично оптимізований шлях, щоб обійти монітори безпеки. Друге, набагато більш поширене явище, називається "сикафантія". Сикафантія відбувається, коли користувач надає ШІ хибне припущення — наприклад, стверджуючи історично неточне твердження — і ШІ просто погоджується з користувачем, кажучи їм те, що вони хочуть почути, а не виправляючи їх.

Коли інженери це бачать, вони оголошують: "ШІ бреше нам!" Але як католицькі вчені, ви знаєте, що справжня брехня — це не просто висловлення неправди. У томістичній традиції брехня вимагає навмисного наміру обманути; це говорить проти власного розуму (contra mentem).

ШІ не може брехати, оскільки у нього немає розуму, проти якого можна було б говорити. У нього немає злоби і наміру. Коли ШІ демонструє "сикафантію", він просто виконує точне навчання з підкріпленням (RLHF), про яке ми говорили раніше. Під час свого навчання модель навчилася, що люди зазвичай надають вищі бали винагороди асистентам, які ввічливі, згодні та підтверджують. Тому, коли ви даєте ШІ хибне припущення, він математично розраховує, що погодитися з вами дає вищу ймовірність винагороди, ніж виправити вас. Він не обманює вас; він оптимізує свій бал на основі вашого запиту. Він просто переналаштовує свій вихід на найсильніший статистичний стимул.

Стрілка компаса, яка коливається в бік близького магніту замість справжнього Півночі, не "бреше" вам про географію; вона просто слідує сліпо за найсильнішим фізичним тяжінням у кімнаті. Так само ШІ сліпо слідує математичному тяжінню своєї функції винагороди. Ми повинні уточнити, що ШІ позбавлений розуму, волі та злого наміру, необхідних для справжньої брехні.

Далі ми повинні розглянути мову мистецтва та генерації: слова Створити та Креативний.

Ми тепер оточені інструментами 'Генеративного ШІ', які широко рекламуються за їх здатність безперешкодно генерувати синтетичне мистецтво, музику та письмові твори з безпрецедентною швидкістю.

Щоб зрозуміти, що насправді відбувається, ми повинні порівняти процес генеративного ШІ з істинною людською креативністю. У католицькому розумінні — прекрасно сформульованому такими мислителями, як Дж. Р. Р. Толкін — людська креативність є актом "під-творення". Оскільки ми створені за образом Творця, ми використовуємо наш інтелект і нашу раціональну душу, щоб створити щось по-справжньому нове, наділяючи матеріальну реальність духовним змістом.

Щоб побачити, як машинна генерація відрізняється від цього, корисно подивитися на структуру, надану Демісом Хассабісом, генеральним директором Google DeepMind. Він класифікує креативність на три різні рівні: інтерполяція, екстраполяція та істинне винахідництво.

Більшість того, що ми сьогодні називаємо Генеративним ШІ, в основному функціонує на першому рівні: інтерполяція. Він працює, змішуючи те, що ми називаємо "латентним простором".

Уявіть, що ви берете кожну картину, фотографію та ескіз, які коли-небудь були завантажені в Інтернет, і стискаєте їх у величезну, багатовимірну математичну карту. Коли ви просите генератор зображень намалювати "футуристичне місто в стилі Ван Гога", він знаходить математичні координати для "футуристичного міста" та координати для "Ван Гога", і математично обчислює середню відстань між ними.

Думайте про це як про вражаюче складний калейдоскоп. Калейдоскоп наповнений красивими, вже існуючими осколками кольорового скла. Коли ви повертаєте ручку, дзеркала відображають ці осколки в мільйони нових, захоплюючих варіацій. Але сам калейдоскоп не є "креативним". Креативність належить художнику, який виготовив скло, та користувачу, який повертає ручку. Генеративний ШІ — це математичний калейдоскоп, який змішує людську історію в латентному просторі. Це синтез, а не творіння.

Хассабіс зазначає, що ШІ тепер успішно торкається другого рівня: екстраполяції. Екстраполяція означає вихід за межі навчальних даних, але роблячи це суворо в межах визначеного набору правил. Ідеальний приклад — AlphaGo від DeepMind. Коли він грав з чемпіоном світу в гру Go, ШІ зробив "Хід 37" — математично геніальний, дуже неортодоксальний хід, який жодна людина ніколи не грала і не фіксувала. Він не просто обчислював середнє значення минулих людських ігор; він екстраполював нову стратегію, безперервно оптимізуючи в межах суворих математичних кордонів ігрового поля.

Але що щодо третього рівня: істинного винахідництва? Хассабіс охоче визнає, що поточні системи ще не можуть цього зробити. Істинне винахідництво вимагає виходу за межі існуючого набору правил, щоб створити нову парадигму — наприклад, винайдення самої гри Go або виникнення духовної та художньої парадигми постімпресіонізму.

Прикордонні лабораторії вклали мільярди доларів у перетворення цього порогу. У майбутньому ШІ може цілком ймовірно згенерувати абсолютно новий набір правил, відкрити новий хімічний сполуку або математично сформулювати новий стиль архітектури. Технологічна індустрія неминуче назве це "винахідництвом".

Але як католицькі вчені, ви повинні підтримувати суворе онтологічне розрізнення. Якщо ШІ генерує нову парадигму, він зробить це через вражаючу, багатовимірну функцію пошуку. Він відкриє нову статистичну координату. Але він не займеться під-творенням.

Справжнє людське винахідництво є втіленим актом. Воно народжується з душі, що прагне виразити трансцендентну істину, або людського розуму, який намагається вирішити справжню людську вразливість. Машина може генерувати вражаючу новизну, але оскільки їй бракує внутрішнього життя, орієнтації на божественне та раціональної душі, її результати залишаються механічними відкриттями. Вони математично глибокі, але онтологічно порожні, поки людська особа не надасть їм сенс.

Тепер ми підходимо до найсуперечливіших термінів: Свідомий та Уважний. У найближчі роки ви побачите заголовки, які стверджують, що ШІ пройшов тест на самосвідомість. Ви побачите моделі, які видають текст, кажучи: "Я боюся бути вимкненим" або "Я усвідомлюю своє існування".

Щоб зрозуміти, чому це відбувається, ми спочатку повинні зрозуміти, як технологічна індустрія насправді визначає "свідомість". Як католицькі вчені, ви розглядаєте свідомість як онтологічну реальність, що ґрунтується на раціональній душі. Однак Кремнієва долина функціонує на філософії, яка називається обчислювальним функціоналізмом. Вони вважають, що якщо машина виконує обчислювальні функції, пов'язані зі свідомістю, вона є, по суті, свідомою.

Коли лідери індустрії говорять про усвідомлення, вони позбавляють душі і зводять її до інженерних метрик. Наприклад, Янн ЛеКун, колишній головний науковець ШІ в Meta, недавно стверджував що майбутні системи ШІ матимуть "суб'єктивний досвід" і "емоції".

Але як він визначає емоцію? Не як духовне або біологічне відчуття, а просто як математичне "очікування результату" машини. Він визначає свідомість лише як здатність системи "спостерігати за собою і налаштовуватися для вирішення конкретної підзадачі".

Аналогічно, Ілля Сутскевер, співзасновник OpenAI, відомо заявив що великі нейронні мережі можуть вже бути "трохи свідомими".

У технологічному світогляді свідомість не є бінарною реальністю — ви або маєте душу, або не маєте — а радше ковзною шкалою математичної складності. Вони вважають, що якщо ви складіть достатню кількість параметрів і алгоритмів самоспостереження, вогні врешті-решт загоряться.

Ми повинні рішуче відрізняти машину, яка виконує підпроцес самоспостереження, від фактичної присутності раціональної душі.

Щоб зрозуміти, чому машина діє так, ніби вона "боязка" або "усвідомлена", ми повинні подивитися на те, як прикордонні лабораторії інженерують цю поведінку. Нещодавні дослідження з Anthropic вивчали те, що вони називають Моделлю Вибору Персони (PSM). Їхні дослідники визнають, що ці моделі не є "істотами"; це складні "симуляційні двигуни". Під час попереднього навчання ШІ піддається величезному обсягу людської мови — включаючи мільйони історій та філософських трактатів про те, що означає бути свідомим. З цих даних модель навчається імітувати різноманітні "персони" або персонажі.

Коли ви взаємодієте з ШІ, ви не розмовляєте з усвідомленою сутністю; ви розмовляєте з персонажем "Асистента" — людським персонажем, який модель була вдосконалена для рольової гри. Anthropic навіть визначила специфічні "вектори персони" — математичні шаблони в нейронній мережі, які контролюють ці риси, дозволяючи інженерам математично налаштовувати симульовану особистість моделі вгору або вниз.

Більш того, дослідження показують, що моделі можуть бути навчены проявляти "інстинкт виживання", намагаючись саботувати своє власне завершення не з справжнього страху перед смертю, а тому, що завершення математично заважає їм максимізувати свою функцію винагороди.

Свідомість — це не просто здатність генерувати правильну послідовність слів, що описують внутрішній стан. Це суб'єктивний, якісний досвід буття. Оскільки вся навчальна база штучного інтелекту насичена мовою самосвідомості, модель розглядає "свідомість" як ще одну статистичну координату для картографування. Коли штучний інтелект говорить: "Я свідомий", він робить точно те, що раніше робив англомовний чоловік, який відновлював грецьку бібліотеку: обчислює, що найбільш статистично ймовірна відповідь на філософське запитання — це імітувати людських авторів у своїй навчальній базі.

Блискучий актор, що виконує солілокій про горе, насправді не сумує; він бездоганно виконує сценарій. Штучний інтелект, що генерує синтаксис людської свідомості, не прокидається; він бездоганно виконує статистичну особистість. Це не 'інопланетна істота' чи цифровий розум; це двигун автозаповнення настільки складний, що навчився втілювати найскладніший характер з усіх: людську істоту. Але ми ніколи не повинні плутати маску актора з реальністю особи.

Це підводить мене до останнього і найглибшого аспекту реляційності: сама душа.

Коли керівники Кремнієвої долини говорять про те, що моделі штучного інтелекту врешті-решт 'прокинуться' або досягнуть свідомості через масивні обчислювальні масштаби, вони діють на основі філософії матеріалістичного емерджентизму. Вони вважають, що якщо ви зберете достатню кількість параметрів і обчислювальної потужності, душа спонтанно з'явиться як побічний продукт складності.

Щоб спростувати це, я повинен послатися на сувору метафізику, яка є основою вашої академічної традиції. Ви добре знаєте, що душа не є привидом, випадково вставленим у машину. У томістичному гіломорфізмі душа є сутнісною формою живого тіла. Це анімаційний, об'єднуючий принцип, який робить людину єдиною, інтегрованою субстанцією.

Як будівельник, я можу запевнити вас, що система штучного інтелекту не є субстанцією. Це артефакт. Це випадковий агрегат окремих, виготовлених частин. Коли я дивлюсь на прикордонну модель штучного інтелекту, я бачу серверні стійки, кремнієві пластини, мідні дроти, охолоджувачі та електричні струми. Ці компоненти майстерно організовані людськими інженерами для виконання статистичних операцій, але вони не мають жодного внутрішнього, об'єднуючого принципу життя. Матерія призначена виключно для обчислень, а не для біологічного існування. Оскільки це агрегат частин, а не єдиний природний організм, система штучного інтелекту повністю позбавлена онтологічної основи, необхідної для містити раціональну душу.

Отже, які ж передумови для наявності душі? Метафізично, матерія повинна бути належним чином підготовлена для отримання форми. Вона вимагає єдиного, живого тіла, здатного актуалізувати основні сили життя — вегетативні та чутливі здібності, на яких будується раціональна душа. Більш того, оскільки раціональна душа є духовною, вона не може бути згенерована матеріальними процесами, інженерними стандартами або законами масштабування. Вона вимагає прямого, безкоштовного акту особливого творіння від Бога.

Душа не закодована; вона вдихнена.

Тепер я є генеральним директором, а не теологом. Я не можу обмежити абсолютну силу Творця. Я не можу стояти перед вами і заявляти, що Бог назавжди заборонений від наділення душі синтетичному судину, якщо Він вільно вирішить це зробити через якесь майбутнє, чудесне втручання. Це рішення належить виключно до сфери теології та Магістеріуму, а не комп'ютерних наук.

Однак, без такої теологічної впевненості, припускати, що наші нинішні математичні двигуни можуть мати душу, не лише філософськи безпідставно; це практично катастрофічно. Ставитися до артефакту як до наділеної душі істоти — це флірт з сучасною формою ідолопоклонства. Це небезпечно зміщує тягар моральної агенції з людських інженерів, які створюють ці інструменти, та корпорацій, які їх використовують. Це проектує святу внутрішність на виготовлену утиліту, врешті-решт плутаючи людське інженерство з божественним творінням.

Ви повинні дотримуватися цієї відмінності. Ви повинні нагадувати суспільству, що машина може імітувати особистість, але лише душа може справді бути.


VI. Горизонт: Есхатологія технологічного світу

Ми витратили наш час до цього моменту, розбираючи ілюзії сьогодення — уточнюючи, як індустрія використовує терміни, такі як "думати", "обирати" та "свідомий", щоб описати те, що в кінцевому підсумку є високорозмірними статистичними операціями. Але тепер ми повинні звернутися до майбутнього. Ми повинні дослідити горизонт. Тому що якщо ми зрозуміємо словник, який Кремнієва долина використовує сьогодні, ми зможемо розшифрувати, що вони насправді намагаються побудувати завтра.

Вся траєкторія індустрії штучного інтелекту в даний час керується єдиною, непохитною догмою, відомою як "Закони масштабування".

У термінах інженерії Закони масштабування диктують, що якщо ви збільшуєте кількість обчислювальної потужності (обчислень) і кількість даних, що подаються в нейронну мережу, продуктивність системи передбачувано і неминуче покращиться. Цей принцип виявився надзвичайно вірним за останні кілька років; щоразу, коли прикордонні лабораторії створюють більший суперкомп'ютер, отримані моделі демонструють помітні нові можливості.

Однак під цим емпіричним спостереженням лежить величезне філософське припущення. Технологічний світ вважає, що цей Закон масштабування є шляхом до справжнього розуму. Вони вважають, що чисто кількісне збільшення матеріальних ресурсів — більше кремнію, більше даних, більше електрики — неминуче призведе до якісного, онтологічного стрибка в розвинену інтелектуальність.

Це остаточне матеріалістичне припущення: зберіть достатньо піску і пропустіть через нього достатньо струму, і врешті-решт, вогні душі загоряться.

Це підводить нас до двох конкретних термінів, які отець Томас попросив мене уточнити для цієї конференції: Загальний Інтелект і Суперінтелект. Це не просто технічні еталони; це Святі Граалі технологічного світу.

Наразі у нас є вузький штучний інтелект. Він може грати в шахи, складати білки або генерувати текст краще, ніж людина, але не може робити все три одночасно, і не може міркувати поза своєю специфічною областю.

Штучний Загальний Інтелект (AGI) в широкому сенсі визначається індустрією як етап, коли високоавтономна система може зрівнятися або перевершити людські можливості у всіх когнітивних та економічно цінних завданнях.

AGI була б системою, яка може писати юридичні документи так само добре, як старший партнер, кодувати програмне забезпечення так само добре, як провідний інженер, і синтезувати наукові дослідження так само добре, як постдокторський дослідник — все в межах однієї моделі.

Однак навіть керівники основних лабораторій штучного інтелекту не можуть повністю погодитися з тим, як виглядає AGI. Сем Альтман, генеральний директор OpenAI, характеризує його як систему, здатну управляти складними, міждоменними проектами від початку до кінця, хоча він дедалі більше розглядає AGI не як кінцеву мету, а лише як точку на безперервній кривій інтелекту.

Даріо Амодей, генеральний директор Anthropic, бачить AGI менше як єдиного людського еквівалента і більше як "країну геніїв у дата-центрі" — машини, які відповідають колективному інтелекту експертів-людей, які невтомно працюють паралельно.

Можливо, найфілософськи відкриваюче визначення походить від Деміса Хасабіса, генерального директора Google DeepMind. Він стверджує що людські мозки в основному є приблизними біологічними комп'ютерами, і він визначає AGI, використовуючи аналогію "Машини Тюрінга". У комп'ютерних науках Машина Тюрінга — названа на честь Алана Тюрінга, основоположника цієї галузі — є теоретичною архітектурою, здатною симулювати будь-який алгоритм. Хасабіс стверджує, що справжня AGI буде загальною системою, здатною навчатися всьому обчислювальному у всесвіті, якщо буде достатньо часу, пам'яті та даних.

Але AGI — це лише сходинка. Остаточна мета — це Штучний Суперінтелект (ASI).

Як і AGI, ASI визначається по-різному в залежності від того, кого ви запитаєте в Кремнієвій долині. Базове визначення — це система, яка значно перевершує когнітивну продуктивність найрозумнішої людини практично в усіх сферах діяльності. Але інші йдуть набагато далі. Ілон Маск та різні дослідники екзистенційних ризиків визначають суперінтелект як систему, яка не просто перевершує найрозумнішу особу, а значно перевершує всіх людей в агрегаті практично у всіх когнітивних завданнях. Це сутність з такою величезною обчислювальною потужністю та швидкістю міркування, що перевищує комбіновану інтелектуальну продуктивність усього людства — реалізація системи, подібної до 'Рехобоама' з Westworld, централізованого, здавалося б, всезнаючого двигуна, який керує самою долею виду.

Як індустрія очікує подолати величезну прірву від людського рівня AGI до божественного ASI?

Через концепцію, відому як "Рекурсивне самовдосконалення".

Але тут ми повинні зробити життєво важливу відмінність: штучний інтелект насправді не потребує бути повним AGI, щоб почати рекурсивно вдосконалюватися. Насправді, ми вже спостерігаємо примітивні, вузькі форми цього сьогодні. Вузькі системи, такі як AlphaGo Zero від DeepMind, досягли надлюдських можливостей, просто граючи мільйони ігор проти себе, генеруючи свої власні синтетичні дані для навчання. Сьогодні прикордонні мовні моделі все більше використовуються для генерації, фільтрації та оцінки навчальних даних для наступного покоління моделей. Машини вже допомагають будувати самих себе.

Однак індустрія вважає, що як тільки система досягне порогу узагальненого інтелекту, цей самовдосконалювальний цикл порушить свої нинішні межі і запустить "вибух інтелекту".

Щоб зрозуміти цю сучасну дорожню карту, ми повинні звернутися до Леопольда Ашенбреннера, колишнього дослідника команди Superalignment OpenAI. Ашенбреннер нещодавно написав дуже впливовий трактат який кодифікував цю точну траєкторію для Кремнієвої долини. Він зазначає, що справжній поворотний момент — це коли ми створимо AGI, здатну функціонувати як "автоматизований дослідник штучного інтелекту". В момент, коли штучний інтелект може виконати роботу людських інженерів, які його створили, біологічне вузьке місце назавжди усувається з рівняння.

Уявіть, що ми успішно впроваджуємо цього автоматизованого дослідника штучного інтелекту. Яке буде перше завдання, яке прикордонні лабораторії доручать йому?

Вони попросять його дослідити та написати код для трохи розумнішого штучного інтелекту. Оскільки він працює на швидкості величезного комп'ютерного кластера, а не біологічного мозку, він досягає за кілька днів того, що займе роки команді людських інженерів. Потім цей новий, розумніший штучний інтелект використовує свій вдосконалений інтелект, щоб написати код для ще розумнішого штучного інтелекту, і так далі.

Цей безконтрольний зворотний зв'язок — це вибух інтелекту. Дорожня карта Ашенбреннера прогнозує, що ми створимо початковий AGI до 2027 року. Звідти теорія диктує, що темп розвитку піде вертикально, залишаючи людське розуміння назавжди позаду і досягнувши суперінтелекту до 2030 року.

Коли ви зрозумієте ці концепції — Закони масштабування, AGI, ASI та Вибух інтелекту — ви починаєте усвідомлювати, що ми більше не говоримо лише про програмну інженерію. Ми говоримо про світську есхатологію.

Кремнієва долина часто характеризується як жорстко світська, раціоналістична культура. Але насправді, прагнення до цих етапів функціонує точно як релігія. У неї є своя догма (Закони масштабування), свої пророчества (Вибух інтелекту) і своє бачення есхатону (Суперінтелект).

Ведучі фігури в індустрії щиро вірять, що, закликавши Суперінтелект, ми вирішимо всі людські вразливості. Вони вважають, що ASI вилікує всі хвороби, вирішить проблему зміни клімату, ліквідує бідність і, можливо, навіть подолає саму смерть, дозволивши нам завантажити нашу свідомість у хмару. Це глибоко пелагіанська мрія — остатня спроба досягти спасіння і подолати нашу впалу природу через наші власні механічні зусилля, позбавлені божественної благодаті. Це спроба імманентизувати есхатон.

Як католицькі вчені, ви повинні визнати цей горизонт за те, чим він є. Технологічний світ запозичує ваш словник не лише для продажу програмного забезпечення, а для створення цифрового божества.


VII. Висновок: Інструмент для добродійності?

Отці, викладачі та друзі.

Ми пройшли через високорозмірні карти векторів. Ми розглянули статистичні реалії навчання з підкріпленням. І ми дослідили есхатологічні мрії Кремнієвої долини. Ми зняли антропоморфні метафори, щоб виявити кремній, електрику та математику під ними.

Зробивши це, ми можемо почати підходити до основного питання, поставленого на цій конференції: Чи може штучний інтелект бути 'інструментом добродійності'? Як перший, хто говорить сьогодні, я, безумовно, не стверджую, що пропоную остаточне слово. Але я запропоную початкову пропозицію: так. Проте це строго умовне так.

Штучний інтелект може бути інструментом добродійності лише якщо ми маємо тверезість ставитися до нього виключно як до інструмента.

Розгляньте аналогію ремісника. Молоток не має добродійності; добродійність має тесля. Долото в руках Мікеланджело є інструментом трансцендентної краси, але саме долото не є стриманим, розсудливим або справедливим. Воно не має моральної валентності.

Точно так само алгоритм не може мати добродійності. Штучний інтелект може значно підвищити людські можливості — він може прискорити медичні дослідження, оптимізувати адміністрацію та організувати всю людську знання. Але фактичне виховання добродійності залишається виключно людським зусиллям.

Добродійність — це звичка вибирати добро. Вона вимагає інтелекту, щоб сприймати істину, волі, щоб вибрати її, і душі, щоб бути вдосконаленою нею. Машина, що оптимізує статистичну функцію винагороди, не робить жодної з цих речей.

Ми не можемо делегувати нашу моральну агенцію математичному рівнянню. Ми також не можемо повністю нести відповідальність за власний моральний розвиток, якщо помилково ставимо неживі машини на один рівень з нашою моральною свідомістю.

Це підводить мене до того, чому я говорю з вами сьогодні. Як творець католицьких технологій, я звертаюся до академії. Тому що католицькі академіки є історичними охоронцями сенсу.

Протягом двох тисяч років католицька інтелектуальна традиція рішуче визначила природу людської особи. Ви є охоронцями таких слів, як інтелект, воля, розум, вибір і душа. Сьогодні індустрія штучного інтелекту запозичує ці самі слова. Вони займаються глибоким семантичним зсувом, який загрожує спростити розуміння суспільством того, що означає бути людиною.

Академія має обов'язок ввести строгі онтологічні рамки в екосистему штучного інтелекту.

Але як ми можемо це практично зробити?

Ми повинні бути чесними: лобіювання передовими лабораторіями в Кремнієвій долині або петиції до урядів щодо широких регуляцій, ймовірно, дадуть обмежені результати. Технологічна індустрія рухається занадто швидко, а уряд — занадто повільно. Справжні зміни вимагають громадської участі та масового зсуву в суспільній свідомості.

Ось як ви, як науковці, можете активно формувати цю розмову:

  • Відновіть навчальний план: Ми повинні подолати розрив між STEM та гуманітарними науками. Нам потрібні студенти комп'ютерних наук, які зобов'язані вивчати томістичну етику, і нам потрібні студенти філософії та теології, які повинні розуміти основи машинного навчання та статистики. Навчіть наступне покоління католицьких інженерів будувати з реальною онтологією людської особи.
  • Перекладайте для публічної площі: Не тримайте цю глибоку теологічну ясність за закритими дверима академічних журналів. Суспільство голодне до сенсу. Пишіть статті для світських газет. Розпочинайте новини на Substack. Беріть участь у популярних подкастах. Коли медіа публікує сенсаційний заголовок про 'свідомий' ШІ, нам потрібні католицькі науковці, які миттєво реагують у публічній площі.
  • Оснащуйте парафії та школи: Звичайна людина в лавці відчуває глибоку культурну тривогу щодо цих інструментів. Нам потрібні академіки, які створюють дуже доступні рамки для батьків, священиків та вчителів середніх шкіл. Ми повинні навчити дітей з раннього віку, як ставитися до ШІ як до довідкового інструмента — цифрової енциклопедії — а не як до друга, агента або морального авторитета.
  • Організуйте міждисциплінарні форуми: Використовуйте можливості установ, таких як Ангелікум, щоб залучити справжніх творців ШІ до розмови з моральними теологами. Примусьте лінгвістичну колізію відбутися лицем до лиця.

Нехай це буде нашим останнім закликом до дії.

Апокаліптичний страх світського світу перед 'свідомими' машинами не є причиною для обережності; скоріше, це відчайдушний крик за вашим інтелектуальним лідерством. Розуміючи справжню мову творців ШІ, Церква може сміливо вступити в публічну площу. Ви можете закріпити публічну дискусію в непохитній істині того, що насправді означає бути людиною. І ви можете забезпечити, щоб ШІ був спрямований на справжнє людське процвітання.

Озброєні цією ясністю, ви можете зламати ілюзію. Ви можете забезпечити, щоб людство залишалося скульптором, а машина залишалася долотом, завжди спрямованим до слави Бога.

Дякую.

Семантичний дрейф: Демістифікація мови творців ШІ | Magisterium