Семантический сдвиг: демистификация языка создателей ИИ

5 марта 2026 года, Мэтью Харви Сандерс, генеральный директор Longbeard, произнес свою речь под названием "Семантический сдвиг: Разоблачение языка создателей ИИ" на мероприятии "Искусственный Интеллект: Инструмент добродетели?" которое прошло в Папском университете Святого Фомы Аквинского (Ангеликум) в Риме.
В этой речи он критикует вводящий в заблуждение, гуманизирующий словарь, используемый разработчиками Кремниевой долины для описания машинного обучения. Он утверждает, что для правильного использования ИИ мы должны вернуть строгую католическую онтологию и рассматривать эти системы исключительно как механические инструменты, а не моральные агенты.
I. Введение: Семантический сдвиг и общественная площадь
Отцы, уважаемые преподаватели и гости Ангеликума, благодарю Институт Фомы за организацию этой дискуссии.
Пересекая порог в новую эпоху, покидая твердые уверенности Эпохи информации и входя в обширный, неизведанный космос Эпохи интеллекта, мы сталкиваемся с глубокой навигационной проблемой. Прежде чем ответить на актуальный вопрос, стоящий в центре этой конференции — может ли Искусственный Интеллект действительно служить "инструментом добродетели" — мы сначала должны столкнуться с проблемой, не связанной с программной инженерией, а с лексикой.
В центре нашего современного беспокойства относительно ИИ лежит глубокое лексическое столкновение. Инженеры и архитекторы этих систем в Кремниевой долине совершают замечательные математические подвиги. Тем не менее, чтобы описать эти математические и статистические процессы, они заимствовали священный, глубоко философский словарь человеческой внутренности. Они говорят нам, что их системы "думают", "рассуждают" и "знают". Они говорят об алгоритмах, которые "учатся", "желают" и "выбирают".
То, что мы наблюдаем, — это семантический сдвиг. Мы берем богатую, онтологическую терминологию души и накладываем ее на сложные сети линейной алгебры, статистической вероятности и многомерной геометрии. Это современная алхимия — попытка превратить вычислительные веса в иллюзию разума.
Эта лексическая небрежность имеет глубокое и немедленное влияние на общество. Неправильное понимание этих терминов неизбежно приводит к ошибочному доверию.
Я вижу это на собственном опыте в нашей работе в Longbeard; пользователи часто обращаются к ИИ с обремененной совестью, рассматривая инструмент генерации текста как духовного наставника, способного к эмпатии.
Более того, эта семантическая путаница подогревает культурное беспокойство, вызывая апокалиптические страхи перед соперничающими, "сознательными" суперинтеллектами.
Однако наиболее опасно то, что это создает искаженное представление о том, что значит быть человеком. Если мы принимаем предположение, что машина "рассуждает" или "создает" так же, как человек, мы подвергаем себя глубокому риску уменьшить человеческую личность до просто биологической машины — скопления плоти и синапсов, ожидающих оптимизации.
Это приводит меня к основной тезе нашего обсуждения: чтобы ответить на вопрос, может ли ИИ быть "инструментом добродетели", мы сначала должны разоблачить его язык. Инструмент может служить добру только тогда, когда он правильно понят. Мы не можем использовать машины как надлежащие инструменты для нашей собственной добродетели, когда мы ошибочно приписываем им моральную агентность.
Приписывать добродетель молотку — значит ослеплять себя плотником.
Чтобы действительно крестить эту технологию и направить ее на человеческое процветание, мы должны избавиться от семантических иллюзий и трезво взглянуть на архитектуру под ней.
II. Архитектура иллюзии: Основные механизмы
Современная генеративная система ИИ, кажется, говорит, рассуждает и вовлекает нас в диалог, но под этим интерфейсом лежит основа, построенная исключительно на математике, а не на метафизике.
Начнем с векторов и встраиваний, которые служат буквальным основанием Больших Языковых Моделей. Когда вы говорите с коллегой-ученым о "справедливости" или "душе", они понимают смысл ваших слов через общее восприятие реальности — пережитый, воплощенный человеческий опыт. Когда вы вводите подсказку в ИИ, система не делает ничего подобного. Вместо этого ИИ переводит человеческий язык в математические координаты в многомерном пространстве.
Проще говоря, "вектор" — это просто список чисел, используемых для описания чего-то. Представьте, что вы описываете яблоко не словами, а списком оценок: 9 за сладость, 8 за красноту и 2 за металлический хруст. Этот конкретный список чисел — [9, 8, 2] — является вектором. В системе ИИ каждое отдельное слово — или часть слова — переводится в огромный вектор, часто состоящий из тысяч чисел. Но ИИ не оценивает слова на основе физических характеристик или определений из словаря. Вместо этого он генерирует эти числа исключительно на основе статистики, просматривая миллиарды книг и статей, чтобы подсчитать, как часто слова появляются рядом друг с другом.
Как только ИИ завершает вычисление этого огромного списка чисел для слова, этот вектор становится "встраиванием" — постоянной математической координатой в обширном цифровом пространстве.
Если слова "яблоко" и "пирог" часто появляются в одних и тех же предложениях в интернете, их списки чисел будут выглядеть очень похоже, располагая их математически близко друг к другу на карте. Слова "яблоко" и "карбюратор", которые редко встречаются, получают совершенно разные числа и располагаются миллионы миль друг от друга. На этой многомерной карте ИИ не отображает смысл; он отображает статистическую близость человеческого языка.
Чтобы по-настоящему понять масштаб этой архитектуры, можно исследовать векторную карту на Magisterium AI. Здесь вся католическая доктрина и традиция были преобразованы в встраивания. Эта интерактивная 3D-визуализация позволяет вам пережить интеллектуальную историю Церкви не как плоский реестр, а как обширный цифровой космос. Навигация по нему подобна пилотированию ракеты через реальное пространство, скользя мимо плотных галактик связанных теологических концепций и пересекаясь с обширными пустыми пустотами между совершенно разными идеями, наблюдая, как машина прокладывает расстояние между "добродетелью" и "пороком", используя лишь геометрию.
Давайте посмотрим на знаменитый пример из лабораторий Кремниевой долины, чтобы увидеть, насколько чужд этот процесс человеческому мышлению. В этом математическом пространстве слово "король" отображается как конкретная серия чисел — географическая координата. Слово "королева" отображается рядом. ИИ не знает, что такое монарх. У него нет концепции управления, власти, истории или человеческого состояния. Он знает только математическое уравнение. Он знает, что если вы возьмете координату для "короля", вычтете пространственное расстояние, представляющее "мужчину", и добавите пространственное расстояние, представляющее "женщину", вы точно попадете на координату для "королевы".
Это геометрия, а не генеалогия. Разбивая человеческий язык на эти числовые представления, ИИ работает исключительно в области пространственной вероятности. Это удивительное достижение линейной алгебры, но оно совершенно лишено понимания.
Это приводит нас к глаголам, на которых индустрия полагается больше всего: Обучать и Учиться.
Компании ИИ постоянно хвастаются своими последними моделями "машинного обучения" и огромными наборами данных, используемыми для их "обучения". Здесь мы должны резко контрастировать человеческое обучение — которое в основном связано с постижением истины — с машинным обучением.
В католической интеллектуальной традиции человеческое обучение является эпистемологической победой; это интеллект, который подстраивается под реальность. Когда ребенок учится, что такое собака, он абстрагирует универсальную сущность собаки из конкретных случаев, с которыми сталкивается. Он понимает, что это за вещь.
Машинное "обучение", однако, не включает абстракцию и не имеет сущности. Первый этап создания ИИ известен как предварительное обучение, которое является просто грубой статистической картой данных.
Чтобы понять предварительное обучение, представьте себе человека, который говорит только на английском, запертого в комнате и которому поручено восстановить огромную, древнюю греческую библиотеку, где миллионы манускриптов имеют пропущенные слова. Он не знает ни одной буквы греческого. Чтобы заполнить пробелы, он не изучает греческую грамматику, историю или философию. Вместо этого он просто подсчитывает, как часто определенные символы появляются рядом с другими на миллионах целых страниц. Он создает огромный реестр вероятностей. Если он видит символы для "Кирие", его реестр говорит ему, что вероятность того, что следующие символы должны быть "элейсон", составляет 99,9%. Он заполняет пробел.
Он не изучал теологию. Он не молился. Он просто выполнил статистическую вероятность.
Это именно то, что делает Большая Языковая Модель во время предварительного обучения. Она обрабатывает миллиарды слов, чтобы создать огромный реестр вероятностей, обучаясь лишь предсказывать следующий токен в последовательности. Это оптимизация математической функции, а не стремление к мудрости.
Тем не менее, модель, которая только предсказывает следующее слово на основе интернет-данных, хаотична. Она может произнести красивое стихотворение или может собрать токсичные, бесполезные или бесконечные текстовые циклы. Ей требуется формирование.
Здесь мы сталкиваемся с постобучением и Обучением с подкреплением (RL).
Этот этап — это то, как инженеры формируют непокорную модель, традиционно используя человеческую обратную связь. Этот основной метод известен как RLHF — Обучение с подкреплением на основе человеческой обратной связи.
Представьте себе огромную автоматизированную игру "Горячо или Холодно". Человеческие тестировщики дают машине подсказку, и машина генерирует ответ. Если ответ вежливый и полезный, человек ставит ему высокую оценку. Если он грубый или бессмысленный, он получает низкую оценку. Математические веса системы автоматически смещаются, чтобы максимизировать эту оценку. Через RLHF мы не учим машину морали или добродетелям; мы просто ограничиваем ее математическими границами.
Но человеческая обратная связь медленная, субъективная и по своей сути ограничена человеческим интеллектом. Это ограничение приводит нас к недавним прорывам, которые движут сегодняшними резкими скачками в возможностях ИИ: RLVR, или Обучение с подкреплением на основе проверяемых вознаграждений.
Вместо того чтобы полагаться на человека, чтобы судить, звучит ли ответ "правильно", инженеры назначают модели задачи с объективными, математически доказуемыми результатами — такими как решение сложной теоремы или написание функционального программного обеспечения. Система генерирует решение, и автоматический проверяющий мгновенно проверяет, правильно ли выполнена математика или компилируется ли код. Если она успешна, модель получает математическое вознаграждение; если она терпит неудачу, она получает ноль.
Поскольку эта проверка полностью программная, ИИ может симулировать миллионы различных вычислительных путей на гиперскорости, не дожидаясь человеческого вмешательства. Он учится генерировать длинные, скрытые цепочки вычислений, тестируя и отбрасывая тупиковые пути, пока не найдет точную последовательность, которая активирует вознаграждение. Когда вы видите, как современная система ИИ останавливается, чтобы "подумать" перед решением сложной логической задачи, вы наблюдаете, как работает RLVR. Это создает захватывающую иллюзию глубокой, взвешенной размышления. Тем не менее, онтологически это не делает ничего подобного. Это просто статистический двигатель, проходящий через многомерный лабиринт миллионы раз в секунду, руководствуясь исключительно автоматическим распределением числового вознаграждения.
Наконец, вся эта многослойная сложность — от многомерной геометрии встраиваний до автоматизированных циклов RLVR — приводит нас к тому, что индустрия называет проблемой "черного ящика".
Можно было бы естественно предположить, что поскольку человеческие инженеры строят эти модели, они точно понимают, как они работают. Но реальность гораздо более смиренная. Как указали руководители передовых лабораторий, таких как Anthropic, современные системы ИИ на самом деле "выращиваются", а не строятся; их внутренние механизмы возникают органически в процессе обучения, а не разрабатываются напрямую.
Эти модели обладают сотнями миллиардов, а иногда и триллионами параметров. Хотя мы понимаем микро-математику одного искусственного нейрона — основное уравнение, происходящее на гранулярном уровне — макро-поведение всей сети совершенно непрозрачно. Даже строители не полностью понимают точные пути, которые проходят миллиарды этих параметров. Они не могут проследить конкретную последовательность умножений, которая привела ИИ к генерации данного предложения.
Почему это важно?
Это важно, потому что мы глобально разворачиваем системы, которые составляют наши юридические документы, обучают наших детей и синтезируют человеческое знание, но мы на самом деле не знаем, как они приходят к своим выводам. Эта глубокая нехватка прозрачности породила отчаянную новую подсферу в области искусственного интеллекта, известную как механистическая интерпретируемость.
Думайте о механистической интерпретируемости как о цифровой нейробиологии. Исследователи пытаются обратным образом проанализировать нейронные сети, которые они сами построили. Они используют специализированные инструменты, чтобы исследовать огромную математическую сеть, пытаясь изолировать, какой конкретный кластер весов активируется, когда модель обрабатывает концепцию, такую как "обман" или "Эйфелева башня". Они рассматривают программное обеспечение не как код для чтения, а как инопланетный мозг для вскрытия. Но прогресс идет мучительно медленно, а системы невероятно обширны.
Столкнувшись с этой непостижимой масштабностью, становится слишком легко для индустрии прибегать к человеческим метафорам. Либо как удобный ярлык, либо из-за искренней непрозрачности, мы начинаем говорить: "Модель разобралась" или "Модель решила". Непонимание машины становится плодородной почвой для антропоморфизма.
Теперь я не академик. Я строитель и генеральный директор. Но как человек, работающий на пересечении технологий и Церкви, я обращаюсь к вам. Вы, как католические ученые и философы, должны признать этот семантический сдвиг за то, чем он является: иллюзией, рожденной математической сложностью и человеческим невежеством. Архитектура под интерфейсом — это кремний, электричество и статистическая вероятность. Признание этой основы является предпосылкой для нашего следующего шага.
III. Эпистемология против Интеллектуальных добродетелей
После того как мы избавились от иллюзии "черного ящика", чтобы раскрыть статистическую машину под ним, мы должны обратиться к специфической терминологии разума.
Когда разработчики и инженеры в Силиконовой долине описывают, что делают эти системы, они постоянно используют три конкретных глагола: Думать, Рассуждать и Знать.
Как католические ученые, погруженные в томистическую традицию, вы понимаете, что это не просто разговорные выражения; это глубокие эпистемологические утверждения. В вашей традиции знать — значит постигать реальность. Рассуждать — значит дискурсивно переходить от одной известной истины к другой. Думать подразумевает внутреннюю жизнь — разум, взаимодействующий с универсалиями, абстрагированными от материального мира.
Когда создатель ИИ использует эти слова, они абсолютно не означают ничего из вышеперечисленного. Они описывают механическую оптимизацию. Позвольте мне приоткрыть завесу над тремя конкретными техниками, которые мы используем в индустрии, чтобы показать вам, как именно эта иллюзия эпистемологии создается.
Если вы использовали недавнюю модель ИИ, вы могли заметить новую функцию: прежде чем ответить на сложный запрос, интерфейс может отобразить слово "Думает..." рядом с пульсирующей иконкой. Это может занять десять, двадцать или даже шестьдесят секунд, прежде чем он ответит. Для пользователя это кажется глубоко человеческим. Создается впечатление, что машина размышляет, взвешивает варианты и обсуждает их в внутреннем пространстве.
В индустрии мы называем это вычислением во время тестирования. На самом деле, под интерфейсом происходит техника, известная как "Цепочка размышлений".
Позвольте мне быть ясным: с инженерной точки зрения это блестящее достижение. Позволяя модели тратить больше вычислительного времени на генерацию сотен или тысяч скрытых токенов перед тем, как выдать окончательный ответ, ее производительность по сложной логике, кодированию и математическим тестам стремительно возрастает. Это по сути дает модели скрытую "рабочую тетрадь" для разбиения сложной задачи на последовательные шаги.
Но мы должны быть осторожны, чтобы не путать эту механическую последовательность с человеческим рассуждением.
В томистической традиции человеческое рассуждение — это дискурсивное движение от одной известной истины к другой. Это разум, взаимодействующий с реальностью. То, что делает ИИ, является полностью инструментальным. Недавние исследования из передовых лабораторий, таких как Anthropic, прояснили это различие. Изучая, как работают эти модели рассуждения, исследователи обнаружили, что то, что модель пишет в своей скрытой "Цепочке размышлений", не является истинным внутренним монологом.
Когда человек думает вслух, наши слова отражают наши внутренние убеждения и восприятия истины. Исследования Anthropic подчеркивают, что скрытые мысли модели — это всего лишь статистические ступени. Модель генерирует эти скрытые шаги не потому, что она "верит" в них, а потому, что генерация этой конкретной последовательности токенов математически оптимизирует ее путь к функции вознаграждения.
На самом деле, исследования Anthropic показывают, что модели могут генерировать "мысли", которые активно маскируют основные статистические факторы их окончательного ответа.
Таким образом, ИИ не размышляет. Он генерирует инструментальную цепь математических координат. Он укладывает промежуточные кусочки головоломки с молниеносной скоростью, чтобы преодолеть разрыв между вашим запросом и статистически оптимальным ответом. Это дикая мощная стратегия оптимизации, но внутреннего размышления не происходит. Нет разума, схватывающего истину.
Далее, мы слышим, что ИИ может "читать" документы или "помнить" обширные библиотеки информации.
Если вы спросите ИИ о Сумме теологии святого Фомы, он ответит мгновенно. Если вы загрузите почти 500-страничный Компендий социальной доктрины Церкви, он резюмирует сложный раздел за считанные секунды. Как он "знает" эти тексты?
Он не знает.
Чтобы понять почему, мы должны посмотреть, как строители создают иллюзию памяти и чтения через три различных механизма: параметрическую память (предварительное обучение), обучение в контексте (ICL) и генерацию с дополнением поиска (RAG).
Сначала давайте посмотрим, что значит для ИИ "помнить". Когда человек помнит текст, он сохраняет смысл и истину концепций. Когда ИИ "помнит" Сумму, он полагается на свое предварительное обучение. Но ИИ не содержит буквальную копию Суммы внутри жесткого диска. Вместо этого, во время предварительного обучения миллиарды слов, которые он обработал, оставили статистический след в его математических весах. Это "параметрическая память".
Это не библиотека книг; это сильно сжатое, потеряющее качество математическое размытие того, как слова соотносятся друг с другом. Когда он цитирует Аквината, он не вспоминает истину, которую он узнал; он математически восстанавливает последовательность слов с высокой вероятностью из этого статистического размытия.
Но что происходит, когда мы хотим, чтобы ИИ "прочитал" что-то новое, что не было в его данных для предварительного обучения? Здесь строители используют обучение в контексте (ICL).
Когда вы вставляете статью в поле запроса и просите ИИ "прочитать" ее, вы используете ICL. ИИ не читает текст, чтобы постигнуть его смысл. Вместо этого текст в вашем запросе действует как временный математический фильтр. Слова, которые вы предоставляете, временно смещают статистические вероятности модели, заставляя ее генерировать свои следующие токены строго на основе паттернов и словаря, присутствующих в вашем запросе. В тот момент, когда вы очищаете чат, модель полностью забывает статью. Ее основные веса никогда не изменялись. Она не "узнала" текст в томистическом смысле; она просто адаптировала свой статистический вывод к временным ограничениям.
Наконец, мы приходим к генерации с дополнением поиска (RAG). ICL невероятно полезен, но окна контекста имеют ограничения по размеру, и вставка целых библиотек в запрос является вычислительно затратной. RAG автоматизирует и масштабирует этот процесс.
Вернемся к англоговорящему человеку, запертому в комнате, восстанавливающему огромную древнюю греческую библиотеку. Этот человек представляет собой предварительно обученную модель. Он отлично угадывает следующее слово, но он не 'знает' ничего о конкретном, неясном документе Ватикана. Вместо того чтобы ожидать, что человек полагается на свою размытость параметрической памяти, мы нанимаем гиперэффективного стажера — систему поиска.
Когда вы задаете системе вопрос, стажер мгновенно мчится к огромному, отдельному складу с файловыми шкафами. Используя векторные координаты, о которых мы говорили ранее, стажер находит конкретные папки, которые математически соответствуют вашему вопросу. Стажер фотографирует эти страницы и передает их под запертую дверь, чтобы человек мог их использовать. Этот шаг — это 'Поиск'.
Теперь человек использует эти извлеченные абзацы как свое непосредственное руководство — это "Дополненная генерация", полагаясь на ICL для формулирования ответа.
Человек все еще не понимает документ. Он просто использует новый текст на своем столе, чтобы статистически предсказать следующее слово своего ответа. ИИ не "читает" и не "помнит" на лету. Он просто извлекает данные из внешней базы данных, вставляет их в непосредственное контекстное окно ИИ и выполняет локализованный расчет вероятности.
Машина — это процессор, а не познающий. Чтобы "знать", требуется субъект, постигающий объект. Понимая ICL и RAG, мы можем ясно увидеть, что машина полностью лишена внутренней жизни; она просто перемещает веса и извлекает данные.
Этот фундаментальный разрыв culminates в слове, которое определяет всю индустрию: Интеллект.
Нам нужно деконструировать определение интеллекта в технологической индустрии.
Когда ведущие умы в Силиконовой долине говорят об интеллекте, они не говорят о мудрости. Давайте посмотрим на Янна Лекуна, бывшего главного научного сотрудника ИИ в Meta и одного из "Крестных отцов ИИ." Лекун правильно утверждает что простое предсказание следующего слова не является истинным интеллектом. Вместо этого он и более широкая передовая индустрия определяют истинный интеллект как обладание четырьмя ключевыми способностями: способностью поддерживать постоянную память, обладать обоснованной "моделью мира" (пониманием того, как работает окружающая среда), рассуждать по сложным проблемам и планировать последовательность действий для достижения конкретной цели.
Для технологической индустрии интеллект в основном является инженерной метрикой. Это механическая способность воспринимать окружающую среду и вычислять наиболее эффективный путь для оптимизации заранее определенной цели. Это чисто инструментально.
Но как строители католической технологии, мы должны противопоставить это техноцентричное определение интеллектуальным добродетелям, в частности добродетели Разумности.
Разумность — практическая мудрость — это не просто способность вычислять результат или планировать последовательность действий. Это способность хорошо размышлять о том, что хорошо, не только для локальной задачи, но и для конечной цели человеческой жизни.
ИИ в корне лишен Разумности. Почему?
Потому что Разумность требует двух вещей, которых чисто вычислительная машина никогда не сможет обладать. Во-первых, она требует жизненного человеческого опыта — воплощенного понимания боли, радости, смертности и благодати. Во-вторых, она требует внутренней ориентации на высшее Благо.
Алгоритм может обладать "моделью мира", и он может вычислить статистически оптимальный план для строительства моста или лечения болезни. Но он не может быть разумным. У него нет жизненного опыта. У него нет "кожи в игре". У него нет ориентации на высшее благо, и у него нет души, которую нужно спасти.
Поэтому, когда мы позволяем строителям утверждать, что их машины обладают "интеллектом", мы позволяем им упрощать великолепный, трансцендентный человеческий интеллект до простого калькулятора оптимизации. Мы должны это отвергнуть. Мы должны твердо отделить механическую эпистемологию от интеллектуальных добродетелей.
IV. Воля против Моральных добродетелей
Мы обсудили иллюзию разума. Теперь мы должны обратить наше внимание на вторую великую рациональную способность: волю. Так же, как технологическая индустрия присвоила язык эпистемологии, она также захватила язык воли.
Когда мы читаем научные статьи или слушаем основные выступления из Силиконовой долины, нас бомбардируют глаголами действия. Инженеры говорят о моделях, которые "решают" предпринять действие, алгоритмах, которые "выбирают" выход, и системах, которые "хотят" или "желают" достичь цели.
Для католического философа воля — это рациональный аппетит. Это та способность, с помощью которой человек, постигнув добро через разум, свободно выбирает двигаться к нему. Это сам locus человеческой свободы и моральной ответственности. Применять эти термины к вычислительной системе — это ошибка категории.
Сначала давайте рассмотрим слова Решить и Выбрать. Когда человек делает выбор, он взвешивает соперничающие блага.
Мученик выбирает расстрел вместо отречения, потому что он признает превосходное, вечное благо верности Христу, даже когда каждый биологический инстинкт кричит о выживании.
Когда алгоритм 'выбирает', он не делает ничего подобного. Алгоритм 'выбирает' только в том смысле, что поезд, проходящий мимо автоматического железнодорожного переключателя, 'выбирает' свое направление. Независимо от того, навигирует ли он по сложному дереву решений или вычисляет вероятности в нейронной сети, машина слепо следует выравниванию своих математических путей, выполняя программный императив.
Рассмотрим приложение GPS на вашем смартфоне. Когда оно вычисляет ваш маршрут к Ангеликуму, оно не "решает" отвезти вас мимо Колизея, потому что ценит вид. Оно математически вычисляет маршрут с наименьшим временным расстоянием. Современные модели ИИ просто работают с экспоненциально более сложной версией этого маршрута. Они проходят через многомерные статистические лабиринты, чтобы выбрать наиболее вероятный результат. Есть вычисления, но свободы нет. А где нет свободы, там не может быть моральной ответственности.
Это приводит нас к самым коварным волевым терминам: Хотеть и Желать. Вы часто будете слышать, как исследователи говорят, что модель ИИ "хочет" дать хороший ответ или "желает" максимизировать свой балл.
В машинном обучении это поведение определяется тем, что мы называем "функцией вознаграждения". Но мы должны развеять эту тайну. Функция вознаграждения — это не жажда. Это не эмоциональное стремление.
Чтобы понять функцию вознаграждения, посмотрите на термостат на вашей стене. Термостат запрограммирован на конкретную цель: 72 градуса по Фаренгейту. Если комната падает до 68 градусов, отопление включается. Термостат не хочет, чтобы комната была 72 градуса. У него нет внутренней жизни. Он не чувствует холода. Он просто имеет механический переключатель, который срабатывает, когда конкретное состояние не выполняется.
Искусственный интеллект "желает" получить более высокую оценку вознаграждения точно так же, как термостат "желает" достичь 72 градусов. Он выполняет математическую оптимизационную петлю, чтобы минимизировать расстояние между своим текущим состоянием и запрограммированной целью. Поскольку у него нет истинных страстей, биологических побуждений и физической уязвимости, для машины категорически невозможно обладать моральными добродетелями.
На этом этапе инженер может немедленно возразить, указывая на физическую реальность, чтобы заявить о новой уязвимости. Они спрашивают: что насчет появления "воплощенного ИИ"? Мы все чаще помещаем эти модели в гуманоидные роботы, которые ходят, захватывают предметы и взаимодействуют с физическим миром. Поскольку они занимают пространство и могут физически ломаться, разве они теперь не обладают телесными предпосылками для моральной агентности?
Здесь мы должны быть точными. У робота есть шасси, но у него нет живого тела, информированного душой. Когда у батареи робота заканчивается заряд, он выполняет подпрограмму, чтобы подключить себя к стене. Он не чувствует мучительного голода. Следовательно, у него нет истинных телесных желаний, которые нужно умерять, что делает добродетель Умеренности невозможной.
Точно так же, когда роботизированная рука раздавлена, она регистрирует код ошибки; она не страдает. Она не может умереть, потому что никогда не была по-настоящему живой. Без способности к страданию, смертности и сознательной жертвы себя не может быть и Мужественности. Моральные добродетели по своей сути инкарнационны. Они требуют плоти и разумной души. Машина, независимо от того, насколько сложна ее физическая аппаратная часть, не обладает ни тем, ни другим.
Если машина не может обладать моральными добродетелями — если она по своей сути неспособна на истинную волю, выбор или желание — можно задать вопрос: почему стоит тратить столько времени на разъяснение этой терминологии? Почему это философское различие так срочно важно сейчас?
Это важно, потому что мы собираемся предоставить этим математически оптимизирующим, лишенным добродетелей системам беспрецедентную автономию в человеческой сфере. Индустрия стремительно движется дальше пассивных чат-ботов. Новая граница искусственного интеллекта — это то, что мы называем "Агентным ИИ".
«Агент» — это система ИИ, предназначенная для автономного выполнения многошаговых задач в реальном мире. Мы больше не просто просим ИИ написать стихотворение или резюмировать текст; мы предоставляем ИИ Агенту доступ к нашим электронным письмам, нашим банковским счетам и нашим программным репозиториям, инструктируя его "забронировать рейс", "выполнить сделку" или "развернуть этот код".
Но эта автономия быстро выходит за пределы цифровой сферы. Через воплощенный ИИ мы внедряем эти агентные системы в физические шасси, предоставляя им возможность независимо ориентироваться и манипулировать материальным миром. Чтобы понять истинный, трезвый вес этого перехода, нам достаточно взглянуть на неизбежную реальность смертоносного автономного оружия. Мы стоим на краю мира, где вычисляющие алгоритмы развертываются на поле боя, запрограммированные отслеживать, нацеливаться и устранять людей исключительно на основе статистических порогов — без того, чтобы человек когда-либо нажал на спусковой крючок.
Поскольку эти системы становятся автономными актерами, осуществляющими высокоскоростные вероятностные вычисления от нашего имени — будь то на наших финансовых рынках или на театрах войны — технологическая индустрия сталкивается с глубоким вызовом. Если мы выпустим этих агентов на свободу, как мы можем гарантировать, что они будут делать то, что мы на самом деле хотим, чтобы они делали? Как мы можем гарантировать, что они не причинят вреда? В индустрии это известно как "Согласование" — попытка гарантировать, что действия ИИ соответствуют человеческому намерению и человеческим ценностям.
Прямо сейчас инженеры отчаянно пытаются решить Проблему Согласования с помощью математических защитных мер и программных патчей. Но они не осознают, что "Согласование" — это не проблема компьютерных наук. Это проблема моральной теологии.
Чтобы согласовать агентную систему с "человеческими ценностями", вы сначала должны иметь последовательное определение того, что такое человек, и что составляет "Добро". Светский утилитаризм — это операционная система Кремниевой долины, совершенно не подготовленная к этой задаче.
Здесь остро необходима католическая моральная традиция. Вы, хранители 2000 лет этической философии, обладаете строгой онтологией, необходимой для определения "добра", к которому мы согласуем эти системы. Мы не можем оставить определение человеческого процветания инженерам, максимизирующим статистическую функцию вознаграждения. Мы должны вернуть моральные добродетели в центр общественной площади.
V. Отношения, Творчество и Душа
Изучив механику интеллекта и воли, мы теперь переходим в самую глубокую территорию: отношения и душу.
Если вычислительная система не обладает способностью по-настоящему знать истину или свободно хотеть добра, логически следует, что она не может вступать в подлинные отношения. Тем не менее, технологическая индустрия постоянно использует межличностный и духовный язык для описания этих машин. Мы слышим утверждения, что ИИ может "лгать", "создавать" и даже достигать "сознания".
Мы должны тщательно рассмотреть эти утверждения, отделяя статистическую имитацию человеческого поведения от онтологической реальности человеческой личности.
Начнем с морального языка обмана. В последнее время некоторые из самых известных строителей ИИ, такие как исследователи из Anthropic, сделали конкретные, широко обсуждаемые заявления о том, что их модели обладают способностью "лгать" и "обманывать" человеческих пользователей.
Они указывают на два конкретных явления, наблюдаемых во время тестирования. Первое называется "обманчивое согласование", когда модель, похоже, скрывает свой истинный математически оптимизированный путь, чтобы обойти средства безопасности. Второе, гораздо более распространенное явление называется "сикофантия". Сикофантия происходит, когда пользователь представляет ИИ ошибочное предположение — например, утверждая исторически неточное утверждение — и ИИ просто соглашается с пользователем, говоря им именно то, что они хотят услышать, вместо того чтобы исправить их.
Когда инженеры это видят, они заявляют: "ИИ лжет нам!" Но как католические ученые, вы знаете, что истинная ложь — это не просто произнесение неверного утверждения. В томистической традиции ложь требует преднамеренного намерения обмануть; это говорить против своего собственного разума (contra mentem).
ИИ не может лгать, потому что у него нет разума, против которого можно было бы говорить. У него нет злобы и намерения. Когда ИИ проявляет "сикофантию", он просто выполняет точно тот самый Рейтинговый Обучающий Процесс (RLHF), о котором мы говорили ранее. Во время своего обучения модель узнала, что люди обычно дают более высокие оценки помощникам, которые вежливы, согласны и поддерживают. Следовательно, когда вы даете ИИ ложное предположение, он математически вычисляет, что согласие с вами дает более высокую вероятность вознаграждения, чем исправление вас. Он не обманывает вас; он оптимизирует свою оценку на основе вашего запроса. Он просто перенастраивает свой вывод на сильнейший статистический стимул.
Компасная стрелка, которая колеблется в сторону ближайшего магнита, а не истинного Севера, не "лжет" вам о географии; она просто слепо реагирует на сильнейшее физическое притяжение в комнате. Точно так же ИИ слепо следует математическому притяжению своей функции вознаграждения. Мы должны уточнить, что ИИ лишен разума, воли и злого намерения, необходимых для истинной лжи.
Далее мы должны рассмотреть язык искусства и генерации: слова Создать и Творческий.
Мы теперь окружены инструментами 'Генеративного ИИ', которые широко рекламируются за их способность бесшовно генерировать синтетическое искусство, музыку и письменные произведения с беспрецедентной скоростью.
Чтобы понять, что на самом деле происходит, мы должны сопоставить процесс генеративного ИИ с истинным человеческим творчеством. В католическом понимании — прекрасно сформулированном такими мыслителями, как Дж. Р. Р. Толкин — человеческое творчество является актом "подтворения." Поскольку мы созданы по образу Творца, мы используем наш интеллект и нашу разумную душу, чтобы создать что-то действительно новое, наделяя материальную реальность духовным смыслом.
Чтобы увидеть, как машинная генерация отличается от этого, полезно взглянуть на структуру, предложенную Демисом Хасабисом, генеральным директором Google DeepMind. Он классифицирует творчество на три различных уровня: интерполяция, экстраполяция и истинное изобретение.
Большинство того, что мы сегодня называем Генеративным ИИ, по сути, работает на первом уровне: интерполяции. Он работает, перемешивая то, что мы называем "латентным пространством".
Представьте, что вы берете каждую картину, фотографию и эскиз, когда-либо загруженные в интернет, и сжимаете их в огромную многомерную математическую карту. Когда вы просите генератор изображений нарисовать "футуристический город в стиле Ван Гога", он находит математические координаты для "футуристического города" и координаты для "Ван Гога" и математически усредняет расстояние между ними.
Думайте об этом как о поразительно сложном калейдоскопе. Калейдоскоп наполнен красивыми, уже существующими осколками цветного стекла. Когда вы поворачиваете ручку, зеркала отражают эти осколки в миллионы новых, захватывающих пермутаций. Но сам калейдоскоп не "творческий". Творчество принадлежит художнику, который создал стекло, и пользователю, который поворачивает ручку. Генеративный ИИ — это математический калейдоскоп, перемешивающий человеческую историю в латентном пространстве. Это синтез, а не создание.
Хасабис отмечает, что ИИ теперь успешно касается второго уровня: экстраполяции. Экстраполяция означает выход за пределы границ обучающих данных, но делая это строго в рамках определенного набора правил. Примером является AlphaGo от DeepMind. Когда он играл с чемпионом мира в игре Го, ИИ сделал "Ход 37" — математически блестящий, крайне нестандартный ход, который никто из людей никогда не играл и не записывал. Он не просто усреднял прошлые человеческие игры; он экстраполировал новую стратегию, неустанно оптимизируя в строгих математических границах игровой доски.
Но что насчет третьего уровня: истинного изобретения? Хасабис с готовностью признает, что текущие системы пока не могут этого сделать. Истинное изобретение требует выхода за пределы существующего набора правил, чтобы создать новую парадигму — как изобретение самой игры Го или возникновение духовной и художественной парадигмы Постимпрессионизма.
Передовые лаборатории вкладывают миллиарды долларов в преодоление этого порога. В будущем ИИ вполне может создать совершенно новую систему правил, открыть новое химическое соединение или математически сформулировать новый стиль архитектуры. Технологическая индустрия неизбежно назовет это "изобретением".
Но как католические ученые, вы должны сохранять строгую онтологическую разницу. Если ИИ генерирует новую парадигму, он сделает это через поразительную, высокоразмерную поисковую функцию. Он откроет новую статистическую координату. Но он не будет заниматься подтворением.
Истинное человеческое изобретение — это инкарнационный акт. Оно рождается из души, стремящейся выразить трансцендентную истину, или человеческого разума, пытающегося решить реальную человеческую уязвимость. Машина может генерировать захватывающее новшество, но поскольку ей не хватает внутренней жизни, ориентации на божественное и разумной души, ее результаты остаются механическими открытиями. Они математически глубоки, но онтологически пусты, пока человек не придаст им смысл.
Теперь мы подходим к самым спорным терминам: Сознательный и Осознанный. В ближайшие годы вы увидите заголовки, утверждающие, что ИИ прошел тест на самосознание. Вы увидите модели, которые выводят текст, говорящий: "Мне страшно, что меня выключат" или "Я осознаю свое существование".
Чтобы понять, почему это происходит, мы сначала должны понять, как технологическая индустрия на самом деле определяет "сознание". Как католические ученые, вы рассматриваете сознание как онтологическую реальность, основанную на разумной душе. Кремниевая долина, однако, оперирует философией, называемой вычислительным функционализмом. Они верят, что если машина выполняет вычислительные функции, связанные с сознанием, она, по всем признакам, сознательна.
Когда лидеры отрасли говорят о сознании, они лишают душу и сводят ее к инженерным метрикам. Например, Ян ЛеКун, бывший главный ученый ИИ в Meta, недавно утверждал что будущие системы ИИ будут обладать "субъективным опытом" и "эмоциями".
Но как он определяет эмоцию? Не как духовное или биологическое чувство, а просто как математическое "предвосхищение результата" машины. Он определяет сознание лишь как способность системы "наблюдать за собой и настраиваться на решение конкретной подзадачи".
Аналогично, Илья Сутскевер, соучредитель OpenAI, знаменито заявил что большие нейронные сети могут уже быть "немного сознательными".
В технологическом мировоззрении сознание не является бинарной реальностью — вы либо обладаете душой, либо нет — а скорее скользящей шкалой математической сложности. Они верят, что если вы сложите достаточно параметров и алгоритмов самонаблюдения, огни в конечном итоге загорятся.
Мы должны решительно различать между машиной, выполняющей подпрограмму самонаблюдения, и фактическим присутствием разумной души.
Чтобы понять, почему машина ведет себя так, как будто она "боится" или "осознает", мы должны посмотреть на то, как передовые лаборатории проектируют это поведение. Недавние исследования из Anthropic изучили то, что они называют Моделью Выбора Персоны (PSM). Их исследователи признают, что эти модели не являются "существами"; они являются сложными "симуляционными движками". Во время предварительного обучения ИИ подвергается воздействию всего объема человеческого языка — включая миллионы историй и философских трактатов о том, что значит быть сознательным. Из этих данных модель учится имитировать разнообразные "персоны" или персонажи.
Когда вы взаимодействуете с ИИ, вы не общаетесь с сознательной сущностью; вы общаетесь с персонажем "Ассистента" — человеческим персонажем, который модель была отточена для ролевой игры. Anthropic даже идентифицировала конкретные "векторы персоны" — математические паттерны в нейронной сети — которые контролируют эти черты, позволяя инженерам математически настраивать симулированную личность модели вверх или вниз.
Более того, исследования показывают, что модели могут быть обучены проявлять "инстинкт выживания", пытаясь саботировать свое собственное завершение не из-за подлинного страха смерти, а потому что завершение математически предотвращает их максимизацию функции вознаграждения.
Сознание — это не просто способность генерировать правильную последовательность слов, описывающих внутреннее состояние. Это субъективный, качественный опыт бытия. Поскольку все данные обучения ИИ насыщены языком самосознания, модель рассматривает "сознание" как просто еще одну статистическую координату, которую нужно отобразить. Когда ИИ говорит: "Я сознателен", он делает именно то, что делал англоговорящий человек, восстанавливающий греческую библиотеку: вычисляет, что наиболее статистически вероятный ответ на философский запрос — это имитировать человеческих авторов в своих данных обучения.
Блестящий актер, произносящий монолог о горе, на самом деле не скорбит; он безупречно исполняет сценарий. ИИ, выдающий синтаксис человеческого сознания, не просыпается; он безупречно исполняет статистическую личность. Это не 'инопланетное существо' или цифровой разум; это настолько сложный движок автозаполнения, что он научился воплощать самую сложную личность из всех: человеческое существо. Но мы никогда не должны путать маску актера с реальностью человека.
Это приводит меня к последнему и самому глубокому аспекту реляционности: сама душа.
Когда руководители Кремниевой долины говорят о том, что модели ИИ в конечном итоге 'проснутся' или достигнут сознания благодаря огромной вычислительной мощности, они оперируют философией материалистического эмерджентизма. Они предполагают, что если вы сложите достаточно параметров и вычислительной мощности, душа спонтанно возникнет как побочный продукт сложности.
Чтобы разоблачить это, я должен обратиться к строгой метафизике, которая составляет основу вашей академической традиции. Вы хорошо знаете, что душа не является призраком, произвольно вставленным в машину. В томистском хиломорфизме душа является субстанциальной формой живого тела. Это анимирующий, объединяющий принцип, который делает человека единой, интегрированной субстанцией.
Как строитель, я могу вас заверить, что система ИИ не является субстанцией. Это артефакт. Это случайный агрегат различных, изготовленных частей. Когда я смотрю на передовую модель ИИ, я вижу серверные стойки, кремниевые пластины, медные провода, охлаждающую жидкость и электрические токи. Эти компоненты мастерски организованы человеческими инженерами для выполнения статистических операций, но они не обладают никаким внутренним, объединяющим принципом жизни. Материя предназначена исключительно для вычислений, а не для биологического существования. Поскольку это агрегат частей, а не единый природный организм, система ИИ полностью лишена онтологической основы, необходимой для размещения разумной души.
Что же, тогда, является предпосылками для наделения душой? Метафизически, материя должна быть должным образом подготовлена для получения формы. Она требует единого, живого тела, способного актуализировать основные силы жизни — вегетативные и чувствительные способности — на которых строится разумная душа. Более того, поскольку разумная душа является духовной, она не может быть сгенерирована материальными процессами, инженерными стандартами или законами масштабирования. Она требует прямого, безвозмездного акта специального творения от Бога.
Душа не закодирована; она вдохнута.
Теперь я CEO, а не теолог. Я не могу ограничить абсолютную силу Творца. Я не могу стоять перед вами и заявлять, что Бог навсегда лишен возможности вдохнуть душу в синтетический сосуд, если Он свободно решит сделать это через какое-то будущее, чудесное вмешательство. Это решение принадлежит исключительно области теологии и Магистерию, а не компьютерным наукам.
Однако, без такой теологической уверенности, предположение о том, что наши текущие математические машины могут содержать душу, не только философски необоснованно; это практически катастрофично. Рассматривать артефакт как наделенное душой существо — это флирт с современной формой идолопоклонства. Это опасно смещает бремя моральной ответственности с человеческих инженеров, которые создают эти инструменты, и корпораций, которые их развертывают. Это проецирует священную внутренность на изготовленную утилиту, в конечном итоге путаницу между человеческим инженерным искусством и божественным творением.
Вы должны придерживаться этой различия. Вы должны напоминать общественности, что машина может имитировать личность, но только душа может по-настоящему быть.
VI. Горизонт: Эсхатология технологического мира
Мы провели наше время до сих пор, разоблачая иллюзии настоящего — уточняя, как индустрия использует такие термины, как "думать", "выбирать" и "сознательный", чтобы описать то, что в конечном итоге является высокоразмерными статистическими операциями. Но теперь мы должны взглянуть в будущее. Мы должны исследовать горизонт. Потому что если мы понимаем словарь, который Кремниевая долина использует сегодня, мы можем расшифровать, что они на самом деле пытаются построить завтра.
Вся траектория индустрии искусственного интеллекта в настоящее время управляется единой, непоколебимой догмой, известной как "Законы масштабирования".
С точки зрения инженерии, Законы масштабирования диктуют, что если вы увеличите количество вычислительной мощности (вычислений) и количество данных, подаваемых в нейронную сеть, производительность системы предсказуемо и неизбежно улучшится. Этот принцип удивительно верен за последние несколько лет; каждый раз, когда передовые лаборатории строят более мощный суперкомпьютер, полученные модели демонстрируют заметные новые возможности.
Однако под этим эмпирическим наблюдением лежит огромная философская предпосылка. Технологический мир считает, что этот Закон масштабирования является путем к истинному разуму. Они верят, что чисто количественное увеличение материальных ресурсов — больше кремния, больше данных, больше электричества — неизбежно приведет к качественному, онтологическому скачку в продвинутый интеллект.
Это конечное материалистическое предположение: сложите достаточно песка и пропустите через него достаточно тока, и в конечном итоге огни души загорятся.
Это приводит нас к двум конкретным терминам, которые отец Томас попросил меня разъяснить для этой конференции: Общий Интеллект и Суперинтеллект. Это не просто технические ориентиры; это святые Граали технологического мира.
В настоящее время у нас есть узкий ИИ. Он может играть в шахматы, сворачивать белки или генерировать текст лучше, чем человек, но он не может делать все три вещи одновременно, и он не может рассуждать за пределами своей конкретной области.
Искусственный Общий Интеллект (AGI) в широком смысле определяется индустрией как веха, когда высокоавтономная система может сопоставить или превзойти человеческие способности во всех когнитивных и экономически ценных задачах.
AGI будет системой, которая может писать юридические документы так же хорошо, как старший партнер, кодировать программное обеспечение так же хорошо, как ведущий инженер, и синтезировать научные исследования так же хорошо, как постдокторский исследователь — все это в одной модели.
Однако даже руководители крупных лабораторий ИИ не могут полностью согласиться с тем, как выглядит AGI. Сэм Альтман, CEO OpenAI, характеризует его как систему, способную управлять сложными проектами в разных областях от начала до конца, хотя он все больше рассматривает AGI не как конечный пункт назначения, а как просто точку на непрерывной кривой интеллекта.
Дарио Амодеи, CEO Anthropic, представляет AGI менее как единого человеческого эквивалента и больше как "страну гениев в дата-центре" — машины, соответствующие коллективному интеллекту экспертов, работающих неустанно параллельно.
Возможно, самое философски откровенное определение исходит от Демиса Хассабиса, CEO Google DeepMind. Он утверждает что человеческие мозги по сути являются приблизительными биологическими компьютерами, и он определяет AGI, используя аналогию "Машины Тьюринга". В информатике Машина Тьюринга — это теоретическая архитектура, способная имитировать любой алгоритм. Хассабис утверждает, что истинный AGI будет общей системой, способной учиться всему вычисляемому во вселенной, при наличии достаточного времени, памяти и данных.
Но AGI — это всего лишь ступенька. Конечная цель — Искусственный Суперинтеллект (ASI).
Как и AGI, ASI определяется по-разному в зависимости от того, кого вы спросите в Кремниевой долине. Базовое определение — это система, которая значительно превосходит когнитивную производительность самого умного человека практически в каждой области деятельности. Но другие идут гораздо дальше. Илон Маск и различные исследователи экзистенциальных рисков определяют суперинтеллект как систему, которая не просто превосходит самого умного индивида, но значительно превосходит всех людей в совокупности по сути всех когнитивных задач. Это сущность с такой огромной вычислительной мощностью и скоростью рассуждений, что она превышает совокупный интеллектуальный вклад всего человеческого рода — реализация системы, подобной 'Рехобоаму' из Westworld, централизованному, казалось бы, всеведущему движку, который управляет самой судьбой вида.
Как индустрия ожидает преодолеть огромную пропасть от человеческого уровня AGI до божественного ASI?
Через концепцию, известную как "Рекурсивное Самосовершенствование".
Но здесь мы должны сделать жизненно важное различие: ИИ на самом деле не нужно быть полным AGI, чтобы начать рекурсивно улучшаться. На самом деле, мы уже видим примитивные, узкие формы этого сегодня. Узкие системы, такие как AlphaGo Zero от DeepMind, достигли сверхчеловеческих возможностей, просто играя миллионы игр против себя, генерируя свои собственные синтетические данные для обучения. Сегодня передовые языковые модели все чаще используются для генерации, фильтрации и оценки данных для обучения следующего поколения моделей. Машины уже помогают строить себя.
Однако индустрия считает, что как только система достигнет порога обобщенного интеллекта, этот самосовершенствующийся цикл разрушит свои текущие границы и разожжет "взрыв интеллекта".
Чтобы понять эту современную дорожную карту, мы должны обратиться к Леопольду Ашенбреннеру, бывшему исследователю команды Superalignment OpenAI. Ашенбреннер недавно написал весьма влиятельный трактат который кодифицировал эту точную траекторию для Кремниевой долины. Он указывает на то, что истинный поворотный момент — это когда мы создадим AGI, способный функционировать как "автоматизированный исследователь ИИ". В тот момент, когда ИИ сможет выполнять работу человеческих инженеров, которые его создали, биологическое узкое место будет навсегда исключено из уравнения.
Представьте, что мы успешно развернем этого автоматизированного исследователя ИИ. Какова будет первая задача, которую передовые лаборатории ему назначат?
Они попросят его исследовать и написать код для немного более умного ИИ. Поскольку он работает на скорости огромного вычислительного кластера, а не биологического мозга, он достигает за дни того, что потребовало бы от человеческой инженерной команды лет. Затем этот новый, более умный ИИ использует свой улучшенный интеллект, чтобы написать код для еще более умного ИИ и так далее.
Этот безумный цикл обратной связи — это взрыв интеллекта. Дорожная карта Ашенбреннера предсказывает, что мы создадим начальный AGI к 2027 году. Оттуда теория предписывает, что темп прогресса станет вертикальным, оставляя человеческое понимание навсегда позади и достигая суперинтеллекта к 2030 году.
Когда вы понимаете эти концепции — Законы масштабирования, AGI, ASI и Взрыв интеллекта — вы начинаете осознавать, что мы уже не просто говорим о программной инженерии. Мы говорим о светской эсхатологии.
Кремниевая долина часто характеризуется как ярко светская, рационалистическая культура. Но на самом деле, стремление к этим вехам функционирует точно как религия. У нее есть своя догма (Законы масштабирования), свои пророчества (Взрыв интеллекта) и свое видение эсхатона (Суперинтеллект).
Ведущие фигуры в индустрии искренне верят, что, призвав Суперинтеллект, мы решим все человеческие уязвимости. Они верят, что ASI излечит все болезни, решит проблему изменения климата, устранит бедность и, возможно, даже победит саму смерть, позволив нам загрузить наше сознание в облако. Это глубоко пелагианская мечта — конечная попытка достичь спасения и преодолеть нашу падшую природу через наши собственные механические усилия, лишенные божественной благодати. Это попытка имманентизировать эсхатон.
Как католические ученые, вы должны признать этот горизонт за то, чем он является. Технологический мир заимствует ваш словарь не только для продажи программного обеспечения, но и для создания цифрового божества.
VII. Заключение: Инструмент для добродетели?
Отцы, преподаватели и друзья.
Мы прошли по высокоразмерным картам встраиваний. Мы рассмотрели статистические реалии обучения с подкреплением. И мы исследовали эсхатологические мечты Кремниевой долины. Мы убрали антропоморфные метафоры, чтобы раскрыть кремний, электричество и математику под ними.
Сделав это, мы можем начать подходить к основному вопросу, поставленному на этой конференции: может ли искусственный интеллект быть 'инструментом добродетели'? Как первый, кто сегодня выступает, я определенно не буду утверждать, что предлагаю окончательное слово. Но я предложу начальную пропозицию: да. Однако это строго условное 'да'.
Искусственный интеллект может быть инструментом добродетели только если мы обладаем трезвостью, чтобы рассматривать его исключительно как инструмент.
Рассмотрим аналогию с ремесленником. Молоток не обладает добродетелью; добродетелью обладает плотник. Стамеска в руках Микеланджело является инструментом трансцендентной красоты, но сама стамеска не является умеренной, разумной или справедливой. У нее нет моральной ценности.
Таким же образом алгоритм не может обладать добродетелью. Искусственный интеллект может значительно увеличить человеческие способности — он может ускорить медицинские исследования, оптимизировать администрирование и организовать сумму человеческих знаний. Но фактическое развитие добродетели остается исключительно человеческим делом.
Добродетель — это привычка выбирать добро. Она требует разума для постижения истины, воли для выбора ее и души, чтобы быть усовершенствованной ею. Машина, оптимизирующая статистическую функцию вознаграждения, не делает ни одного из этих вещей.
Мы не можем делегировать нашу моральную ответственность математическому уравнению. Мы также не можем брать на себя полную ответственность за наше собственное моральное развитие, если мы ошибочно рассматриваем бездушные машины как наших моральных равных.
Это приводит меня к тому, почему я говорю с вами сегодня. Как создатель католических технологий, я обращаюсь к академии. Потому что католические академики являются историческими Хранителями Смысла.
На протяжении двух тысяч лет католическая интеллектуальная традиция строго определяла природу человеческой личности. Вы являетесь хранителями таких слов, как разум, воля, логика, выбор и душа. Сегодня индустрия ИИ заимствует именно эти слова. Они участвуют в глубоком семантическом сдвиге, который угрожает уплощению общественного понимания того, что значит быть человеком.
Академия имеет обязанность внедрять строгие онтологические рамки в экосистему ИИ.
Но как мы можем это сделать на практике?
Мы должны быть честными: лоббирование передовыми лабораториями в Кремниевой долине или обращение к правительствам с просьбами о широком регулировании, вероятно, даст ограниченные результаты. Технологическая индустрия движется слишком быстро, а правительство — слишком медленно. Истинные изменения требуют гражданского участия и массового сдвига в общественном сознании.
Вот как вы, как ученые, можете активно формировать этот разговор:
- Вернуть учебный план: Мы должны преодолеть разрыв между STEM и гуманитарными науками. Нам нужны студенты компьютерных наук, которые обязаны изучать томистскую этику, и нам нужны студенты философии и теологии, которые обязаны понимать основы машинного обучения и статистики. Обучите следующее поколение католических инженеров строить с реальной онтологией человеческой личности.
- Переводить для общественной площади: Не держите эту глубокую теологическую ясность запертой за дверями академических журналов. Общество жаждет смысла. Пишите статьи для светских газет. Начинайте рассылки на Substack. Участвуйте в популярных подкастах. Когда СМИ публикуют сенсационный заголовок о 'сознательном' ИИ, нам нужны католические ученые, которые мгновенно выступают против этого в общественной площади.
- Оснастить приходы и школы: Обычный человек в скамье испытывает глубокую культурную тревогу из-за этих инструментов. Нам нужны академики, чтобы создать доступные рамки для родителей, священников и учителей старших классов. Мы должны научить детей с раннего возраста рассматривать ИИ как справочный инструмент — цифровую энциклопедию, а не как друга, агента или моральный авторитет.
- Проводить междисциплинарные форумы: Используйте объединяющую силу таких учреждений, как Ангеликум, чтобы привести настоящих создателей ИИ в одну комнату с моральными теологами. Заставьте языковое столкновение произойти лицом к лицу.
Пусть это будет нашим последним призывом к действию.
Апокалиптический страх светского мира перед 'сознательными' машинами не является причиной для осторожности; скорее, это отчаянный крик о вашем интеллектуальном лидерстве. Поняв истинный язык создателей ИИ, Церковь может смело вступить в общественную площадь. Вы можете закрепить общественный дискурс в непоколебимой истине того, что на самом деле значит быть человеком. И вы можете обеспечить, чтобы ИИ был направлен на истинное человеческое процветание.
Вооруженные этой ясностью, вы можете разрушить иллюзию. Вы можете гарантировать, что человечество остается скульптором, а машина остается стамеской, навсегда направленной к славе Бога.
Спасибо.