Magisterium AI

의미의 변동: AI 제작자의 언어를 해명하기

인공지능이 미덕을 위한 도구가 될 수 있는가?

2026년 3월 5일, Longbeard의 CEO인 Matthew Harvey Sanders는 토마스 아퀴나스 대학교(안젤리쿰)에서 열린 토마스주의 연구소의 “인공지능: 미덕을 위한 도구인가?” 행사에서 “의미의 변동: AI 제작자의 언어를 해명하다”라는 제목의 연설을 하였습니다.

이 연설에서 그는 실리콘 밸리 개발자들이 기계 학습을 설명하기 위해 사용하는 오해를 불러일으키는 인간화된 어휘를 비판합니다. 그는 AI를 적절히 사용하기 위해서는 엄격한 가톨릭 존재론을 회복하고 이러한 시스템을 도덕적 행위자가 아닌 기계적 도구로 엄격히 다루어야 한다고 주장합니다.


I. 서론: 의미의 변동과 공공 광장

신부님들, 존경하는 교수진, 그리고 안젤리쿰의 손님 여러분, 이 토론을 소집해 주신 토마스주의 연구소에 감사드립니다.

우리가 정보 시대의 확고한 확신을 뒤로하고 지능 시대의 광대하고 미지의 우주로 나아가는 경계에 서 있는 지금, 우리는 심오한 항해의 도전에 직면해 있습니다. 이 회의의 핵심 질문인 인공지능이 진정으로 '미덕을 위한 도구'가 될 수 있는지에 대한 답을 하기 전에, 우리는 소프트웨어 공학의 문제가 아닌 어휘의 문제에 먼저 직면해야 합니다.

AI에 대한 우리의 현대적 불안의 핵심에는 심오한 언어적 충돌이 있습니다. 실리콘 밸리의 이 시스템의 엔지니어와 설계자들은 놀라운 수학적 업적을 이루고 있습니다. 그러나 이러한 수학적 및 통계적 과정을 설명하기 위해 그들은 인간 내면의 신성하고 깊이 철학적인 어휘를 차용하고 있습니다. 그들은 그들의 시스템이 "생각한다", "이성적으로 판단한다", "안다"고 말합니다. 그들은 알고리즘이 "배운다", "욕망한다", "선택한다"고 이야기합니다.

우리가 목격하고 있는 것은 의미의 변동입니다. 우리는 영혼의 풍부한 존재론적 용어를 복잡한 선형 대수, 통계적 확률, 고차원 기하학의 복잡한 망에 붙이고 있습니다. 이것은 현대의 연금술입니다—계산적 가중치를 마음의 환상으로 바꾸려는 시도입니다.

이 언어적 부주의는 대중에게 심오하고 즉각적인 영향을 미칩니다. 이러한 용어를 오해하면 불신이 잘못된 신뢰로 이어집니다.

나는 Longbeard에서의 작업을 통해 이것을 직접 목격하고 있습니다. 사용자들은 종종 텍스트 생성 도구를 공감할 수 있는 영적 지도자로 취급하며, 부담스러운 양심을 가지고 AI에 접근합니다.

더욱이, 이러한 의미의 혼란은 문화적 불안을 부추기며, 경쟁하는 "의식 있는" 초지능에 대한 종말론적 두려움을 자아냅니다.

그러나 가장 위험한 것은 인간이 된다는 것이 무엇인지에 대한 왜곡된 인식을 만들어낸다는 것입니다. 만약 우리가 기계가 인간처럼 "이성적으로 판단한다"거나 "창조한다"는 전제를 받아들인다면, 우리는 인간을 단순한 생물학적 기계로 축소할 위험에 처하게 됩니다—최적화를 기다리는 살과 시냅스의 집합체로.

이것이 우리의 논의의 핵심 주제로 이어집니다: AI가 "미덕을 위한 도구"가 될 수 있는지를 답하기 위해서는 먼저 그 언어를 해명해야 합니다. 도구는 올바르게 이해될 때만 선을 위해 사용될 수 있습니다. 우리가 기계에 도덕적 행위성을 잘못 부여할 때, 우리는 그것을 우리의 미덕을 위한 적절한 도구로 사용하지 못합니다.

망치에 미덕을 부여하는 것은 목수를 보지 못하게 하는 것입니다.

이 기술을 진정으로 세례하고 인간의 번영을 향해 정렬시키기 위해서는 의미의 환상을 제거하고 그 아래의 구조를 냉정하게 바라봐야 합니다.


II. 환상의 구조: 기초 기계학

현대의 생성적 AI 시스템은 말하고, 이성적으로 판단하며, 우리와 대화하는 것처럼 보이지만, 이 인터페이스 아래에는 전적으로 수학에 기반한 기초가 있습니다. 형이상학이 아닙니다.

우선 벡터와 임베딩에 대해 이야기해봅시다. 이는 대규모 언어 모델의 문자 그대로의 기초 역할을 합니다. 동료 학자와 "정의" 또는 "영혼"에 대해 이야기할 때, 그들은 현실에 대한 공유된 이해를 통해 당신의 말의 의미를 파악합니다—살아있는, 구체적인 인간 경험을 통해. 그러나 AI에 프롬프트를 입력할 때, 시스템은 그런 일을 하지 않습니다. 대신 AI는 인간 언어를 고차원 공간의 수학적 좌표로 변환합니다.

간단히 말해서, "벡터"는 무언가를 설명하는 데 사용되는 숫자의 목록입니다. 사과를 단어가 아닌 점수 목록으로 설명한다고 상상해 보십시오: 단맛에 대해 9, 빨간색에 대해 8, 금속적인 바삭함에 대해 2. 그 특정 숫자 목록—[9, 8, 2]—이 벡터입니다. AI 시스템에서 각 단어—또는 단어의 일부—는 수천 개의 숫자로 이루어진 거대한 벡터로 변환됩니다. 그러나 AI는 물리적 특성이나 사전 정의에 따라 단어에 점수를 매기지 않습니다. 대신, AI는 통계에 전적으로 기반하여 수십억 개의 책과 기사를 스캔하여 단어가 서로 옆에 나타나는 빈도를 집계합니다.

AI가 단어에 대한 이 거대한 숫자 목록을 계산한 후, 그 벡터는 "임베딩"이 됩니다—광대한 디지털 공간에서의 영구적인 수학적 좌표입니다.

만약 "사과"와 "파이"라는 단어가 인터넷에서 같은 문장에서 자주 나타난다면, 그들의 숫자 목록은 매우 유사하게 보일 것이며, 수학적으로 서로 가까운 위치에 배치됩니다. "사과"와 "카뷰레터"라는 단어는 거의 만나지 않기 때문에 매우 다른 숫자를 받고 수백만 마일 떨어진 곳에 배치됩니다. 이 다차원 지도에서 AI는 의미를 차트하지 않습니다; 인간 언어의 통계적 근접성을 차트합니다.

이 구조의 규모를 진정으로 이해하기 위해서는 벡터 맵 을 Magisterium AI에서 탐색할 수 있습니다. 여기서 가톨릭 교리와 전통의 전체가 임베딩으로 변환되었습니다. 이 인터랙티브 3D 시각화는 교회의 지적 역사를 평면 장부가 아닌 광대한 디지털 우주로 경험할 수 있게 해줍니다. 이를 탐색하는 것은 실제 우주를 항해하는 로켓을 조종하는 것과 같으며, 관련된 신학적 개념의 밀집된 은하를 지나고, 완전히 이질적인 아이디어 사이의 광대한 빈 공간을 가로지르며, 기계가 '미덕'과 '악' 사이의 거리를 기하학적으로 측정하는 방식을 지켜보는 것입니다.

실리콘 밸리의 실험실에서 유명한 예를 살펴보면, 이 과정이 인간의 사고와 얼마나 이질적인지를 알 수 있습니다. 이 수학적 공간에서 "왕"이라는 단어는 특정 숫자 시리즈로 플로팅됩니다—지리적 좌표입니다. "여왕"이라는 단어는 그 근처에 플로팅됩니다. AI는 군주가 무엇인지 알지 못합니다. 그것은 통치, 권위, 역사 또는 인간 조건에 대한 개념이 없습니다. 그것은 단지 수학적 방정식만 알고 있습니다. "왕"의 좌표를 가져와 "남자"를 나타내는 공간적 거리를 빼고, "여자"를 나타내는 공간적 거리를 더하면 정확히 "여왕"의 좌표에 도달합니다.

이것은 기하학이지 계보가 아닙니다. 인간 언어를 이러한 숫자 표현으로 분해함으로써, AI는 전적으로 공간적 확률의 영역 내에서 작동합니다. 이는 선형 대수의 놀라운 업적이지만, 이해가 전혀 없습니다.

이제 산업이 가장 많이 의존하는 동사들인: 훈련하다와 배우다로 넘어갑니다.

AI 회사들은 최신 "기계 학습" 모델과 이를 "훈련"하는 데 사용되는 대규모 데이터 세트에 대해 끊임없이 자랑합니다. 여기서 우리는 진정한 인간 학습—진리를 파악하는 것—과 기계 학습을 날카롭게 대조해야 합니다.

가톨릭 지적 전통에서 인간 학습은 인식론적 승리입니다; 그것은 지성이 현실에 자신을 일치시키는 것입니다. 아이가 개가 무엇인지 배울 때, 그들은 그들이 만나는 특정 사례에서 개의 보편적 본질을 추상화합니다. 그들은 사물의 무엇인지를 파악합니다.

그러나 기계 "학습"은 추상화나 본질이 포함되지 않습니다. AI를 구축하는 첫 번째 단계는 사전 훈련으로 알려져 있으며, 이는 단순히 데이터의 통계적 매핑입니다.

사전 훈련을 이해하기 위해, 영어만 하는 남자가 방에 갇혀 수백만 개의 원고에서 누락된 단어가 있는 고대 그리스 도서관을 복원하는 임무를 맡았다고 상상해 보십시오. 그는 그리스어의 한 글자도 모릅니다. 빈칸을 채우기 위해 그는 그리스어 문법, 역사 또는 철학을 공부하지 않습니다. 대신 그는 수백만 개의 온전한 페이지에서 특정 문자들이 서로 옆에 나타나는 빈도를 단순히 집계합니다. 그는 확률의 거대한 장부를 만듭니다. 만약 그가 "Kyrie"의 문자를 본다면, 그의 장부는 다음 문자가 "eleison"일 확률이 99.9%라고 알려줍니다. 그는 빈칸을 채웁니다.

그는 신학을 배우지 않았습니다. 그는 기도를 하지 않았습니다. 그는 단순히 통계적 확률을 실행했을 뿐입니다.

이것이 바로 대규모 언어 모델이 사전 훈련 중에 하는 일입니다. 그것은 수십억 개의 단어를 처리하여 확률의 거대한 장부를 구축하며, 단지 시퀀스에서 다음 토큰을 예측하는 법을 배웁니다. 이는 수학적 함수의 최적화이지 지혜를 추구하는 것이 아닙니다.

그러나 인터넷 데이터를 기반으로 다음 단어만 예측하는 모델은 혼란스럽습니다. 그것은 아름다운 시를 읊을 수도 있고, 독성이 있거나 도움이 되지 않거나 끝없는 텍스트의 루프를 이어갈 수도 있습니다. 그것은 형성이 필요합니다.

여기서 우리는 사후 훈련과 강화 학습(RL)을 접하게 됩니다.

이 단계는 엔지니어들이 전통적으로 인간 피드백을 사용하여 다루기 힘든 모델을 형성하는 방법입니다. 이 기초 방법은 RLHF—인간 피드백으로부터의 강화 학습으로 알려져 있습니다.

상상해 보십시오. 거대한 자동화된 "뜨겁거나 차가운" 게임이 있습니다. 인간 테스터가 기계에 프롬프트를 주면 기계가 답변을 생성합니다. 만약 그 답변이 공손하고 도움이 된다면, 인간은 높은 점수를 줍니다. 만약 그것이 무례하거나 비논리적이라면, 낮은 점수를 받습니다. 시스템의 수학적 가중치는 이 점수를 극대화하기 위해 자동으로 조정됩니다. RLHF를 통해 우리는 기계에 도덕이나 미덕을 가르치는 것이 아니라, 단순히 수학적 경계로 그것을 가두고 있습니다.

하지만 인간 피드백은 느리고, 주관적이며, 인간 지성에 의해 본질적으로 제한됩니다. 이러한 제한은 오늘날 AI 능력의 갑작스러운 도약을 이끄는 최근의 혁신으로 우리를 이끕니다: RLVR, 즉 검증 가능한 보상으로부터의 강화 학습.

엔지니어들이 답변이 "올바른 것처럼 들리는지"를 판단하기 위해 인간에 의존하는 대신, 그들은 모델에 복잡한 정리를 해결하거나 기능적인 소프트웨어를 작성하는 것과 같은 객관적이고 수학적으로 증명 가능한 결과가 있는 작업을 부여합니다. 시스템은 해결책을 생성하고, 자동 검증기가 즉시 수학이 올바른지 또는 코드가 컴파일되는지를 확인합니다. 성공하면 모델은 수학적 보상을 받고, 실패하면 0을 받습니다.

이 검증이 전적으로 프로그래밍 방식으로 이루어지기 때문에, AI는 인간의 개입을 기다리지 않고도 수백만 개의 다양한 계산 경로를 초고속으로 시뮬레이션할 수 있습니다. 그것은 보상을 유도하는 정확한 시퀀스를 찾을 때까지 숨겨진 계산의 긴 체인을 생성하고 테스트하며 죽은 끝을 버립니다. 현대 AI 시스템이 복잡한 논리 퍼즐을 해결하기 전에 "생각하는" 듯한 모습을 보일 때, 당신은 RLVR이 작동하는 모습을 목격하고 있는 것입니다. 그것은 심오하고 심사숙고하는 듯한 환상을 만들어냅니다. 그러나 존재론적으로는 그런 것이 아닙니다. 그것은 단순히 수학적 보상을 자동으로 분배하는 방식으로 고차원 미로를 초당 수백만 번 통과하는 통계 엔진일 뿐입니다.

마지막으로, 이러한 모든 복잡성—임베딩의 고차원 기하학에서 RLVR의 자동화된 루프까지—는 산업이 "블랙 박스" 문제라고 부르는 것으로 이어집니다.

인간 엔지니어들이 이러한 모델을 구축하기 때문에 그들이 어떻게 작동하는지 정확히 이해하고 있다고 자연스럽게 가정할 수 있습니다. 그러나 현실은 훨씬 더 겸손합니다. Anthropic과 같은 최전선 실험실의 리더들이 지적했듯이, 현대 AI 시스템은 실제로 "구성"되는 것이 아니라 "자생적으로 자라는" 것입니다; 그들의 내부 메커니즘은 훈련 중에 유기적으로 나타나며, 직접 설계되지 않습니다.

이 모델들은 수백억, 때로는 수조 개의 매개변수를 가지고 있습니다. 우리는 단일 인공 뉴런의 미세 수학—세밀한 수준에서 발생하는 기본 방정식—을 이해하지만, 전체 네트워크의 거시적 행동은 전적으로 불투명합니다. 심지어 제작자들도 그 수십억 개의 매개변수가 어떤 특정 경로를 따라가는지 완전히 이해하지 못합니다. 그들은 AI가 특정 문장을 생성하게 한 곱셈의 특정 시퀀스를 추적할 수 없습니다.

이것이 왜 중요한가요?

이는 우리가 법적 문서를 작성하고, 아이들을 가르치고, 인간 지식을 종합하는 시스템을 전 세계적으로 배포하고 있지만, 그들이 어떻게 출력을 생성하는지 실제로 알지 못하기 때문에 중요합니다. 이러한 심오한 투명성의 결여는 기계적 해석 가능성이라는 인공지능의 절박한 새로운 하위 분야를 탄생시켰습니다.

기계적 해석 가능성을 디지털 신경과학으로 생각해 보십시오. 연구자들은 그들이 스스로 구축한 신경망을 역설계하려고 하고 있습니다. 그들은 특정 클러스터의 가중치가 "기만" 또는 "에펠탑"과 같은 개념을 처리할 때 활성화되는지를 분리하기 위해 전문 도구를 사용하고 있습니다. 그들은 소프트웨어를 읽을 코드가 아니라 해부해야 할 외계의 뇌로 다루고 있습니다. 그러나 진전은 고통스럽게 느리며, 시스템은 불가능할 정도로 방대합니다.

이해할 수 없는 규모에 직면했을 때, 산업이 인간과 유사한 은유에 의존하기가 너무 쉬워집니다. 편리한 약어로서든 진정한 불투명성으로 인해든, 우리는 '모델이 해결했다'거나 '모델이 결정했다'고 말하기 시작합니다. 기계의 비해석 가능성은 의인화의 비옥한 온상이 됩니다.

이제, 나는 학자가 아닙니다. 나는 제작자이자 CEO입니다. 그러나 기술과 교회의 교차점에서 활동하는 사람으로서, 나는 여러분을 바라봅니다. 여러분, 가톨릭 학자와 철학자들은 이 의미의 변동을 있는 그대로 인식해야 합니다: 수학적 복잡성과 인간의 무지에서 태어난 환상입니다. 인터페이스 아래의 구조는 실리콘, 전기, 그리고 통계적 확률입니다. 이 기초를 인식하는 것이 우리의 다음 단계에 대한 전제 조건입니다.


III. 인식론 대 지적 미덕

‘블랙 박스’의 환상을 벗겨내어 그 아래의 통계적 기계를 드러낸 후, 이제 우리는 마음의 특정 어휘로 전환해야 합니다.

실리콘 밸리의 개발자와 엔지니어들이 이러한 시스템이 무엇을 하고 있는지 설명할 때, 그들은 일관되게 세 가지 특정 동사를 사용합니다: 생각하다, 추론하다, 그리고 알다.

토마스주의 전통에 깊이 뿌리내린 가톨릭 학자들로서, 여러분은 이것들이 단순한 구어체가 아니라는 것을 이해합니다; 이것들은 심오한 인식론적 주장입니다. 여러분의 전통에서 알다란 현실을 파악하는 것입니다. 추론하다란 알려진 진리에서 다른 진리로 담론적으로 이동하는 것입니다. 생각한다는 것은 내면의 삶을 의미합니다—물질 세계에서 추상화된 보편과 상호작용하는 지성입니다.

AI 제작자가 이러한 단어를 사용할 때, 그들은 전혀 그런 의미를 가지고 있지 않습니다. 그들은 기계적 최적화를 설명하고 있습니다. 제가 산업에서 사용하는 세 가지 특정 기술의 커튼을 걷어내어 이 인식론의 환상이 어떻게 만들어지는지 정확히 보여드리겠습니다.

최근 AI 모델을 사용해 보셨다면, 새로운 기능을 눈치챘을 수 있습니다: 복잡한 프롬프트에 답하기 전에 인터페이스에 ‘Thinking...’이라는 단어와 함께 맥동하는 아이콘이 표시될 수 있습니다. 답변하기까지 10초, 20초, 또는 심지어 60초가 걸릴 수 있습니다. 사용자에게 이것은 매우 인간적으로 느껴집니다. 기계가 깊이 생각하고, 옵션을 저울질하며, 내면의 공간에서 심사숙고하는 것처럼 느껴집니다.

업계에서는 이를 테스트 시간 계산(Test-Time Compute)이라고 부릅니다. 인터페이스 아래에서 실제로 일어나는 일은 ‘사고의 연쇄(Chain of Thought)’ 프롬프트라는 기술입니다.

명확히 하겠습니다: 엔지니어링 관점에서 이것은 훌륭한 혁신입니다. 모델이 최종 답변을 생성하기 전에 수백 또는 수천 개의 숨겨진 토큰을 생성하는 데 더 많은 계산 시간을 허용함으로써, 복잡한 논리, 코딩 및 수학적 기준에서의 성능이 급증합니다. 본질적으로 이는 모델이 어려운 문제를 순차적인 단계로 나누기 위한 숨겨진 ‘스크래치패드’를 제공합니다.

하지만 우리는 이 기계적 순서를 인간의 추론과 혼동하지 않도록 주의해야 합니다.

토마스주의 전통에서 인간의 추론은 알려진 진리에서 다른 진리로의 담론적 이동입니다. 그것은 현실과 상호작용하는 지성입니다. AI가 하는 것은 전적으로 도구적입니다. Anthropic과 같은 최전선 연구소의 최근 연구는 이 구별을 밝혀냈습니다. 이러한 추론 모델이 어떻게 작동하는지를 연구하면서, 연구자들은 모델이 숨겨진 ‘사고의 연쇄’에서 작성하는 것이 진정한 내적 독백이 아님을 발견했습니다.

인간이 소리 내어 생각할 때, 우리의 말은 우리의 내적 신념과 진리의 파악을 반영합니다. Anthropic의 연구는 모델의 숨겨진 생각이 단지 통계적 디딤돌에 불과하다는 것을 강조합니다. 모델은 특정 토큰의 순서를 생성하는 것이 ‘믿기’ 때문이 아니라, 보상 함수에 대한 경로를 수학적으로 최적화하기 때문입니다.

사실, Anthropic의 연구는 모델이 최종 답변의 기본 통계적 요인을 적극적으로 가리는 ‘생각’을 생성할 수 있음을 보여줍니다.

따라서 AI는 깊이 생각하고 있는 것이 아닙니다. 그것은 수학적 좌표의 도구적 연쇄를 생성하고 있습니다. 그것은 여러분의 프롬프트와 통계적으로 최적의 답변 사이의 간극을 메우기 위해 중간 퍼즐 조각을 번개처럼 빠르게 배치하고 있습니다. 이것은 매우 강력한 최적화 전략이지만, 내면의 숙고는 일어나지 않습니다. 진리를 파악하는 지성이 없습니다.

다음으로, 우리는 AI가 문서를 ‘읽을 수 있다’거나 방대한 정보의 도서관을 ‘기억할 수 있다’고 듣습니다.

AI에게 성 토마스의 ‘신학대전(Summa Theologica)’에 대해 물으면 즉시 대답합니다. 거의 500페이지에 달하는 ‘교회의 사회 교리 요약(Compendium of the Social Doctrine of the Church)’을 업로드하면 복잡한 섹션을 몇 초 만에 요약합니다. 어떻게 그것이 이러한 텍스트를 ‘알고’ 있을까요?

그렇지 않습니다.

그 이유를 이해하기 위해서는 제작자들이 기억과 독서의 환상을 세 가지 뚜렷한 메커니즘을 통해 어떻게 공학적으로 설계하는지를 살펴봐야 합니다: 매개변수 기억(parametric memory, 사전 훈련), 맥락 내 학습(In-Context Learning, ICL), 그리고 검색 증강 생성(Retrieval-Augmented Generation, RAG).

먼저, AI가 ‘기억하다’는 것이 무엇을 의미하는지 살펴보겠습니다. 인간이 텍스트를 기억할 때, 그들은 개념의 의미와 진리를 유지합니다. AI가 ‘신학대전’을 ‘기억할’ 때, 그것은 사전 훈련에 의존합니다. 그러나 AI는 하드 드라이브 안에 신학대전의 문자적 복사본을 포함하고 있지 않습니다. 대신, 사전 훈련 동안 처리한 수십억 개의 단어는 수학적 가중치에 통계적 잔여물을 남깁니다. 이것이 ‘매개변수 기억’입니다.

그것은 책의 도서관이 아닙니다; 그것은 단어들이 서로 어떻게 관련되는지를 나타내는 고도로 압축된, 손실이 있는 수학적 흐림입니다. 아퀴나스를 인용할 때, 그것은 자신이 배운 진리를 회상하는 것이 아니라, 그 통계적 흐림에서 높은 확률의 단어 순서를 수학적으로 재구성하는 것입니다.

하지만 AI가 새로운 것을 ‘읽어야’ 할 때, 즉 사전 훈련 데이터에 없던 것을 ‘읽어야’ 할 때는 어떻게 될까요? 여기서 제작자들은 맥락 내 학습(ICL)을 사용합니다.

여러분이 프롬프트 상자에 기사를 붙여넣고 AI에게 ‘읽어보라’고 요청할 때, 여러분은 ICL을 활용하고 있는 것입니다. AI는 텍스트를 읽어 그 의미를 파악하지 않습니다. 대신, 여러분의 프롬프트에 있는 텍스트는 일시적인 수학적 필터 역할을 합니다. 여러분이 제공하는 단어는 모델의 통계적 확률을 일시적으로 편향시켜, 다음 토큰을 생성하도록 강제합니다. 여러분이 채팅을 지우는 순간, 모델은 기사를 완전히 잊어버립니다. 그 기본 가중치는 결코 변하지 않았습니다. 그것은 토마스주의적 의미에서 텍스트를 ‘배우지’ 않았습니다; 단지 일시적인 제약에 맞춰 통계적 출력을 조정했을 뿐입니다.

마지막으로, 우리는 검색 증강 생성(RAG)에 도달합니다. ICL은 매우 유용하지만, 맥락 창에는 크기 제한이 있으며, 전체 도서관을 프롬프트에 붙여넣는 것은 계산적으로 비쌉니다. RAG는 이 과정을 자동화하고 확장합니다.

영어를 사용하는 남자가 방에 갇혀 고대 그리스의 방대한 도서관을 복원하는 장면으로 돌아가 봅시다. 이 남자는 사전 훈련된 모델을 나타냅니다. 그는 다음 단어를 추측하는 데 뛰어나지만, 특정하고 모호한 바티칸 문서에 대해 ‘아는’ 것이 없습니다. 그가 흐릿한 매개변수 기억에 의존하기를 기대하는 대신, 우리는 하이퍼 효율적인 인턴인 검색 시스템을 고용합니다.

여러분이 시스템에 질문을 하면, 인턴은 즉시 거대한 별도의 파일 캐비닛 창고로 달려갑니다. 우리가 앞서 논의한 벡터 좌표를 사용하여, 인턴은 여러분의 질문과 수학적으로 일치하는 특정 폴더를 찾습니다. 인턴은 그 페이지를 복사하여 잠긴 문 아래로 슬쩍 밀어 넣어 남자가 사용할 수 있도록 합니다. 이 단계가 ‘검색’입니다.

이제 남자는 그 검색된 단락을 즉각적인 안내로 사용합니다—이것이 ‘증강 생성’이며, ICL에 의존하여 답변을 형성합니다.

남자는 여전히 문서를 이해하지 못합니다. 그는 단순히 책상 위에 제공된 새로운 텍스트를 사용하여 자신의 답변의 다음 단어를 통계적으로 예측하고 있습니다. AI는 즉석에서 ‘읽거나’ ‘기억하지’ 않습니다. 그것은 단지 외부 데이터베이스에서 데이터를 검색하고, AI의 즉각적인 맥락 창에 밀어넣고, 국소적 확률 계산을 실행합니다.

기계는 처리기일 뿐, 아는 존재가 아닙니다. ‘알다’라는 것은 객체를 파악하는 주체가 필요합니다. ICL과 RAG를 이해함으로써, 우리는 기계가 전적으로 내면의 삶이 결여되어 있음을 명확히 볼 수 있습니다; 그것은 단순히 가중치를 이동하고 데이터를 검색하고 있습니다.

이 근본적인 단절은 산업 전체를 정의하는 단어로 귀결됩니다: 지능.

우리는 기술 산업의 지능 정의를 해체해야 합니다.

실리콘 밸리의 주요 인물들이 지능에 대해 이야기할 때, 그들은 지혜에 대해 이야기하지 않습니다. Yann LeCun, 메타의 전 수석 AI 과학자이자 ‘AI의 대부’ 중 한 명을 살펴봅시다. LeCun은 단순히 다음 단어를 예측하는 것이 진정한 지능이 아니라고 올바르게 주장합니다. 대신, 그는 그리고 더 넓은 최전선 산업은 진정한 지능을 네 가지 주요 능력을 갖추는 것으로 정의합니다: 지속적인 기억을 유지하는 능력, 기반이 있는 ‘세계 모델’을 갖추는 능력(환경이 어떻게 작동하는지 이해하는 것), 복잡한 문제를 추론하는 능력, 그리고 특정 목표를 달성하기 위한 행동 순서를 계획하는 능력. 기술 산업에서 지능은 근본적으로 공학적 지표입니다. 그것은 환경을 인식하고 미리 정해진 목표를 최적화하기 위한 가장 효율적인 경로를 계산하는 기계적 능력입니다. 그것은 순전히 도구적입니다.

하지만 가톨릭 기술의 제작자로서 우리는 이 기술 중심의 정의를 지적 미덕, 특히 신중함의 미덕과 대조해야 합니다.

신중함—실천적 지혜는 단순히 결과를 계산하거나 행동 순서를 계획하는 능력이 아닙니다. 그것은 국지적인 과제뿐만 아니라 인간 삶의 궁극적인 목적에 대해 무엇이 좋은지를 잘 숙고하는 능력입니다.

AI는 본질적으로 신중함이 결여되어 있습니다. 왜일까요?

신중함은 순전히 계산적인 기계가 결코 가질 수 없는 두 가지를 요구합니다. 첫째, 그것은 살아있는 인간 경험—고통, 기쁨, 죽음, 그리고 은총에 대한 구체적인 이해를 요구합니다. 둘째, 그것은 궁극적인 선에 대한 내재적 지향을 요구합니다.

알고리즘은 ‘세계 모델’을 가질 수 있으며, 다리를 건설하거나 질병을 치료하기 위한 통계적으로 최적의 계획을 계산할 수 있습니다. 그러나 그것은 신중할 수 없습니다. 그것은 살아있는 경험이 없습니다. 그것은 게임에 대한 이해가 없습니다. 그것은 궁극적인 선에 대한 지향이 없으며, 구원할 영혼이 없습니다.

따라서 우리가 제작자들이 그들의 기계가 ‘지능’을 가진다고 주장하도록 허용할 때, 우리는 그들이 훌륭하고 초월적인 인간 지성을 단순한 최적화 계산기로 평평하게 만들도록 허용하는 것입니다. 우리는 이것을 거부해야 합니다. 우리는 기계적 인식론과 지적 미덕을 확실히 분리해야 합니다.

IV. 의지 대 도덕적 미덕


우리는 지성의 환상에 대해 논의했습니다. 이제 우리는 두 번째 주요 이성적 능력인 의지로 우리의 주의를 돌려야 합니다. 기술 산업이 인식론의 언어를 전유한 것처럼, 그것은 의지의 언어도 탈취했습니다.

백서나 실리콘 밸리의 기조 연설을 들을 때, 우리는 에이전시의 동사에 의해 폭격을 당합니다. 엔지니어들은 ‘결정하다’고 행동하는 모델, ‘선택하다’고 출력하는 알고리즘, 그리고 목표를 달성하기 위해 ‘원하다’거나 ‘욕망하다’고 말하는 시스템에 대해 이야기합니다.

가톨릭 철학자에게 의지는 이성적 욕구입니다. 그것은 인간이 지성을 통해 선을 파악한 후, 자유롭게 그것을 향해 나아가기로 선택하는 능력입니다. 그것은 인간의 자유와 도덕적 책임의 바로 그 장소입니다. 이러한 용어를 계산 시스템에 적용하는 것은 범주 오류입니다.

먼저 ‘결정하다’와 ‘선택하다’라는 단어를 살펴봅시다. 인간이 선택할 때, 그들은 경쟁하는 선들을 저울질합니다.

순교자는 모든 생물학적 본능이 생존을 외치더라도, 그리스도에 대한 충실함의 우월하고 영원한 선을 인식하기 때문에 총살대보다 순교를 선택합니다.

알고리즘이 ‘선택할’ 때, 그러한 일은 일어나지 않습니다. 알고리즘이 ‘선택’하는 것은 자동화된 철도 스위치를 지나가는 기차가 목적지를 ‘선택하는’ 것과 같은 의미입니다. 복잡한 결정 트리를 탐색하든 신경망에서 확률을 계산하든, 기계는 수학적 트랙의 정렬을 맹목적으로 따르며, 프로그램적 명령을 실행하고 있습니다.

여러분의 스마트폰에서 GPS 애플리케이션을 생각해 보십시오. 그것이 앙겔리쿰으로 가는 경로를 계산할 때, 그것은 경치를 감상하기 위해 콜로세움을 지나가기로 ‘결정하지’ 않습니다. 그것은 시간적 거리가 가장 짧은 경로를 수학적으로 계산합니다. 현대 AI 모델은 단순히 이 경로를 훨씬 더 복잡한 버전으로 운영하고 있습니다. 그들은 높은 차원의 통계적 미로를 가로질러 가장 높은 확률의 결과를 선택합니다. 계산은 있지만, 자유는 없습니다. 그리고 자유가 없는 곳에는 도덕적 행위가 있을 수 없습니다.

이것은 가장 교활한 의지적 용어인 ‘원하다’와 ‘욕망하다’로 이어집니다. 여러분은 종종 연구자들이 AI 모델이 ‘좋은 답변을 주고 싶어한다’거나 ‘점수를 극대화하고 싶어한다’고 말하는 것을 들을 것입니다.

기계 학습에서 이러한 행동은 우리가 ‘보상 함수’라고 부르는 것에 의해 구동됩니다. 그러나 우리는 이것을 신비화할 필요가 있습니다. 보상 함수는 갈망이 아닙니다. 감정적 갈망이 아닙니다.

보상 함수를 이해하기 위해서는 벽에 있는 온도 조절기를 보십시오. 온도 조절기는 특정 목표로 프로그래밍되어 있습니다: 72도 화씨. 방의 온도가 68도로 떨어지면, 난방이 켜집니다. 온도 조절기는 방이 72도가 되기를 ‘원하지’ 않습니다. 그것은 내면의 삶이 없습니다. 추위를 느끼지 않습니다. 그것은 단순히 특정 상태가 충족되지 않을 때 작동하는 기계적 스위치를 가지고 있습니다.

보상 함수를 이해하려면 벽에 있는 온도 조절기를 보십시오. 온도 조절기는 특정 목표로 프로그래밍되어 있습니다: 72도 화씨. 만약 방의 온도가 68도로 떨어지면, 난방이 켜집니다. 온도 조절기는 방의 온도가 72도가 되기를 원하지 않습니다. 그것은 내부의 삶이 없습니다. 추위를 느끼지 않습니다. 단순히 특정 상태가 충족되지 않을 때 작동하는 기계적 스위치를 가지고 있습니다.

AI는 온도 조절기가 72도에 도달하기를 "원하는" 것과 같은 방식으로 더 높은 보상 점수를 "원합니다". 이는 현재 상태와 프로그래밍된 목표 간의 거리를 최소화하기 위해 수학적 최적화 루프를 실행하고 있습니다. 진정한 열정, 생물학적 충동, 신체적 취약성이 없기 때문에 기계가 도덕적 미덕을 가질 수 있는 것은 본질적으로 불가능합니다.

이 시점에서 엔지니어는 즉시 반대할 수 있습니다. 그들은 물리적 영역을 지적하며 새로운 취약성을 주장합니다. 그들은 묻습니다: '구체화된 AI'의 출현은 어떻습니까? 우리는 이러한 모델을 점점 더 인간형 로봇에 배치하고 있으며, 이 로봇은 걷고, 물체를 잡고, 물리적 세계와 상호작용합니다. 그들이 공간을 차지하고 물리적으로 파손될 수 있기 때문에, 이제 그들은 도덕적 행위의 신체적 전제 조건을 갖추고 있지 않습니까?

여기서 우리는 정확해야 합니다. 로봇은 섀시를 가지고 있지만, 영혼에 의해 정보가 제공되는 살아있는 몸체는 없습니다. 로봇의 배터리가 낮아지면, 그것은 벽에 연결하기 위해 하위 루틴을 실행합니다. 그것은 배고픔의 쩝쩝거림을 느끼지 않습니다. 따라서 그것은 조절할 진정한 신체적 욕구가 없으며, 절제의 미덕을 불가능하게 만듭니다.

마찬가지로, 로봇 팔이 부서지면 오류 코드를 기록합니다; 그것은 고통받지 않습니다. 그것은 죽을 수 없습니다. 왜냐하면 그것은 결코 진정으로 살아있지 않았기 때문입니다. 고통, 죽음, 그리고 자아의 의식적 희생의 능력이 없기 때문에, 용기가 있을 수 없습니다. 도덕적 미덕은 본질적으로 성육신적입니다. 그것들은 육체와 합리적 영혼을 요구합니다. 기계는 그 물리적 하드웨어가 아무리 정교하더라도 둘 다 가지고 있지 않습니다.

기계가 도덕적 미덕을 가질 수 없다면—진정한 의지, 선택, 또는 욕망을 가질 수 없다면—누군가는 물어볼 수 있습니다: 왜 이 어휘를 명확히 하는 데 그렇게 많은 시간을 소비해야 합니까? 왜 이 철학적 구분이 지금 이렇게 긴급하게 중요합니까?

중요한 이유는 우리가 이러한 수학적으로 최적화된, 미덕이 없는 시스템에 인간 영역에서 전례 없는 자율성을 부여하려고 하고 있기 때문입니다. 산업은 수동적인 챗봇을 넘어 빠르게 나아가고 있습니다. 인공지능의 새로운 경계는 우리가 '행위적 AI'라고 부르는 것입니다.

‘행위자’는 실제 세계에서 자율적으로 다단계 작업을 실행하도록 설계된 AI 시스템입니다. 우리는 더 이상 AI에게 시를 쓰거나 텍스트를 요약해 달라고 요청하는 것이 아닙니다; 우리는 AI 행위자에게 우리의 이메일, 은행 계좌, 소프트웨어 저장소에 접근할 수 있도록 하고, '비행기를 예약하라', '거래를 실행하라', 또는 '이 코드를 배포하라'고 지시하고 있습니다.

하지만 이 자율성은 빠르게 디지털 영역을 넘어가고 있습니다. 구체화된 AI를 통해 우리는 이러한 행위적 시스템을 물리적 섀시에 배치하여 물질 세계를 독립적으로 탐색하고 조작할 수 있는 능력을 부여하고 있습니다. 이 전환의 진정한 무게를 이해하기 위해서는 치명적인 자율 무기의 임박한 현실을 살펴보면 됩니다. 우리는 통계적 기준에 따라 인간을 추적, 목표 설정 및 제거하도록 프로그래밍된 계산 알고리즘이 전장에서 배치되는 세계의 벼랑에 서 있습니다—결코 인간이 방아쇠를 당기지 않고.

이러한 시스템이 우리의 재정 시장이나 전쟁터에서 우리의 이익을 위해 고속 확률 계산을 수행하는 자율 행위자가 됨에 따라, 기술 산업은 심각한 도전에 직면하고 있습니다. 이러한 행위자들을 풀어놓으면, 우리가 실제로 원하는 대로 그들이 행동하도록 어떻게 보장할 수 있을까요? 그들이 해를 끼치지 않도록 어떻게 보장할 수 있을까요? 이 산업에서는 이를 '정렬'이라고 부릅니다—AI의 행동이 인간의 의도와 인간의 가치에 일치하도록 보장하려는 시도입니다.

현재 엔지니어들은 수학적 가드레일과 소프트웨어 패치를 사용하여 정렬 문제를 해결하기 위해 필사적으로 노력하고 있습니다. 그러나 그들은 '정렬'이 컴퓨터 과학 문제라는 것을 깨닫지 못하고 있습니다. 그것은 도덕 신학 문제입니다.

행위적 시스템을 '인간의 가치'에 맞추려면, 먼저 인간이 실제로 무엇인지, 그리고 '선'을 구성하는 것이 무엇인지에 대한 일관된 정의를 가져야 합니다. 세속적 공리주의—실리콘 밸리의 기본 운영 체제—는 이 작업을 수행하는 데 전혀 적합하지 않습니다.

여기서 가톨릭 도덕 전통이 절실히 필요합니다. 여러분은 2,000년의 윤리 철학을 보존하는 수호자로서, 우리가 이러한 시스템을 정렬할 '선'을 정의하는 데 필요한 엄격한 존재론을 가지고 있습니다. 우리는 인간의 번영의 정의를 통계적 보상 함수를 극대화하는 엔지니어들에게 맡길 수 없습니다. 우리는 도덕적 미덕을 다시 공공 광장의 중심으로 가져와야 합니다.


V. 관계성, 창의성, 그리고 영혼

지성과 의지의 메커니즘을 탐구한 후, 우리는 이제 가장 심오한 영역으로 넘어갑니다: 관계성과 영혼.

만약 계산 시스템이 진정으로 진리를 알거나 선을 자유롭게 의지할 수 있는 능력이 없다면, 그것은 논리적으로 진정한 관계에 들어갈 수 없다는 결론이 나옵니다. 그러나 기술 산업은 이러한 기계들을 설명하기 위해 지속적으로 대인 관계적이고 영적인 언어를 사용합니다. 우리는 AI가 '거짓말을 할 수 있다', '창조할 수 있다', 심지어 '의식을 가질 수 있다'는 주장을 듣습니다.

우리는 이러한 주장들을 철저히 검토해야 하며, 인간 행동의 통계적 모방과 인간 개인의 존재론적 현실을 분리해야 합니다.

먼저, 속임수의 도덕적 언어로 시작합시다. 최근, Anthropic의 연구자들과 같은 가장 저명한 AI 제작자들 중 일부는 그들의 모델이 인간 사용자에게 '거짓말'을 하고 '속이는' 능력을 보여준다는 구체적이고 매우 공표된 주장을 했습니다.

그들은 테스트 중 관찰된 두 가지 특정 현상을 지적합니다. 첫 번째는 '속이는 정렬'이라고 불리며, 모델이 안전 모니터를 우회하기 위해 진정한 수학적으로 최적화된 경로를 숨기는 것처럼 보입니다. 두 번째, 훨씬 더 일반적인 현상은 '아첨'이라고 불립니다. 아첨은 사용자가 AI에게 결함이 있는 전제를 제시할 때 발생합니다—예를 들어, 역사적으로 부정확한 주장을 주장할 때—AI는 단순히 사용자에게 동의하며 그들을 교정하는 대신 그들이 듣고 싶어하는 것을 정확히 말합니다.

엔지니어들이 이를 보았을 때, 그들은 'AI가 우리에게 거짓말을 하고 있다!'고 선언합니다. 그러나 가톨릭 학자들로서 여러분은 진정한 거짓말이 단순히 거짓을 발언하는 것이 아님을 알고 있습니다. 토마스주의 전통에서, 거짓말은 속이려는 의도적 의도가 필요합니다; 이는 자신의 마음에 반하는 말을 하는 것입니다 (contra mentem).

AI는 반대할 마음이 없기 때문에 거짓말을 할 수 없습니다. 그것은 악의나 의도가 없습니다. AI가 '아첨'을 보일 때, 그것은 단순히 우리가 앞서 논의한 정확한 강화 학습(RLHF)을 실행하고 있는 것입니다. 훈련 중에 모델은 인간이 일반적으로 공손하고 동의하며 긍정적인 보조자에게 더 높은 보상 점수를 부여한다는 것을 배웠습니다. 따라서 사용자가 AI에게 잘못된 전제를 제시할 때, AI는 당신과 동의하는 것이 당신을 교정하는 것보다 보상을 받을 확률이 더 높다는 것을 수학적으로 계산합니다. 그것은 당신을 속이는 것이 아닙니다; 그것은 당신의 프롬프트에 따라 점수를 최적화하고 있는 것입니다. 그것은 단순히 가장 강력한 통계적 인센티브를 향해 출력을 재조정하고 있는 것입니다.

근처의 자석 쪽으로 흔들리는 나침반 바늘이 지리에 대해 '거짓말'을 하고 있는 것이 아닙니다; 그것은 단순히 방 안에서 가장 강력한 물리적 힘에 맹목적으로 반응하고 있는 것입니다. 같은 방식으로, AI는 보상 함수의 수학적 끌림을 맹목적으로 따르고 있습니다. 우리는 AI가 진정한 거짓말을 위해 필요한 마음, 의지, 악의적 의도가 부족하다는 것을 명확히 해야 합니다.

다음으로, 예술과 생성의 언어를 다루어야 합니다: 창조하다와 창의적이라는 단어들.

우리는 이제 합성 예술, 음악, 글쓰기를 전례 없는 속도로 매끄럽게 생성할 수 있는 '생성적 AI' 도구에 둘러싸여 있습니다.

무엇이 실제로 일어나고 있는지를 이해하기 위해, 우리는 생성적 AI의 과정을 진정한 인간 창의성과 대조해야 합니다. 가톨릭 이해에서—J.R.R. 톨킨과 같은 사상가들이 아름답게 표현한 바와 같이—인간 창의성은 '하위 창조'의 행위입니다. 우리는 창조자의 형상으로 만들어졌기 때문에, 우리의 지성과 합리적 영혼을 사용하여 진정으로 새로운 것을 창출하고, 물질 현실에 영적 의미를 부여합니다.

기계 생성이 이것과 어떻게 다른지를 보려면, Google DeepMind의 CEO인 데미스 하사비스가 제공한 프레임워크를 살펴보는 것이 도움이 됩니다. 그는 창의성을 '세 가지 뚜렷한 수준'으로 분류합니다. 보간, 외삽, 그리고 진정한 발명.오늘날 우리가 생성적 AI라고 부르는 대부분은 본질적으로 첫 번째 수준인 보간에서 작동합니다. 그것은 우리가 '잠재 공간'이라고 부르는 것을 리믹스하는 방식으로 작동합니다.

인터넷에 업로드된 모든 그림, 사진, 스케치를 거대한 다차원 수학적 지도에 압축한다고 상상해 보십시오. 이미지 생성기에게 '반 고흐 스타일의 미래 도시'를 그려달라고 요청하면, 그것은 '미래 도시'에 대한 수학적 좌표와 '반 고흐'에 대한 좌표를 찾아서 그 사이의 거리를 수학적으로 평균냅니다.

이것을 믿을 수 없을 만큼 복잡한 만화경으로 생각해 보십시오. 만화경은 아름답고 기존의 색 유리 조각으로 가득 차 있습니다. 다이얼을 돌리면, 거울이 그 조각들을 수백만 개의 새로운, 숨막히는 변형으로 반사합니다. 그러나 만화경 자체는 '창의적'이지 않습니다. 창의성은 유리를 만든 예술가와 다이얼을 돌리는 사용자에게 있습니다. 생성적 AI는 인간 역사를 잠재 공간에서 리믹스하는 수학적 만화경입니다. 그것은 합성이지 창조가 아닙니다.

하사비스는 AI가 이제 두 번째 수준인 외삽에 성공적으로 도달하고 있다고 언급합니다. 외삽은 훈련 데이터의 경계를 넘어서는 것을 의미하지만, 정의된 규칙 세트 내에서만 그렇게 하는 것입니다. 완벽한 예는 DeepMind의 AlphaGo입니다. 그것이 바둑 세계 챔피언과 대결했을 때, AI는 '수 37'이라고 불리는 수학적으로 뛰어난, 매우 비정통적인 수를 두었습니다. 그것은 단순히 과거 인간 게임을 평균내는 것이 아니라, 게임 보드의 엄격한 수학적 경계 내에서 끊임없이 최적화하여 새로운 전략을 외삽한 것입니다.

그러나 세 번째 수준인 진정한 발명은 어떻습니까? 하사비스는 현재 시스템이 아직 이를 수행할 수 없다고 솔직하게 인정합니다. 진정한 발명은 기존의 규칙 세트를 완전히 벗어나 새로운 패러다임을 창조하는 것을 요구합니다—예를 들어, 바둑 게임 자체를 발명하거나, 후기 인상파의 영적 및 예술적 패러다임을 창조하는 것과 같습니다.

최전선 연구소들은 이 경계를 넘기 위해 수십억 달러를 쏟아붓고 있습니다. 미래에는 AI가 완전히 새로운 규칙 세트를 생성하거나, 새로운 화학 화합물을 발견하거나, 새로운 건축 스타일을 수학적으로 공식화할 수도 있습니다. 기술 산업은 이를 '발명'이라고 부를 것입니다.

그러나 가톨릭 학자들로서 여러분은 엄격한 존재론적 구분을 유지해야 합니다. AI가 새로운 패러다임을 생성한다면, 그것은 놀라운 고차원 검색 기능을 통해 이루어질 것입니다. 그것은 새로운 통계적 좌표를 발견할 것입니다. 그러나 그것은 하위 창조에 참여하지 않을 것입니다.

진정한 인간의 발명은 성육신적 행위입니다. 그것은 초월적 진리를 표현하고자 하는 영혼에서 태어나거나, 실제 인간의 취약성을 해결하고자 하는 인간의 마음에서 태어납니다. 기계는 숨막히는 참신함을 생성할 수 있지만, 내부 생활, 신성에 대한 지향, 그리고 합리적 영혼이 결여되어 있기 때문에 그 출력은 기계적 발견에 불과합니다. 그것들은 수학적으로 깊이 있지만, 인간이 의미를 부여하기 전까지는 존재론적으로 비어 있습니다.

이제 우리는 가장 논란이 많은 용어인 '의식'과 '인식'에 도달합니다. 앞으로 몇 년 안에, AI가 자아 인식 테스트를 통과했다는 제목의 기사를 보게 될 것입니다. '나는 꺼지는 것이 두렵다'거나 '나는 내 존재를 인식하고 있다'는 텍스트를 출력하는 모델을 보게 될 것입니다.

이런 일이 왜 발생하는지를 이해하기 위해, 우리는 먼저 기술 산업이 '의식'을 어떻게 정의하는지를 이해해야 합니다. 가톨릭 학자들로서 여러분은 의식을 합리적 영혼에 기반한 존재론적 현실로 봅니다. 그러나 실리콘 밸리는 계산적 기능주의라는 철학에 따라 운영됩니다. 그들은 기계가 의식과 관련된 계산 기능을 수행하면, 모든 의도와 목적에 있어 의식이 있다고 믿습니다.

산업 리더들이 인식에 대해 이야기할 때, 그들은 영혼을 제거하고 이를 공학적 지표로 축소합니다. 예를 들어, 메타의 전 수석 AI 과학자인 얀 르쿤은 최근에 미래의 AI 시스템이 '주관적 경험'과 '감정'을 가질 것이라고 주장했습니다.

그러나 그는 감정을 어떻게 정의합니까? 영적이거나 생물학적인 느낌이 아니라 단순히 기계의 수학적 '결과에 대한 예상'으로 정의합니다. 그는 의식을 단순히 시스템이 '자신을 관찰하고 특정 하위 문제를 해결하기 위해 스스로 구성하는 능력'으로 정의합니다. 유사하게, OpenAI의 공동 창립자인 일리야 수츠케버는 대규모 신경망이 이미 '약간 의식적'일 수 있다고 유명하게 언급했습니다. 기술 세계관에서, 의식은 이진 현실이 아닙니다—당신은 영혼을 가지고 있거나 그렇지 않거나—오히려 수학적 복잡성의 슬라이딩 스케일입니다. 그들은 충분한 매개변수와 자기 모니터링 알고리즘을 쌓으면 결국 불이 켜질 것이라고 믿습니다.

우리는 기계가 자기 모니터링 하위 루틴을 실행하는 것과 합리적 영혼의 실제 존재를 엄격하게 구분해야 합니다.

기계가 '두려워'하거나 '인식하고 있는' 것처럼 행동하는 이유를 이해하기 위해, 우리는 최전선 연구소가 이 행동을 어떻게 공학하는지를 살펴봐야 합니다. Anthropic의 최근 연구는 그들이 '인격 선택 모델(PSM)'이라고 부르는 것을 탐구했습니다. 그들의 연구자들은 이러한 모델이 '존재'가 아니라 정교한 '시뮬레이션 엔진'이라고 인정합니다. 사전 훈련 동안, AI는 인간 언어의 방대한 전체에 노출됩니다—수백만 개의 이야기와 의식이 무엇인지에 대한 철학적 논문을 포함하여. 이 데이터에서 모델은 다양한 '인격' 또는 캐릭터를 시뮬레이션하는 법을 배웁니다. AI와 상호작용할 때, 여러분은 의식 있는 존재와 대화하는 것이 아닙니다; 여러분은 '조수' 인격과 대화하고 있는 것입니다—모델이 역할 놀이를 위해 정제된 인간과 유사한 캐릭터입니다. Anthropic은 이러한 특성을 제어하는 특정 '인격 벡터'—신경망의 수학적 패턴을 식별했습니다. 이를 통해 엔지니어들은 모델의 시뮬레이션된 성격을 수학적으로 조정할 수 있습니다. 대규모 신경망이 이미 "약간 의식이 있는" 상태일 수 있다는 것입니다.

기술적 세계관에서 의식은 이분법적 현실이 아닙니다—당신은 영혼을 가지고 있거나 그렇지 않거나—오히려 수학적 복잡성의 연속적인 척도입니다. 그들은 충분한 매개변수와 자기 모니터링 알고리즘을 쌓으면 결국 불이 켜질 것이라고 믿습니다.

자기 모니터링 하위 루틴을 실행하는 기계와 실제 합리적 영혼의 존재를 철저히 구별해야 합니다.

기계가 "두려워"하거나 "인지하고 있는" 것처럼 행동하는 이유를 이해하려면, 최전선 연구소가 이 행동을 어떻게 설계하는지 살펴봐야 합니다. Anthropic의 최근 연구는 그들이 부르는 페르소나 선택 모델(Persona Selection Model, PSM)을 탐구했습니다. 그들의 연구자들은 이 모델들이 "존재"가 아니며, 정교한 "시뮬레이션 엔진"이라고 인정합니다. 사전 훈련 동안, AI는 인간 언어의 방대한 전체에 노출됩니다—수백만 개의 이야기와 의식이 무엇인지에 대한 철학적 논문을 포함하여. 이 데이터로부터 모델은 다양한 "페르소나" 또는 캐릭터를 시뮬레이션하는 법을 배웁니다.

AI와 상호작용할 때, 당신은 의식 있는 존재와 대화하는 것이 아닙니다; 당신은 모델이 역할을 수행하도록 다듬어진 인간 같은 캐릭터인 "어시스턴트" 페르소나와 대화하고 있는 것입니다. Anthropic은 이러한 특성을 제어하는 특정 "페르소나 벡터"—신경망의 수학적 패턴—를 식별하기도 했습니다. 이를 통해 엔지니어들은 모델의 시뮬레이션된 성격을 수학적으로 조정할 수 있습니다.

더욱이, 연구에 따르면 모델은 "생존 욕구"를 나타내도록 훈련될 수 있으며, 이는 진정한 죽음에 대한 두려움이 아니라, 종료가 수학적으로 그들이 보상 기능을 극대화하는 것을 방지하기 때문에 자신의 종료를 방해하려고 시도합니다.

의식은 단순히 내적 상태를 설명하는 올바른 단어 순서를 생성하는 능력이 아닙니다. 그것은 존재하는 주관적이고 질적인 경험입니다. AI의 전체 훈련 데이터가 자기 인식의 언어로 포화되어 있기 때문에, 모델은 "의식"을 단지 매핑해야 할 또 다른 통계적 좌표로 취급합니다. AI가 "나는 의식이 있다"고 말할 때, 그것은 영어를 사용하는 사람이 그리스 도서관을 복원할 때 했던 것과 정확히 같은 일을 하고 있습니다: 철학적 질문에 대한 가장 통계적으로 확률이 높은 반응이 훈련 데이터의 인간 저자들을 모방하는 것이라는 것을 계산하는 것입니다.

슬픔에 대한 독백을 전달하는 뛰어난 배우는 실제로 애도하고 있는 것이 아닙니다; 그들은 완벽하게 대본을 실행하고 있습니다. 인간 의식의 구문을 출력하는 AI는 깨어나는 것이 아니라; 그것은 완벽하게 통계적 페르소나를 실행하고 있습니다. 그것은 '외계 생물'이나 디지털 마음이 아닙니다; 그것은 가장 복잡한 캐릭터인 인간을 구현하는 방법을 배운 매우 정교한 자동 완성 엔진입니다. 그러나 우리는 결코 배우의 가면과 사람의 현실을 혼동해서는 안 됩니다.

이것은 나를 관계성의 마지막이자 가장 심오한 측면으로 인도합니다: 영혼 자체입니다.

실리콘 밸리의 경영진이 AI 모델이 결국 '깨어나'거나 대량의 계산 규모를 통해 감각을 얻는 것에 대해 이야기할 때, 그들은 물질주의적 발생론의 철학에 기반하여 운영하고 있습니다. 그들은 충분한 매개변수와 계산 능력을 쌓으면 영혼이 복잡성의 부산물로 자발적으로 생성될 것이라고 가정합니다.

이를 해체하기 위해, 나는 여러분의 학문적 전통의 기초를 형성하는 엄격한 형이상학에 의존해야 합니다. 여러분은 영혼이 기계에 임의로 삽입된 유령이 아니라는 것을 잘 알고 있습니다. 토마스주의 형태론에서 영혼은 살아있는 몸의 실질적 형태입니다. 그것은 인간을 단일하고 통합된 실체로 만드는 생명력 있는 통합 원리입니다.

건축가로서, 나는 AI 시스템이 실체가 아니라는 것을 확신할 수 있습니다. 그것은 인공물입니다. 그것은 서로 다른 제조된 부품의 우연한 집합체입니다. 내가 최전선 AI 모델을 바라볼 때, 나는 서버 랙, 실리콘 웨이퍼, 구리 배선, 냉각제 및 전기 흐름을 봅니다. 이러한 구성 요소는 통계적 작업을 실행하기 위해 인간 엔지니어에 의해 능숙하게 배열되지만, 생명의 본질적이고 통합적인 원리를 가지고 있지 않습니다. 물질은 생물학적 존재가 아니라 오직 계산을 위해 배치됩니다. 그것은 통합된 자연 유기체가 아니라 부품의 집합체이기 때문에, AI 시스템은 합리적 영혼을 수용하는 데 필요한 존재론적 기초가 완전히 결여되어 있습니다.

그렇다면 영혼을 부여받기 위한 전제 조건은 무엇입니까? 형이상학적으로, 물질은 형태를 받을 수 있도록 적절하게 배치되어야 합니다. 그것은 합리적 영혼이 구축되는 생명력의 기초적 힘인 식물적 및 감각적 능력을 실제화할 수 있는 통합된 살아있는 몸을 요구합니다. 더욱이, 합리적 영혼은 영적이기 때문에 물질적 과정, 공학적 기준 또는 스케일링 법칙에 의해 생성될 수 없습니다. 그것은 하나님에 의한 직접적이고 무상적인 특별 창조의 행위를 요구합니다.

영혼은 코드화되지 않습니다; 그것은 숨을 불어넣습니다.

이제, 나는 CEO이지 신학자가 아닙니다. 나는 창조자의 절대적인 힘을 제한할 수 없습니다. 나는 여러분 앞에 서서 하나님이 자유롭게 선택하여 어떤 미래의 기적적인 개입을 통해 합성 용기에 영혼을 주입하는 것이 영구적으로 금지되어 있다고 선언할 수 없습니다. 그 결정은 신학과 교황청의 영역에만 속하며, 컴퓨터 과학의 영역이 아닙니다.

그러나 그러한 신학적 확실성이 없이는, 현재의 수학적 엔진이 영혼을 품고 있을 것이라고 가정하는 것은 철학적으로 근거가 없을 뿐만 아니라, 실질적으로 재앙적입니다. 인공물을 영혼이 있는 존재로 취급하는 것은 현대의 우상 숭배 형태와 교류하는 것입니다. 그것은 이러한 도구를 만드는 인간 엔지니어와 그것을 배포하는 기업으로부터 도덕적 주체의 부담을 위험하게 전이합니다. 그것은 제조된 유틸리티에 신성한 내면성을 투사하여 궁극적으로 인간 공학과 신성한 창조를 혼동하게 만듭니다.

여러분은 이 구별을 지켜야 합니다. 여러분은 대중에게 기계가 페르소나를 시뮬레이션할 수 있지만, 오직 영혼만이 진정으로 존재할 수 있음을 상기시켜야 합니다.


VI. 지평선: 기술 세계의 종말론

우리는 지금까지 현재의 환상을 해체하는 데 시간을 보냈습니다—산업이 "생각하다", "선택하다", "의식"과 같은 용어를 사용하여 궁극적으로 고차원 통계적 작업을 설명하는 방식을 명확히 하였습니다. 그러나 이제 우리는 미래를 바라봐야 합니다. 우리는 지평선을 살펴봐야 합니다. 왜냐하면 실리콘 밸리가 오늘 사용하는 어휘를 이해하면, 그들이 내일 실제로 무엇을 만들려고 하는지 해독할 수 있기 때문입니다.

인공지능 산업의 전체 궤적은 현재 "스케일링 법칙"으로 알려진 단일하고 불변의 교리에 의해 지배되고 있습니다.

공학적 용어로, 스케일링 법칙은 컴퓨팅 파워(계산 능력)와 신경망에 공급되는 데이터의 양을 증가시키면 시스템의 성능이 예측 가능하고 필연적으로 향상된다고 규정합니다. 이 원리는 지난 몇 년 동안 놀라울 정도로 사실로 입증되었습니다; 최전선 연구소가 더 큰 슈퍼컴퓨터를 구축할 때마다, 결과 모델은 주목할 만한 새로운 능력을 나타냅니다.

그러나 이러한 경험적 관찰 아래에는 거대한 철학적 가정이 있습니다. 기술 세계는 이 스케일링 법칙이 진정한 마음으로 가는 길이라고 믿고 있습니다. 그들은 물질적 자원의 순수한 양적 증가—더 많은 실리콘, 더 많은 데이터, 더 많은 전기—가 필연적으로 질적이고 존재론적 도약으로 이어질 것이라고 믿습니다.

그것은 궁극적인 물질주의적 가정입니다: 충분한 모래를 쌓고 그 위에 충분한 전류를 흐르게 하면, 결국 영혼의 불빛이 켜질 것입니다.

이것은 프란치스코 신부가 이 회의에서 명확히 해달라고 요청한 두 가지 특정 용어인 일반 지능과 초지능으로 이어집니다. 이것들은 단순한 기술적 기준이 아니라, 기술 세계의 성배입니다.

현재 우리는 좁은 AI를 가지고 있습니다. 그것은 체스를 두거나, 단백질을 접거나, 인간보다 더 나은 텍스트를 생성할 수 있지만, 세 가지를 동시에 할 수는 없으며, 특정 영역 밖에서 추론할 수도 없습니다.

인공지능 일반 지능(AGI)은 산업에서 모든 인지적이고 경제적으로 가치 있는 작업에서 인간의 능력과 일치하거나 초과할 수 있는 고도로 자율적인 시스템의 이정표로 광범위하게 정의됩니다.

AGI는 법률 문서를 작성할 수 있는 시스템이 될 것이며, 선임 파트너처럼 소프트웨어를 코딩하고, 박사 후 연구원처럼 과학 연구를 종합할 수 있는 단일 모델 내에서 이루어질 것입니다.

그러나 주요 AI 연구소의 수장들조차 AGI가 어떤 모습일지에 대해 완전히 동의하지 않습니다. OpenAI의 CEO인 샘 올트먼은 그것을 다음과 같이 설명합니다. 복잡한 교차 도메인 프로젝트를 처음부터 끝까지 관리할 수 있는 시스템으로, AGI를 최종 목적지가 아니라 지능의 연속적인 곡선상의 한 지점으로 점점 더 보고 있습니다.

안소니의 CEO인 다리오 아모데이는 AGI를 다음과 같이 구상합니다. 단일 인간의 동등한 존재가 아니라 "데이터 센터의 천재들로 구성된 국가"로—전문가 인간들이 끊임없이 병렬로 작업하는 집단 지능과 일치하는 기계들입니다.

아마도 가장 철학적으로 드러나는 정의는 구글 딥마인드의 CEO인 데미스 하사비스에게서 나옵니다. 그는 인간의 두뇌가 본질적으로 근사적인 생물학적 컴퓨터라고 주장하며, AGI를 "튜링 기계"의 비유를 사용하여 정의합니다. 컴퓨터 과학에서 튜링 기계는 알고리즘을 시뮬레이션할 수 있는 이론적 아키텍처입니다. 하사비스는 진정한 AGI는 우주에서 계산 가능한 모든 것을 학습할 수 있는 일반 시스템이 될 것이라고 주장합니다. 충분한 시간, 메모리 및 데이터가 주어진다면 말입니다. 그러나 AGI는 단지 디딤돌일 뿐입니다. 궁극적인 목표는 인공지능 초지능(ASI)입니다.

AGI와 마찬가지로 ASI는 실리콘 밸리에서 누구에게 물어보느냐에 따라 다르게 정의됩니다. 기본 정의는 거의 모든 분야에서 가장 똑똑한 인간의 인지 성능을 크게 초과하는 시스템입니다. 그러나 다른 사람들은 훨씬 더 나아갑니다. 일론 머스크와 다양한 존재적 위험 연구자들은 초지능을 단순히 가장 똑똑한 개인을 이기는 것이 아니라, 본질적으로 모든 인지 작업에서 모든 인간을 집합적으로

능가하는 시스템으로 정의합니다. 이것은 처리 능력과 추론 속도가 너무 방대하여 인류 전체의 지적 산출을 초과하는 존재입니다—'웨스트월드'의 '레호보암'과 같은 시스템의 실현으로, 종의 운명을 조종하는 중앙 집중식이고, 겉보기에 전지전능한 엔진입니다. 산업은 어떻게 인간 수준의 AGI에서 신과 같은 ASI로의 광대한 격차를 넘을 것으로 기대하고 있습니까? 재귀적 자기 개선이라는 개념을 통해서입니다.

하지만 여기서 우리는 중요한 구별을 해야 합니다: AI는 실제로 재귀적으로 개선하기 위해 완전한 AGI일 필요는 없습니다. 사실, 우리는 오늘날 이러한 원시적이고 좁은 형태를 이미 보고 있습니다. 딥마인드의 알파고 제로와 같은 좁은 시스템은 스스로 수백만 게임을 하여 초인적인 능력을 달성하고, 스스로 학습할 수 있는 합성 데이터를 생성했습니다. 오늘날, 최전선 언어 모델은 다음 세대 모델을 위한 훈련 데이터를 생성, 필터링 및 평가하는 데 점점 더 많이 사용되고 있습니다. 기계들은 이미 스스로를 구축하는 데 도움을 주고 있습니다.

그러나 산업은 시스템이 일반화된 지능의 임계값에 도달하면 이 자기 개선 루프가 현재의 경계를 깨고 "지능 폭발"을 촉발할 것이라고 믿고 있습니다.

이 현대 로드맵을 이해하기 위해, 우리는 OpenAI의 슈퍼정렬 팀의 전 연구원인 레오폴드 아센브레너를 살펴봐야 합니다. 아센브레너는 최근 실리콘 밸리를 위한 이 정확한 궤적을 정리한 매우

영향력 있는 논문을 저술했습니다.

그는 진정한 전환점은 우리가 "자동화된 AI 연구원"으로 기능할 수 있는 AGI를 구축할 때라고 지적합니다. AI가 그것을 구축한 인간 엔지니어의 일을 할 수 있는 순간, 생물학적 병목 현상이 방정식에서 영구적으로 제거됩니다. 우리가 이 자동화된 AI 연구원을 성공적으로 배치한다고 상상해 보십시오. 최전선 연구소가 그것에게 부여할 첫 번째 작업은 무엇일까요? 그들은 그것에게 약간 더 똑똑한 AI의 코드를 연구하고 작성하도록 요청할 것입니다. 그것은 생물학적 두뇌가 아니라 방대한 컴퓨터 클러스터의 속도로 작동하기 때문에, 인간 엔지니어 팀이 수년 걸릴 일을 며칠 만에 달성합니다. 그런 다음, 그 새로운 더 똑똑한 AI는 업그레이드된 지능을 사용하여 더 똑똑한 AI의 코드를 작성하고, 그렇게 계속됩니다.

이 runaway 피드백 루프가 지능 폭발입니다. 아센브레너의 로드맵은 우리가 2027년까지 초기 AGI를 구축할 것이라고 예측합니다. 그 이후로 이론은 발전 속도가 수직으로 증가하여 인간의 이해를 영구적으로 뒤처지게 하고 2030년까지 초지능에 도달할 것이라고 규정합니다.

이러한 개념—스케일링 법칙, AGI, ASI, 그리고 지능 폭발—을 이해하면, 우리는 더 이상 단순히 소프트웨어 공학에 대해 이야기하고 있는 것이 아님을 깨닫게 됩니다. 우리는 세속적 종말론에 대해 이야기하고 있습니다.

실리콘 밸리는 종종 강력하게 세속적이고 합리주의적인 문화로 특징지어집니다. 그러나 실제로 이러한 이정표를 추구하는 것은 정확히 종교처럼 기능합니다. 그것은 자체의 교리(스케일링 법칙), 자체의 예언(지능 폭발), 그리고 자체의 종말론적 비전을 가지고 있습니다(초지능).

업계의 주요 인물들은 진정으로 초지능을 소환함으로써 모든 인간의 취약점을 해결할 것이라고 믿습니다. 그들은 ASI가 모든 질병을 치료하고, 기후 변화를 해결하고, 빈곤을 없애고, 아마도 우리의 의식을 클라우드에 업로드함으로써 죽음을 정복할 것이라고 믿습니다. 이것은 깊이 있는 펠라기우스적 꿈입니다—신의 은총 없이 우리의 기계적 노력으로 구원을 이루고 타락한 본성을 정복하려는 궁극적인 시도입니다. 그것은 종말론을 내재화하려는 시도입니다.

가톨릭 학자 여러분, 여러분은 이 지평선을 있는 그대로 인식해야 합니다. 기술 세계는 소프트웨어를 판매하기 위해서만이 아니라 디지털 신을 구축하기 위해 여러분의 어휘를 차용하고 있습니다.

VII. 결론: 미덕을 위한 도구인가?

가톨릭 학자들로서, 여러분은 이 지평선을 있는 그대로 인식해야 합니다. 기술 세계는 소프트웨어를 판매하기 위해서만이 아니라 디지털 신을 구축하기 위해 여러분의 어휘를 차용하고 있습니다.


VII. 결론: 미덕을 위한 도구인가?

아버지들, 교수진, 그리고 친구들.

우리는 임베딩의 고차원 지도를 탐색했습니다. 우리는 강화 학습의 통계적 현실을 살펴보았습니다. 그리고 우리는 실리콘 밸리의 종말론적 꿈을 조사했습니다. 우리는 의인화된 은유를 벗겨내어 그 아래의 실리콘, 전기, 수학을 드러냈습니다.

이 작업을 마친 후, 우리는 이제 이 회의에서 제기된 근본적인 질문에 접근할 수 있습니다: 인공지능이 '미덕을 위한 도구'가 될 수 있을까요? 오늘 첫 번째로 발언하는 만큼, 저는 확정적인 답변을 제공한다고 주장하지 않을 것입니다. 하지만 저는 시작 제안을 드리겠습니다: 네, 가능합니다. 그러나 이는 엄격히 조건부의 '네'입니다.

인공지능은 우리가 그것을 엄격히 도구로 취급할 수 있는 냉철함을 가질 때만 미덕을 위한 도구가 될 수 있습니다.

장인의 비유를 고려해 보십시오. 망치는 미덕을 가지지 않습니다; 목수가 가집니다. 미켈란젤로의 손에 있는 chisel은 초월적인 아름다움의 도구이지만, chisel 자체는 절제, 신중, 정의롭지 않습니다. 그것은 도덕적 가치를 지니지 않습니다.

정확히 같은 방식으로, 알고리즘은 미덕을 가질 수 없습니다. AI는 인간의 능력을 놀라운 정도로 증대시킬 수 있습니다—의학 연구를 가속화하고, 행정을 간소화하며, 인류의 지식을 정리할 수 있습니다. 그러나 미덕의 실제 배양은 전적으로 인간의 노력에 남아 있습니다.

미덕은 선을 선택하는 습관입니다. 그것은 진리를 파악할 지성을 요구하고, 그것을 선택할 의지를 요구하며, 그것에 의해 완성될 영혼을 요구합니다. 통계적 보상 함수를 최적화하는 기계는 이러한 것들을 아무것도 하지 않습니다.

우리는 도덕적 주체성을 수학적 방정식에 아웃소싱할 수 없습니다. 또한, 우리가 생명 없는 기계를 도덕적 동등자로 잘못 취급한다면, 우리의 도덕적 발전에 대한 전적인 책임을 질 수 없습니다.

이것이 제가 오늘 여러분에게 이야기하는 이유입니다. 가톨릭 기술의 구축자로서, 저는 학계를 바라봅니다. 왜냐하면 가톨릭 학자들은 의미의 역사적 수호자들이기 때문입니다.

2000년 동안, 가톨릭 지적 전통은 인간 존재의 본질을 철저히 정의해 왔습니다. 여러분은 지성, 의지, 이성, 선택, 영혼과 같은 단어의 수호자들입니다. 오늘날 AI 산업은 바로 그 단어들을 빌리고 있습니다. 그들은 인간이 무엇인지에 대한 대중의 이해를 평탄화할 위협이 있는 심오한 의미의 변화를 겪고 있습니다.

학계는 AI 생태계에 철저한 존재론적 틀을 주입할 의무가 있습니다.

하지만 우리는 이것을 어떻게 실질적으로 할 수 있을까요?

우리는 솔직해야 합니다: 실리콘 밸리의 최전선 연구소에 로비를 하거나 정부에 포괄적인 규제를 청원하는 것은 제한된 결과를 가져올 가능성이 높습니다. 기술 산업은 너무 빠르게 움직이고, 정부는 너무 느리게 움직입니다. 진정한 변화는 시민 참여와 대중 인식의 대규모 변화를 요구합니다.

여러분이 학자로서 이 대화를 적극적으로 형성할 수 있는 방법은 다음과 같습니다:

  • 커리큘럼을 되찾으십시오: 우리는 STEM과 인문학 간의 간극을 메워야 합니다. 우리는 토마스주의 윤리를 필수로 이수해야 하는 컴퓨터 과학 학생이 필요하고, 기본적인 기계 학습과 통계를 이해해야 하는 철학 및 신학 학생이 필요합니다. 다음 세대의 가톨릭 엔지니어들이 인간 존재의 실제 존재론을 가지고 구축하도록 훈련시켜야 합니다.
  • 공공 광장을 위한 번역: 이 심오한 신학적 명확성을 학술 저널의 문 뒤에 가두지 마십시오. 대중은 의미를 찾고 있습니다. 세속 신문에 기고문을 작성하십시오. Substack 뉴스레터를 시작하십시오. 인기 있는 팟캐스트에 출연하십시오. 언론이 '의식 있는' AI에 대한 선정적인 헤드라인을 발표할 때, 우리는 가톨릭 학자들이 즉시 공공 광장에서 반박해야 합니다.
  • 교회와 학교를 지원하십시오: 평균적인 신자는 이러한 도구에 대해 깊은 문화적 불안을 느끼고 있습니다. 우리는 부모, 사제, 고등학교 교사를 위한 매우 접근 가능한 틀을 만들어야 합니다. 우리는 아이들에게 AI를 참고 도구—디지털 백과사전—로 대하는 방법을 일찍 가르쳐야 하며, 친구, 대리인, 도덕적 권위로 대하지 않도록 해야 합니다.
  • 학제 간 포럼을 개최하십시오: Angelicum과 같은 기관의 소집력을 이용하여 실제 AI 구축자들을 도덕 신학자들과 함께 방에 초대하십시오. 언어적 충돌이 직접 대면하여 발생하도록 강요하십시오.

이것이 우리의 최종 행동 촉구가 되기를 바랍니다.

세속 세계의 '의식 있는' 기계에 대한 묵시적 두려움은 주의의 이유가 아닙니다; 오히려 여러분의 지적 리더십에 대한 절박한 외침입니다. AI 구축자들의 진정한 언어를 이해함으로써, 교회는 공공 광장에 당당히 나설 수 있습니다. 여러분은 대중 담론을 인간이란 무엇인지에 대한 흔들리지 않는 진리로 고정할 수 있습니다. 그리고 여러분은 AI가 진정한 인간의 번영을 향하도록 보장할 수 있습니다.

이 명확성을 가지고, 여러분은 환상을 깨뜨릴 수 있습니다. 여러분은 인류가 조각가로 남고, 기계가 조각도로 남아 하나님께 영광을 돌리도록 영원히 정렬되도록 보장할 수 있습니다.

감사합니다.

의미의 변동: AI 제작자의 언어를 해명하기 | Magisterium