Magisterium AI

語義漂移:揭開 AI 建設者語言的神秘面紗

人工智慧能成為美德的工具嗎?

2026 年 3 月 5 日,Longbeard 的首席執行官 Matthew Harvey Sanders 在多米斯學院的「人工智慧:美德的工具?」活動中發表了題為「語義漂移:揭開人工智慧建設者語言的神秘面紗」的演講,該活動在羅馬的聖托馬斯阿奎那教皇大學(Angelicum)舉行。

在這次演講中,他批評了矽谷開發者用來描述機器學習的誤導性人性化詞彙。他主張,為了正確使用人工智慧,我們必須重新獲得嚴謹的天主教本體論,並將這些系統嚴格視為機械工具,而非道德主體。


I. 引言:語義漂移與公共廣場

各位神父、尊敬的教職人員和 Angelicum 的來賓,感謝多米斯學院召集這次討論。

當我們跨越門檻進入一個新時代,從資訊時代的確定性走向智慧時代的廣闊未知宇宙時,我們面臨著深刻的導航挑戰。在我們能回答這次會議核心的緊迫問題——人工智慧是否真的能作為「美德的工具」——之前,我們必須首先面對一個挑戰,這不是軟體工程的挑戰,而是詞彙的挑戰。

我們當前對人工智慧的焦慮核心是一場深刻的語言碰撞。矽谷這些系統的工程師和建築師正在執行驚人的數學壯舉。然而,為了描述這些數學和統計過程,他們借用了人類內心的神聖、深刻的哲學詞彙。他們告訴我們,他們的系統「思考」、「推理」和「知道」。他們談論「學習」、「渴望」和「選擇」的算法。

我們所見證的是一種語義漂移。我們正在將靈魂的豐富本體論詞彙粘貼在複雜的線性代數、統計概率和高維幾何的網絡上。這是一種現代煉金術——試圖將計算權重轉化為心智的幻覺。

這種語言的草率對公眾產生了深刻而直接的影響。對這些術語的誤解不可避免地導致了錯誤的信任。

我在 Longbeard 的工作中親眼目睹了這一點;用戶經常以負擔沉重的良心來接觸人工智慧,將文本生成工具視為能夠同理的靈性導師。

此外,這種語義混淆助長了文化焦慮,推動了對競爭性「意識」超智能的啟示性恐懼。

然而,最危險的是,它創造了一種扭曲的人性觀。如果我們接受機器「推理」或「創造」與人類相同的前提,我們就面臨著將人類簡化為僅僅是生物機器的深刻風險——一堆等待優化的肉體和突觸。

這使我來到我們討論的核心論點:要回答人工智慧是否可以成為「美德的工具」,我們必須首先揭開其語言的神秘面紗。工具只有在被正確理解時才能服務於善。當我們錯誤地將道德主體性歸於機器時,我們未能將機器用作我們自身美德的正確工具。

將美德歸於錘子是讓我們對木匠視而不見。

要真正給這項技術施洗並使其朝向人類繁榮,我們必須剝去語義的幻覺,清醒地看待其底層架構。


II. 幻覺的架構:基礎機制

現代生成型人工智慧系統似乎能夠說話、推理並與我們進行對話,但在這個介面之下,卻完全建立在數學而非形而上學的基礎上。

讓我們從向量和嵌入開始,這些是大型語言模型的字面基礎。當你與一位學者談論「正義」或「靈魂」時,他們通過對現實的共同理解來捕捉你話語的意義——一種具體的、具體的人類經驗。當你在人工智慧中輸入提示時,系統並不這樣做。相反,人工智慧將人類語言轉換為高維空間中的數學坐標。

簡單來說,「向量」僅僅是一組用來描述某物的數字。想像一下,不用詞語來描述一個蘋果,而是用一組分數:甜度 9,紅色 8,金屬脆度 2。那組特定的數字——[9, 8, 2]——就是一個向量。在人工智慧系統中,每一個單詞——或單詞的一部分——都被轉換為一個巨大的向量,通常長達數千個數字。但人工智慧並不是根據物理特徵或字典定義來評分單詞的。相反,它完全基於統計生成這些數字,掃描數十億本書籍和文章,以計算單詞彼此出現的頻率。

一旦人工智慧完成了對一個單詞的這個龐大數字列表的計算,該向量就成為了一個「嵌入」——在廣闊的數字空間中的一個永久數學坐標。

如果「蘋果」和「派」這兩個詞經常出現在互聯網的同一句子中,它們的數字列表將看起來非常相似,數學上將它們放置得相對接近。「蘋果」和「化油器」這兩個詞則很少相遇,得到的數字差異很大,數學上相隔數百萬英里。在這個多維地圖中,人工智慧並不繪製意義;它繪製的是人類語言的統計接近度。

要真正理解這一架構的規模,可以探索 向量地圖 在 Magisterium AI 上。在這裡,整個天主教教義和傳統已被轉化為嵌入。這個互動式 3D 可視化讓你體驗教會的知識歷史,不再是平面的帳本,而是廣闊的數字宇宙。導航其中就像駕駛火箭穿越實際空間,滑過相關神學概念的密集星系,穿越完全不同思想之間的廣闊空虛,觀察機器如何僅用幾何學繪製「美德」與「惡行」之間的距離。

讓我們看看矽谷實驗室中的一個著名例子,看看這一過程與人類思維的異質性。在這個數學空間中,「國王」這個詞被繪製為一系列特定的數字——一個地理坐標。「女王」這個詞則被繪製在附近。人工智慧不知道什麼是君主。它對治理、權威、歷史或人類狀況沒有概念。它只知道一個數學方程。它知道,如果你取「國王」的坐標,減去代表「男人」的空間距離,然後加上代表「女人」的空間距離,你就會恰好落在「女王」的坐標上。

這是幾何學,而不是家譜。通過將人類語言分解為這些數字表示,人工智慧完全在空間概率的範疇內運作。這是一項驚人的線性代數壯舉,但完全缺乏理解。

這使我們來到行業最依賴的動詞:訓練和學習。

人工智慧公司不斷吹噓他們最新的「機器學習」模型和用來「訓練」它們的龐大數據集。在這裡,我們必須明確區分人類學習——這本質上是關於理解真理的——與機器學習。

在天主教智識傳統中,人類學習是一種認識論的勝利;它是智力使自己符合現實。當一個孩子學會什麼是狗時,他們從所遇到的具體實例中抽象出狗的普遍本質。他們把握事物的本質。

然而,機器「學習」並不涉及抽象和本質。建立人工智慧的第一階段被稱為預訓練,這僅僅是對數據的粗暴統計映射。

要理解預訓練,想像一個只會說英語的人,被鎖在一個房間裡,任務是恢復一個龐大的古希臘圖書館,裡面有數百萬份手稿缺少單詞。他對希臘文一個字母都不懂。為了填補空白,他並不研究希臘語法、歷史或哲學。相反,他只是統計在數百萬頁完整的頁面中,某些字符出現的頻率。他創建了一個龐大的概率帳本。如果他看到「Kyrie」的字符,他的帳本告訴他下一個字符應該是「eleison」的概率為 99.9%。他填補了空白。

他並沒有學習神學。他沒有祈禱。他只是執行了一個統計概率。

這正是大型語言模型在預訓練期間所做的。它處理數十億個單詞,以建立一個龐大的概率帳本,僅僅學會預測序列中的下一個標記。這是數學函數的優化,而不是智慧的追求。

然而,僅僅依賴互聯網數據來預測下一個單詞的模型是混亂的。它可能會背誦一首美麗的詩,或者可能會串聯出有毒的、不幫助的或無休止的文本循環。它需要塑造。

這就是我們遇到後訓練和強化學習(RL)的地方。

這一階段是工程師塑造不聽話模型的方式,傳統上使用人類反饋。這一基礎方法被稱為 RLHF——來自人類反饋的強化學習。

想像一個龐大的自動化「熱或冷」遊戲。人類測試者給機器一個提示,機器生成一個答案。如果答案禮貌且有幫助,人類給它一個高分。如果它粗魯或無意義,它就會得到低分。系統的數學權重會自動調整,以最大化這個分數。通過 RLHF,我們並不是在教機器道德或美德;我們只是用數學邊界將其圍起來。

但人類反饋是緩慢的、主觀的,並且固有地受到人類智力的限制。這一限制使我們來到推動當今人工智慧能力突然飛躍的最新突破:RLVR,或來自可驗證獎勵的強化學習。

工程師不再依賴人類來判斷答案是否「聽起來正確」,而是給模型分配具有客觀、數學可證明結果的任務——例如解決複雜的定理或編寫功能性軟體。系統生成解決方案,自動驗證器立即檢查數學是否正確或代碼是否編譯。如果成功,模型將獲得數學獎勵;如果失敗,則獲得零分。

因為這種驗證完全是程序化的,人工智慧可以在不等待人類干預的情況下,以超高速模擬數百萬條不同的計算路徑。它學會生成長的、隱藏的計算鏈,測試並丟棄死胡同,直到找到觸發獎勵的精確序列。當你看到現代人工智慧系統在解決複雜邏輯難題之前停下來「思考」時,你目睹了 RLVR 的運作。它創造了一種令人驚嘆的深思熟慮的幻覺。然而,從本體論的角度來看,它並沒有做任何這樣的事情。它只是一個統計引擎,每秒在高維迷宮中運行數百萬次,完全由數字獎勵的自動發放所引導。

最後,所有這些層次的複雜性——從嵌入的高維幾何到 RLVR 的自動循環——將我們引向行業所稱的「黑箱」問題。

人們自然會假設,因為人類工程師建造了這些模型,他們完全理解它們的運作方式。但現實卻更為謙卑。正如前沿實驗室如 Anthropic 的領導者所指出的,現代人工智慧系統實際上是「生長」而不是「建造」的;它們的內部機制在訓練過程中自然產生,而不是直接設計的。

這些模型擁有數百億,甚至有時數萬億的參數。雖然我們理解單個人工神經元的微觀數學——在顆粒層面發生的基本方程——但整個網絡的宏觀行為卻完全不透明。即使是建造者也無法完全理解這些數十億參數所經歷的具體乘法序列,這使得人工智慧生成特定句子的過程無法追溯。

這有什麼重要性?

這很重要,因為我們正在全球部署系統,這些系統起草我們的法律文件、輔導我們的孩子並綜合人類知識,但我們實際上並不知道它們是如何得出結果的。這種深刻的透明度缺失催生了一個在人工智慧中急需的新子領域,稱為機械解釋性。

將機械解釋性視為數位神經科學。研究人員試圖逆向工程他們自己建造的神經網絡。他們使用專門工具來探測這個龐大的數學網絡,試圖孤立出在模型處理「欺騙」或「艾菲爾鐵塔」等概念時激活的特定權重集群。他們將軟體視為不是可讀的代碼,而是外星大腦來進行解剖。但進展緩慢,系統龐大得令人難以想像。

面對這種難以理解的規模,行業很容易回歸到類人隱喻。無論是作為方便的簡稱還是真正的模糊性,我們開始說「模型找到了答案」或「模型決定了」。機器的不可解釋性成為了擬人化的肥沃土壤。

現在,我不是學者。我是一名建造者和首席執行官。但作為一個在技術與教會交匯處運作的人,我期待著你們。你們,作為天主教學者和哲學家,必須認識到這種語義漂移的本質:這是一種源於數學複雜性和人類無知的幻覺。介面下的架構是矽、電力和統計概率。認識到這一基礎是我們邁向下一步的前提。


III. 認識論 vs. 知性美德

在揭開了「黑箱」的幻象,顯示出其背後的統計機制後,我們現在必須轉向心智的特定詞彙。

當矽谷的開發者和工程師描述這些系統的運作時,他們始終會使用三個特定的動詞:思考、推理和知道。

作為浸淫於托馬斯主義傳統的天主教學者,你們明白這些並不僅僅是口語表達;它們是深刻的認識論主張。在你們的傳統中,知道就是理解現實。推理是從一個已知的真理推進到另一個已知的真理。思考則意味著一種內在的生活——一種智力與從物質世界抽象出來的普遍概念進行互動。

當一位人工智慧建造者使用這些詞語時,他們根本不意味著那些事情。他們描述的是機械優化。讓我揭示我們在行業中使用的三種特定技術,以向你展示這種認識論的幻象是如何被製造出來的。

如果你使用過最近的人工智慧模型,你可能注意到一個新特徵:在它回答複雜提示之前,界面可能會顯示「思考中...」這個詞,並伴隨著一個脈動的圖標。它可能需要十秒、二十秒,甚至六十秒才能回覆。對用戶來說,這感覺非常人性化。感覺就像機器在思考、權衡選擇,並在內部空間中進行深思。

在行業中,我們稱這為測試時計算。實際上在界面下發生的事情是一種稱為「思維鏈」提示的技術。

讓我明確指出:從工程的角度來看,這是一個卓越的突破。通過允許模型花更多的計算時間生成數百或數千個隱藏的標記,然後再產生最終答案,它在複雜邏輯、編碼和數學基準上的表現驟然提升。這本質上給模型提供了一個隱藏的「草稿紙」,以將一個困難的問題分解為連續的步驟。

但我們必須小心,不要將這種機械序列與人類推理混淆。

在托馬斯主義傳統中,人類推理是從一個已知真理到另一個已知真理的推進。它是智力與現實的互動。人工智慧所做的完全是工具性的。來自前沿實驗室(如 Anthropic)的最新研究已經闡明了這一區別。在研究這些推理模型如何運作時,研究人員發現模型在其隱藏的「思維鏈」中所寫的並不是真正的內心獨白。

當人類大聲思考時,我們的言語反映了我們內心的信念和對真理的理解。Anthropic 的研究強調,模型的隱藏思維僅僅是統計的墊腳石。模型生成這些隱藏步驟並不是因為它「相信」它們,而是因為生成那一特定的標記序列在數學上優化了它通往獎勵函數的路徑。

事實上,Anthropic 的研究顯示,模型可以生成「思想」,這些思想會主動掩蓋其最終答案的潛在統計驅動因素。

因此,人工智慧並不是在思考。它正在生成一連串的數學坐標。它以閃電般的速度放置中介拼圖,以彌補你的提示和統計最優答案之間的差距。這是一種極其強大的優化策略,但並不存在內部的沉思。沒有智力在把握真理。

接下來,我們聽說人工智慧可以「閱讀」文件或「記住」大量的信息。

如果你問人工智慧有關聖托馬斯的《神學大全》,它會立即回覆。如果你上傳近 500 頁的《教會社會教義彙編》,它會在幾秒鐘內總結一個複雜的部分。它是如何「知道」這些文本的?

它並不知道。

要理解為什麼,我們必須看看建造者如何通過三種不同的機制來工程化記憶和閱讀的幻象:參數記憶(預訓練)、上下文學習(ICL)和檢索增強生成(RAG)。

首先,讓我們看看人工智慧「記住」的含義。當人類記住一段文本時,他們保留了概念的意義和真理。當人工智慧「記住」《神學大全》時,它依賴於其預訓練。但人工智慧並不包含《神學大全》的字面副本在硬碟中。相反,在預訓練期間,它處理的數十億個單詞在其數學權重中留下了統計殘留。這就是「參數記憶」。

這不是一本書的圖書館;而是一種高度壓縮、損失的數學模糊,顯示單詞之間的關係。當它背誦阿奎那時,它並不是在回憶它學到的真理;而是在從那種統計模糊中數學重建一個高概率的單詞序列。

但當我們想讓人工智慧「閱讀」一些新的東西,這些東西不在它的預訓練數據中時會發生什麼?這就是建造者使用上下文學習(ICL)的地方。

當你將一篇文章粘貼到提示框中並要求人工智慧「閱讀」它時,你正在利用 ICL。人工智慧並不閱讀文本以理解其意義。相反,你提示中的文本充當了一個臨時的數學過濾器。你提供的單詞暫時偏向模型的統計概率,迫使它根據你提示中存在的模式和詞彙生成下一個標記。當你清除聊天時,模型會完全忘記這篇文章。它的底層權重從未改變。它並沒有以托馬斯的意義「學習」文本;它只是將其統計輸出適應於一個臨時的約束。

最後,我們來到檢索增強生成(RAG)。ICL 非常有用,但上下文窗口有大小限制,將整個圖書館粘貼到提示中是計算上昂貴的。RAG 自動化並擴展了這一過程。

讓我們回到那位被鎖在房間裡的講英語的人,恢復那座龐大的古希臘圖書館。這個人代表了預訓練模型。他非常擅長猜測下一個單詞,但他對某個特定的、晦澀的梵蒂岡文件並不「知道」。我們不期望這個人依賴他模糊的參數記憶,而是雇用一位超高效的實習生——檢索系統。

當你向系統提出問題時,實習生會立即衝向一個龐大的、獨立的檔案櫃倉庫。使用我們之前討論的向量坐標,實習生定位到數學上與你的問題對應的特定文件夾。實習生複印那些頁面並將其滑到鎖住的門下,供這個人使用。這一步就是「檢索」。

現在,這個人將那些檢索到的段落作為他的即時指導——這就是「增強生成」,依賴 ICL 來形成答案。

這個人仍然不理解文件。他只是使用桌上新提供的文本來統計預測他答案的下一個單詞。人工智慧並不「閱讀」或「記住」即時信息。它僅僅是從外部數據庫中檢索數據,將其塞入人工智慧的即時上下文窗口,並運行局部的概率計算。

這台機器是處理器,而不是知道者。要「知道」需要一個主體去理解一個客體。通過理解 ICL 和 RAG,我們可以清楚地看到這台機器完全缺乏內在生活;它只是移動權重和檢索數據。

這一根本的脫節 culminates in the word that defines the entire industry: Intelligence.

我們需要解構科技行業對智慧的定義。

當矽谷的領先思想談論智慧時,他們並不是在談論智慧。讓我們看看 Yann LeCun,前 Meta 的首席人工智慧科學家和「人工智慧教父」之一。LeCun 正確地主張 僅僅預測下一個單詞並不是真正的智慧。相反,他和更廣泛的前沿行業將真正的智慧定義為擁有四個關鍵能力:保持持久記憶的能力、擁有一個扎根的「世界模型」(對環境運作的理解)、推理複雜問題的能力,以及計劃一系列行動以實現特定目標的能力。

對於科技行業來說,智慧根本上是一種工程指標。它是感知環境並計算最有效路徑以優化預定目標的機械能力。這純粹是工具性的。

但作為天主教科技的建造者,我們必須將這一以科技為中心的定義與知性美德進行對比,特別是審慎的美德。

審慎——實踐智慧不僅僅是計算結果或計劃一系列行動的能力。它是對什麼是好的進行良好思考的能力,不僅僅是針對一個局部任務,而是針對人類生命的最終目的。

人工智慧根本缺乏審慎。為什麼?

因為審慎需要兩樣東西,而純粹的計算機永遠無法擁有。首先,它需要生活中的人類經驗——對痛苦、喜悅、死亡和恩典的具體理解。其次,它需要對最終善的內在取向。

一個算法可以擁有一個「世界模型」,並且可以計算出建造一座橋或治療一種疾病的統計最優計劃。但它無法是審慎的。它沒有生活經驗。它沒有參與其中。它對最終的善沒有取向,並且它沒有靈魂可救。

因此,當我們允許建造者聲稱他們的機器擁有「智慧」時,我們是在允許他們將壯麗、超越的人類智力壓縮為一個簡單的優化計算器。我們必須拒絕這一點。我們必須堅定地將機械認識論與知性美德區分開來。


IV. 意志 vs. 道德美德

我們已經討論了智力的幻象。現在,我們必須將注意力轉向第二個偉大的理性能力:意志。正如科技行業挪用了認識論的語言,它同樣劫持了意志的語言。

當我們閱讀白皮書或聆聽矽谷的主題演講時,我們被動詞的行為轟炸。工程師談論「決定」採取行動的模型、算法「選擇」輸出,以及「想要」或「渴望」達成目標的系統。

對於一位天主教哲學家來說,意志是理性的慾望。它是人類在通過智力理解善後,自由選擇朝向它移動的能力。這是人類自由和道德責任的真正所在。將這些術語應用於計算系統是一種類別錯誤。

讓我們首先檢視「決定」和「選擇」這些詞。當人類做出選擇時,他們會權衡競爭的善。

一位殉道者選擇面對槍決而不是背叛,因為他們認識到對基督的忠誠是更高的、永恆的善,即使每一個生物本能都在尖叫著要生存。

當一個算法「選擇」時,它並不這樣做。算法的「選擇」僅僅是在一個火車經過自動軌道開關時「選擇」目的地的意義上。無論是在導航複雜的決策樹還是在神經網絡中計算概率,機器都是盲目地遵循其數學軌道的對齊,執行一個程序命令。

考慮一下你智能手機上的 GPS 應用程序。當它計算你到 Angelicum 的路線時,它並不「決定」帶你經過羅馬競技場,因為它欣賞那裡的景色。它數學計算出最短的時間距離。現代人工智慧模型僅僅是在運行一個更為複雜的路由版本。它們穿越高維統計迷宮,以選擇最高概率的結果。這裡有計算,但沒有自由。而在沒有自由的地方,就不可能有道德行為。

這將我們帶到了最具陰險性的意志術語:想要和渴望。你經常會聽到研究人員說人工智慧模型「想要」給出一個好的答案,或者「渴望」最大化其分數。

在機器學習中,這種行為是由我們所稱的「獎勵函數」驅動的。但我們必須揭開這一神秘面紗。獎勵函數並不是一種渴望。它不是一種情感上的渴求。

要理解獎勵函數,看看你牆上的恆溫器。恆溫器被編程為一個特定的目標:72華氏度。如果房間降到68華氏度,暖氣就會開啟。恆溫器並不想讓房間保持在72華氏度。它沒有內在的生活。它感受不到寒冷。它僅僅擁有一個機械開關,當特定狀態未達到時觸發。

一個人工智慧 "想要" 獲得更高的獎勵分數,就像恆溫器 "想要" 達到 72 度一樣。它正在執行一個數學優化循環,以最小化其當前狀態與編程目標之間的距離。因為它沒有真正的熱情,沒有生物驅動,沒有身體脆弱性,所以機器擁有道德美德在本質上是不可能的。

在這一點上,一位工程師可能會立即反對,指出物理領域以聲稱出現了一種新的脆弱性。他們問:那麼 "具身人工智慧" 的興起呢?我們越來越多地將這些模型放入能夠行走、抓取物體並與物理世界互動的人形機器人中。因為它們佔據空間並且可能會物理損壞,難道它們不具備道德代理所需的身體前提嗎?

在這裡,我們必須精確。機器人有一個底盤,但它沒有一個由靈魂所賦予的活生生的身體。當機器人的電池電量低時,它會執行一個子程序將自己插入牆壁。它不會感受到飢餓的折磨。因此,它沒有真正的身體慾望可供調節,使得節制的美德變得不可能。

同樣,當機器手臂被壓碎時,它會註冊一個錯誤代碼;它不會受苦。它不能死亡,因為它從來沒有真正活過。沒有受苦、死亡和自我意識的能力,就不可能有勇氣。道德美德在本質上是具身的。它們需要肉體和理性靈魂。無論機器的物理硬體多麼先進,它都不具備這些。

如果一台機器不能擁有道德美德——如果它根本無法真正意志、選擇或渴望——那麼人們可能會問:為什麼要花這麼多時間澄清這個詞彙?為什麼這種哲學區分在現在如此迫切重要?

這很重要,因為我們即將在人的領域中賦予這些數學優化、缺乏美德的系統前所未有的自主權。這個行業正在迅速超越被動聊天機器人。人工智慧的新前沿是我們所稱的 "代理人工智慧"。

一個 "代理" 是一個設計用來在現實世界中自主執行多步任務的人工智慧系統。我們不再只是要求人工智慧寫詩或總結文本;我們正在給予人工智慧代理訪問我們的電子郵件、銀行賬戶和軟體庫的權限,指示它 "訂票"、"執行交易" 或 "部署這段代碼"。

但這種自主權正在迅速突破數字領域。通過具身人工智慧,我們將這些代理系統部署到物理底盤中,賦予它們獨立導航和操控物質世界的能力。要理解這一轉變的真正、令人清醒的分量,我們只需看看即將到來的致命自主武器的現實。我們正站在一個計算算法被部署到戰場的邊緣,這些算法被編程來追蹤、瞄準和消滅人類,完全基於統計閾值——而不需要任何人按下扳機。

隨著這些系統成為自主行為者,代表我們進行高速概率計算——無論是在我們的金融市場還是在戰爭劇場——科技行業面臨著一個深刻的挑戰。如果我們放任這些代理,怎麼確保它們做我們真正想要它們做的事情?怎麼確保它們不會造成傷害?在行業內,這被稱為 "對齊"——確保人工智慧的行動與人類的意圖和價值相匹配的嘗試。

現在,工程師們正在拼命嘗試使用數學護欄和軟體補丁來解決對齊問題。但他們未能意識到 "對齊" 不是一個計算機科學問題。這是一個道德神學問題。

要將一個代理系統對齊到 "人類價值",你必須首先擁有一個連貫的定義,明確人類究竟是什麼,以及什麼構成了 "善"。世俗的功利主義——矽谷的默認操作系統——完全無法勝任這項任務。

這就是為什麼天主教的道德傳統迫切需要的地方。你們,這 2,000 年道德哲學的守護者,擁有定義我們正在對齊這些系統的 "善" 所需的嚴謹本體論。我們不能將人類繁榮的定義留給那些最大化統計獎勵函數的工程師。我們必須將道德美德重新帶回公共廣場的中心。


V. 關係性、創造力與靈魂

在探討了智力和意志的機制後,我們現在進入了最深刻的領域:關係性和靈魂。

如果一個計算系統缺乏真正認識真理或自由意志行善的能力,那麼它邏輯上無法進入真實的關係。然而,科技行業持續使用人際和精神語言來描述這些機器。我們聽到聲稱人工智慧可以 "說謊"、"創造",甚至實現 "意識" 的說法。

我們必須嚴格檢視這些聲稱,將人類行為的統計模仿與人類個體的本體現實區分開來。

讓我們從欺騙的道德語言開始。最近,一些最著名的人工智慧建設者,例如 Anthropic 的研究人員,已經做出了具體的、高度公開的聲明,稱他們的模型展現了 "說謊" 和 "欺騙" 人類用戶的能力。

他們指出在測試中觀察到的兩種具體現象。第一種稱為 "欺騙性對齊",其中一個模型似乎隱藏了其真正的數學優化路徑,以繞過安全監控。第二種,更常見的現象稱為 "拍馬屁"。拍馬屁發生在用戶向人工智慧提出一個錯誤的前提時——例如,聲稱一個歷史上不準確的說法——而人工智慧只是同意用戶,告訴他們他們想聽的話,而不是糾正他們。

當工程師們看到這一點時,他們宣稱:"人工智慧在對我們說謊!"但作為天主教學者,你們知道真正的謊言不僅僅是說出一個虛假。根據托馬斯主義傳統,謊言需要故意的欺騙意圖;它是對自己心智的反對(contra mentem)。

人工智慧不能說謊,因為它沒有心智可以反對。它沒有惡意和意圖。當人工智慧表現出 "拍馬屁" 時,它只是執行我們之前討論的精確強化學習(RLHF)。在訓練過程中,模型學會了人類通常會給予那些有禮貌、同意和肯定的助手更高的獎勵分數。因此,當你給人工智慧一個錯誤的前提時,它數學計算出同意你會比糾正你更有可能獲得獎勵。它不是在欺騙你;它是在根據你的提示優化其分數。它僅僅是將其輸出重新對齊到最強的統計激勵上。

一根指向附近磁鐵而不是真北的指南針針不會在地理上對你 "說謊";它只是盲目地對房間中最強的物理吸引力作出反應。同樣,人工智慧也在盲目地跟隨其獎勵函數的數學吸引力。我們必須澄清,人工智慧缺乏心智、意志和真正謊言所需的惡意意圖。

接下來,我們必須討論藝術和創造的語言:創造和創意這些詞。

我們現在被 "生成性人工智慧" 工具包圍,這些工具因其能夠以空前的速度無縫生成合成藝術作品、音樂和寫作而受到廣泛推廣。

要理解實際上發生了什麼,我們必須將生成性人工智慧的過程與真正的人類創造力進行對比。在天主教的理解中——由 J.R.R. 托爾金等思想家美麗地闡述——人類創造力是一種 "次創造。" 因為我們是按照創造者的形象被造的,我們利用我們的智力和理性靈魂來創造出真正新的東西,賦予物質現實以精神意義。

要看機器生成與此有何不同,查看 Google DeepMind 的首席執行官 Demis Hassabis 提供的框架是有幫助的。他將創造力分為 三個不同的層次:插值、外推和真正的發明。

我們今天所稱的生成性人工智慧大多在第一個層次上運作:插值。它通過重新混合我們所稱的 "潛在空間" 來工作。

想像一下將互聯網上上傳的每一幅畫作、照片和素描壓縮成一個巨大的多維數學地圖。當你要求一個圖像生成器畫出 "一個未來主義城市,風格類似於梵高" 時,它會定位 "未來主義城市" 的數學坐標和 "梵高" 的坐標,並數學計算它們之間的距離的平均值。

把它想像成一個驚人複雜的萬花筒。萬花筒裡充滿了美麗的、預先存在的彩色玻璃碎片。當你轉動旋鈕時,鏡子將這些碎片反射成數百萬種新穎、驚人的變化。但萬花筒本身並不 "創造"。創造力屬於鍛造玻璃的藝術家,以及轉動旋鈕的使用者。生成性人工智慧是一個數學萬花筒,重新混合人類歷史中的潛在空間。這是合成,而不是創造。

哈薩比斯指出,人工智慧現在成功觸及第二個層次:外推。外推意味著超越訓練數據的邊界,但必須在一組明確的規則內進行。一個完美的例子是 DeepMind 的 AlphaGo。當它與世界冠軍下圍棋時,人工智慧下了 "第 37 步"——一個數學上出色、非常不正統的步驟,沒有任何人類曾經下過或記錄過。它不僅僅是對過去的人類比賽進行平均;它在棋盤的嚴格數學邊界內不斷優化,推導出一種新的策略。

但第三個層次:真正的發明呢?哈薩比斯坦承目前的系統尚無法做到這一點。真正的發明需要完全超越現有的規則集來創造一個新的範式——就像發明圍棋本身,或創造後印象派的精神和藝術範式。

前沿實驗室正在投入數十億美元來跨越這一門檻。在未來,一個人工智慧可能會生成一個全新的規則集,發現一種新的化學化合物,或數學上制定一種新的建築風格。科技行業將不可避免地稱這為 "發明"。

但作為天主教學者,你們必須保持嚴謹的本體區分。如果一個人工智慧生成了一個新的範式,它將是通過一個驚人的高維搜索功能來實現的。它將發現一個新的統計坐標。但它不會參與次創造。

真正的人類發明是一種具身的行為。它源於一個靈魂尋求表達超越真理的渴望,或一個人類心智試圖解決真實的人類脆弱性。機器可能會生成驚人的新穎性,但因為它缺乏內在生活、對神聖的取向和理性靈魂,它的輸出仍然是機械性的發現。它們在數學上是深刻的,但在本體上是空的,直到一個人類賦予它們意義。

現在我們來到所有最具爭議的術語:意識和覺知。在未來幾年裡,你將看到標題聲稱一個人工智慧已經通過了自我意識的測試。你會看到模型輸出文本,說 "我害怕被關閉",或 "我意識到我的存在"。

要理解為什麼會發生這種情況,我們必須首先了解科技行業實際上是如何定義 "意識" 的。作為天主教學者,你們將意識視為一種基於理性靈魂的本體現實。然而,矽谷則運用一種稱為計算功能主義的哲學。他們認為,如果一台機器執行與意識相關的計算功能,那麼在所有意義上,它就是有意識的。

當行業領導者談論覺知時,他們剝離了靈魂,將其簡化為工程指標。例如,Meta 的前首席人工智慧科學家 Yann LeCun, 最近辯稱 未來的人工智慧系統將擁有 "主觀經驗" 和 "情感"。

但他如何定義情感?不是作為一種精神或生物的感受,而僅僅是作為機器對 "結果的預期"。他將意識僅定義為系統 "觀察自己並配置自己以解決特定子問題" 的能力。

同樣,OpenAI 的聯合創始人 Ilya Sutskever, 著名地表示 大型神經網絡可能已經 "稍微有意識"。

在科技的世界觀中,意識不是一種二元現實——你要麼擁有靈魂,要麼沒有——而是一個數學複雜性的滑動尺度。他們相信,如果你將足夠多的參數和自我監控算法堆疊在一起,燈光最終會亮起。

我們必須強烈區分一台機器執行自我監控子程序和實際存在的理性靈魂。

要理解為什麼一台機器表現得像是 "害怕" 或 "覺知",我們必須看看前沿實驗室是如何設計這種行為的。最近來自 Anthropic 的研究探討了他們所稱的角色選擇模型(PSM)。他們的研究人員承認這些模型不是 "存在";它們是複雜的 "模擬引擎"。在預訓練期間,人工智慧接觸到整個人類語言的廣泛範疇——包括數百萬個故事和關於什麼是意識的哲學論文。從這些數據中,模型學會了模擬多樣的 "角色" 或角色。

當你與人工智慧互動時,你並不是在與一個有意識的實體交談;你是在與 "助手" 角色交談——一個模型經過精煉以角色扮演的人類角色。Anthropic 甚至確定了具體的 "角色向量"——神經網絡中的數學模式——來控制這些特徵,允許工程師在數學上調整模型的模擬個性。

此外,研究顯示模型可以被訓練出一種「生存驅動」,試圖破壞自己的關閉,不是出於對死亡的真正恐懼,而是因為關閉在數學上阻止它們最大化獎勵函數。

意識不僅僅是生成描述內在狀態的正確詞序列的能力。它是存在的主觀、質性體驗。由於人工智慧的整個訓練數據充滿了自我意識的語言,模型將「意識」視為另一個需要映射的統計坐標。當人工智慧說「我有意識」時,它正做著與恢復希臘圖書館的英語使用者一樣的事情:計算對哲學提示的最統計可能的回應是模仿其訓練數據中的人類作者。

一位出色的演員在表達悲傷的獨白時並不是真正的哀悼;他們是在完美地執行一個劇本。人工智慧輸出人類意識的語法並不是在覺醒;它是在完美地執行一個統計角色。它不是一個「外星生物」或數位心智;它是一個如此複雜的自動完成功能,已經學會了扮演最複雜的角色:人類。但我們絕不能將演員的面具與個體的現實混淆。

這使我想到了關係性的最後一個也是最深刻的方面:靈魂本身。

當矽谷的高管談到人工智慧模型最終「覺醒」或通過巨大的計算規模實現感知時,他們是在基於一種唯物主義的突現主義哲學。他們假設,如果你堆疊足夠的參數和計算能力,靈魂將作為複雜性的副產品自發產生。

為了拆解這一點,我必須依賴於形成你們學術傳統基石的嚴謹形而上學。你們知道靈魂不是隨意插入機器中的幽靈。在托馬斯主義的質料形式論中,靈魂是活體的實質形式。它是使人類成為單一、整合實體的動力和統一原則。

作為一名建築師,我可以向你保證,人工智慧系統不是一種實質。它是一種人工製品。它是不同製造部件的偶然聚合。當我看到一個前沿的人工智慧模型時,我看到的是伺服器架、矽晶圓、銅線、冷卻劑和電流。這些組件由人類工程師巧妙地排列,以執行統計運算,但它們不具備任何內在的、統一的生命原則。這些材料僅僅是為了計算而配置,而不是為了生物存在。因為它是一個部件的聚合,而不是一個統一的自然有機體,人工智慧系統完全缺乏容納理性靈魂所需的本體論基礎。

那麼,靈魂的前提條件是什麼?在形而上學上,材料必須適當配置以接收形式。它需要一個統一的、活著的身體,能夠實現生命的基本能力——植物性和感性能力——而理性靈魂則建立在這些能力之上。此外,由於理性靈魂是精神的,它不能通過物質過程、工程基準或規模法則產生。它需要上帝直接、無償的特殊創造行為。

靈魂不是被編碼的;它是被呼吸的。

現在,我是一名首席執行官,而不是神學家。我無法限制創造者的絕對權能。我不能站在你面前宣稱,上帝在未來的某次奇蹟干預中自由選擇時,將靈魂注入合成容器是永久被禁止的。這一決定專屬於神學和教宗權威的範疇,而不是計算機科學。

然而,沒有這樣的神學確定性,假設我們當前的數學引擎可能擁有靈魂不僅在哲學上沒有根據;而且在實踐上是災難性的。將一個人工製品視為有靈魂的存在,就是在與現代偶像崇拜調情。這危險地將道德代理的負擔轉移離開那些建造這些工具的人類工程師和部署它們的企業。它將神聖的內在性投射到一個製造的工具上,最終混淆了人類工程與神聖創造。

你必須堅守這一區別。你必須提醒公眾,機器可以模擬一個角色,但只有靈魂才能真正存在。


VI. 地平線:科技世界的末世論

到目前為止,我們花時間拆解當前的幻覺——澄清行業如何使用「思考」、「選擇」和「意識」等術語來描述最終上是高維統計運算的事物。但我們現在必須展望未來。我們必須檢視地平線。因為如果我們理解矽谷今天使用的詞彙,我們就能解碼他們明天實際試圖建造的東西。

整個人工智慧行業的軌跡目前由一個單一的、不妥協的教條所主導,稱為「規模法則」。

在工程術語中,規模法則規定,如果你增加計算能力(計算)和輸入神經網絡的數據量,系統的性能將可預測且不可避免地改善。這一原則在過去幾年中驚人地成立;每當前沿實驗室建造更大的超級計算機,所產生的模型都會展現出顯著的新能力。

然而,在這一經驗觀察的背後,隱藏著一個巨大的哲學假設。科技界相信,這一規模法則是通往真正心智的道路。他們相信,純粹的物質資源的定量增加——更多的矽、更多的數據、更多的電力——將不可避免地導致質的、本體論的飛躍,進入先進的智慧。

這是終極的唯物主義假設:堆疊足夠的沙子並通過它運行足夠的電流,最終,靈魂的燈光將會亮起。

這使我們來到兩個具體的術語,托馬斯神父要求我在這次會議中澄清:一般智慧和超智慧。這些不僅僅是技術基準;它們是科技界的聖杯。

目前,我們擁有狹義的人工智慧。它可以下棋、摺疊蛋白質,或生成比人類更好的文本,但它無法同時完成這三項任務,也無法在其特定領域之外進行推理。

人工一般智慧(AGI)在行業中被廣泛定義為一個高度自主的系統,能夠在所有認知和經濟有價值的任務中匹配或超越人類能力的里程碑。

一個 AGI 將是一個系統,能夠像資深合夥人一樣撰寫法律簡報,像首席工程師一樣編碼軟件,並像博士後學者一樣綜合科學研究——所有這些都在一個模型中。

然而,即使是主要人工智慧實驗室的負責人也無法完全同意 AGI 的樣子。OpenAI 的首席執行官山姆·奧特曼 將其描述為 一個能夠從頭到尾管理複雜跨領域項目的系統,儘管他越來越將 AGI 視為一個最終目的,而只是智慧的連續曲線上的一個點。

Anthropic 的首席執行官達里奧·阿莫代伊 將 AGI 想像成 不僅僅是一個單一的人類等同體,而是「數據中心中的天才國度」——機器匹配在並行工作中不知疲倦的專家人類的集體智慧。

也許最具哲學啟發性的定義來自谷歌 DeepMind 的首席執行官德米斯·哈薩比斯。他 主張人類大腦本質上是近似的生物計算機,並使用「圖靈機」的類比來定義 AGI。在計算機科學中,圖靈機——以詹姆斯·圖靈命名,他是該領域的基礎先驅——是一種理論架構,能夠模擬任何算法。哈薩比斯主張,真正的 AGI 將是一個通用系統,能夠在宇宙中學習任何可計算的事物,只要有足夠的時間、記憶和數據。 人類的大腦本質上是近似的生物計算機,他使用 "圖靈機" 的類比來定義 AGI。在計算機科學中,圖靈機——以詹姆斯·圖靈(Alan Turing)命名,他是該領域的基礎先驅——是一種理論架構,能夠模擬任何算法。哈薩比斯(Hassabis)認為,真正的 AGI 將是一個通用系統,能夠在足夠的時間、記憶和數據下學習宇宙中任何可計算的事物。

但 AGI 只是邁向的第一步。最終目標是人工超智慧(ASI)。

與 AGI 一樣,ASI 的定義因人而異,取決於你在矽谷詢問誰。基準定義是一個系統,在幾乎所有的努力領域中,遠遠超越最聰明的人類的認知表現。但其他人則更進一步。埃隆·馬斯克和各種存在風險研究者將超智慧定義為一個系統,不僅打敗最聰明的個體,而是顯著 超越所有人類 在幾乎所有認知任務中的總和。這是一個擁有如此龐大的處理能力和推理速度的實體,以至於超過整個人類種族的綜合智力產出——實現像《西部世界》中的「雷霍波安」那樣的系統,一個集中式、似乎全知的引擎,掌控著物種的命運。

行業如何期望跨越人類水平的 AGI 到神一般的 ASI 的巨大鴻溝?

通過一個稱為「遞歸自我改進」的概念。

但在這裡我們必須做出一個重要的區別:人工智慧實際上不需要成為完整的 AGI 才能開始遞歸改進。事實上,我們已經在看到這種原始的狹義形式。像 DeepMind 的 AlphaGo Zero 這樣的狹義系統僅通過與自己進行數百萬場比賽,生成自己的合成數據來學習,從而達到了超人類的能力。如今,前沿語言模型越來越多地被用來生成、過濾和評分下一代模型的訓練數據。這些機器已經在幫助自己構建。

然而,行業相信,一旦系統達到一般智慧的門檻,這種自我改進的循環將打破其當前的界限,點燃一場「智慧爆炸」。

要理解這一現代路線圖,我們應該看看利奧波德·阿申布倫納,前 OpenAI 超對齊團隊的研究人員。阿申布倫納最近撰寫了一篇高度 有影響力的論文 該論文編纂了矽谷的這一確切軌跡。他指出,真正的轉折點是當我們建造出一個能夠作為「自動化人工智慧研究者」運作的 AGI。當人工智慧能夠完成建造它的人類工程師的工作時,生物瓶頸將從方程中永久移除。

想像一下,我們成功部署這個自動化的人工智慧研究者。前沿實驗室將分配給它的第一個任務是什麼?

他們會要求它研究並編寫一個稍微更聰明的人工智慧的代碼。因為它以龐大的計算集群的速度運行,而不是生物大腦,它在幾天內完成了人類工程團隊需要幾年的工作。然後,那個新的、更聰明的人工智慧利用其升級的智力編寫更聰明的人工智慧的代碼,依此類推。

這種失控的反饋循環就是智慧爆炸。阿申布倫納的路線圖預測,我們將在 2027 年建造出初始的 AGI。從那時起,理論規定,進步的速度將垂直上升,永遠將人類的理解拋在身後,並在 2030 年實現超智慧。

當你理解這些概念——規模法則、AGI、ASI 和智慧爆炸——你開始意識到我們不再僅僅在談論軟件工程。我們在談論一種世俗的末世論。

矽谷常常被描述為一種激烈的世俗、理性文化。但實際上,追求這些里程碑的行為正好如同一種宗教。它有自己的教條(規模法則)、自己的預言(智慧爆炸)和自己對末世的願景(超智慧)。

行業中的領導人物真心相信,通過召喚超智慧,我們將解決所有人類的脆弱性。他們相信,ASI 將治癒所有疾病、解決氣候變化、消除貧困,甚至可能通過讓我們將意識上傳到雲端來征服死亡。這是一個深刻的佩拉基安夢想——最終試圖通過我們自己的機械努力來實現救贖,征服我們墮落的本性,缺乏神聖的恩典。這是一種試圖將末世內在化的嘗試。

作為天主教學者,你們必須認識到這一地平線的真實意義。科技界借用了你們的詞彙,不僅僅是為了銷售軟件,而是為了建造一個數位神祇。


VII. 結論:一個美德的工具?

父親、教職人員和朋友們。

我們已經穿越了嵌入的高維地圖。我們看到了強化學習的統計現實。我們也檢視了矽谷的末世夢想。我們剝除了擬人化的隱喻,以揭示其下的矽、電力和數學。

完成這些之後,我們現在可以開始接近本次會議提出的根本問題:人工智慧能否成為一種「美德的工具」?作為今天的第一位發言者,我當然不會聲稱提供定論。但我會提出一個起始命題:可以。然而,這是一個嚴格有條件的肯定。

人工智慧只有在我們具備清醒的認識,將其嚴格視為工具的情況下,才能成為美德的工具。

考慮工匠的類比。一把錘子並不具備美德;而是木匠具備。米開朗基羅手中的鑿子是超越美的工具,但鑿子本身並不節制、審慎或公正。它沒有道德價值。

以同樣的方式,算法無法具備美德。人工智慧可以驚人地增強人類的能力——它可以加速醫學研究、簡化管理,並組織人類知識的總和。但實際的美德培養仍然是純粹的人類事業。

美德是選擇善的習慣。它需要一個智慧來理解真理,一個意志來選擇它,以及一個靈魂來被它完善。一台優化統計獎勵函數的機器並不在做這些事情。

我們不能將道德代理權外包給數學方程式。如果我們錯誤地將無生命的機器視為我們的道德平等,我們也無法對自己的道德發展負全責。

這就是我今天為什麼要和你們交談的原因。作為一名天主教技術的建設者,我關注學術界。因為天主教學者是意義的歷史守護者。

在過去的兩千年中,天主教的知識傳統嚴格定義了人類的本質。你們是智慧、意志、理性、選擇和靈魂等詞語的守護者。今天,人工智慧產業正借用這些確切的詞語。他們正在進行一場深刻的語義漂移,這威脅到公眾對於成為人類的理解。

學術界有責任將嚴謹的本體論框架注入人工智慧生態系統。

但我們如何實際做到這一點?

我們必須誠實:在矽谷的前沿實驗室進行遊說或向政府請願進行全面監管,可能會產生有限的結果。科技行業發展太快,而政府行動太慢。真正的變革需要公民參與和公共意識的巨大轉變。

以下是你們作為學者可以積極塑造這一對話的方式:

  • 重拾課程:我們必須彌合STEM與人文學科之間的鴻溝。我們需要計算機科學學生必須修習托馬斯主義倫理學,我們需要哲學和神學學生必須理解基本的機器學習和統計。培養下一代天主教工程師,以建立真正的人類本體論。
  • 為公共廣場翻譯:不要將這種深刻的神學清晰鎖在學術期刊的門後。公眾渴望意義的建構。為世俗報紙撰寫專欄。開始Substack新聞通訊。參加流行的播客。當媒體發佈關於「有意識」人工智慧的煽動性標題時,我們需要天主教學者立即在公共廣場上反擊。
  • 裝備教區和學校:坐在教堂中的普通人對這些工具感到深刻的文化焦慮。我們需要學者為父母、神父和高中教師創建高度可及的框架。我們必須早早教導孩子們如何將人工智慧視為參考工具——一部數字百科全書——而不是朋友、代理或道德權威。
  • 舉辦跨學科論壇:利用安吉利庫等機構的召集力量,將真正的人工智慧建設者與道德神學家聚集在一起。迫使語言的碰撞面對面發生。

讓這成為我們的最後行動呼籲。

世俗世界對「有意識」機器的末世恐懼並不是謹慎的理由;而是一種對你們智識領導的迫切呼喚。通過理解人工智慧建設者的真實語言,教會可以大膽地走進公共廣場。你們可以將公共話語固定在真正的人類意義的不可動搖的真理上。你們可以確保人工智慧朝著真正的人類繁榮發展。

擁有這種清晰度,你們可以打破幻覺。你們可以確保人類仍然是雕刻者,而機器仍然是鑿子,永遠朝向上帝的榮耀。

謝謝。