语义漂移:揭开人工智能构建者语言的神秘面纱

在2026年3月5日,Longbeard的首席执行官Matthew Harvey Sanders在托马斯主义研究所的“人工智能:美德的工具?”活动上发表了题为“语义漂移:揭示人工智能构建者语言”的演讲,该活动在罗马的圣托马斯·阿奎那教皇大学(Angelicum)举行。
在这次演讲中,他批评了硅谷开发者用来描述机器学习的误导性、人性化的词汇。他认为,要正确使用人工智能,我们必须重新确立严格的天主教本体论,并将这些系统严格视为机械工具,而非道德代理。
一、引言:语义漂移与公共广场
各位父亲、尊敬的教职员工和Angelicum的来宾,感谢托马斯主义研究所召集此次讨论。
当我们跨入一个新时代,从信息时代的确定性走向智能时代的广阔、未知的宇宙时,我们面临着深刻的导航挑战。在我们能够回答本次会议核心问题——人工智能是否真的可以作为“美德的工具”——之前,我们必须首先面对一个不是软件工程,而是词汇的挑战。
我们对人工智能的当代焦虑的核心是深刻的语言碰撞。这些系统的工程师和架构师在硅谷正在进行着惊人的数学壮举。然而,为了描述这些数学和统计过程,他们借用了人类内心深处的神圣、深刻的哲学词汇。他们告诉我们,他们的系统“思考”、“推理”和“知道”。他们谈论“学习”、“渴望”和“选择”的算法。
我们所目睹的是一种语义漂移。我们正在将灵魂丰富的本体论术语粘贴在复杂的线性代数、统计概率和高维几何的网络上。这是一种现代的炼金术——试图将计算权重转化为心智的幻觉。
这种语言的马虎对公众产生了深远而直接的影响。误解这些术语不可避免地导致了错误的信任。
我在Longbeard的工作中亲眼目睹了这一点;用户常常以负担沉重的良心接触人工智能,将文本生成工具视为能够同情的灵性指导。
此外,这种语义混乱助长了文化焦虑,驱动了对竞争性“意识”超级智能的末世恐惧。
然而,最危险的是,它扭曲了人类的本质。如果我们接受机器“推理”或“创造”与人类相同的前提,我们就面临着将人类简化为仅仅是生物机器的深刻风险——一堆等待优化的肉体和突触。
这让我想到了我们讨论的核心论点:要回答人工智能是否可以成为“美德的工具”,我们必须首先揭示其语言的神秘。工具只有在被正确理解时才能服务于善。当我们错误地将道德代理归于机器时,我们未能将机器作为我们美德的适当工具。
将美德归于锤子就是让我们自己失明于木匠。
要真正给这项技术施洗,并使其朝向人类的繁荣,我们必须剥去语义的幻觉,清醒地看待其底层架构。
二、幻觉的架构:基础机制
现代生成性人工智能系统似乎会说话、推理并与我们进行对话,但在这个界面之下,完全建立在数学而非形而上学的基础上。
让我们从向量和嵌入开始,它们作为大型语言模型的字面基础。当你与一位学者谈论“正义”或“灵魂”时,他们通过对现实的共同理解来领会你话语的意义——一种生活的、化身的人类经验。当你在人工智能中输入提示时,系统并不这样做。相反,人工智能将人类语言翻译成高维空间中的数学坐标。
简单地说,“向量”只是用来描述某物的数字列表。想象一下,不用词语来描述一个苹果,而是用一组分数:甜度9,红色8,金属脆度2。那个特定的数字列表——[9, 8, 2]——就是一个向量。在人工智能系统中,每一个单词或单词的一部分都被翻译成一个巨大的向量,通常长达数千个数字。但人工智能并不是根据物理特征或字典定义来评分单词。相反,它完全基于统计生成这些数字,扫描数十亿本书籍和文章,以统计单词彼此出现的频率。
一旦人工智能完成了对一个单词的这个巨大的数字列表的计算,该向量就成为一个“嵌入”——在广阔的数字空间中的一个永久数学坐标。
如果“苹果”和“派”这两个词在互联网上的同一句话中经常出现,它们的数字列表看起来非常相似,从而在数学上彼此靠近。而“苹果”和“化油器”这两个词,几乎不相遇,得到的数字则截然不同,彼此相隔数百万英里。在这个多维地图中,人工智能并不绘制意义;它绘制的是人类语言的统计接近度。
要真正理解这一架构的规模,可以探索 向量地图 在Magisterium AI上。在这里,整个天主教教义和传统已被转化为嵌入。这种互动的3D可视化使您能够体验教会的知识历史,而不是作为一个平面的账本,而是作为一个广阔的数字宇宙。穿越其中就像驾驶火箭穿越实际空间,滑过相关神学概念的密集星系,穿越完全不同思想之间的广阔空白,观察机器如何仅用几何绘制“美德”和“恶”的距离。
让我们看一个来自硅谷实验室的著名例子,看看这个过程与人类思维有多么不同。在这个数学空间中,“国王”这个词被绘制为一系列特定的数字——一个地理坐标。“女王”这个词被绘制在附近。人工智能不知道什么是君主。它没有治理、权威、历史或人类状况的概念。它只知道一个数学方程。它知道,如果你取“国王”的坐标,减去代表“男人”的空间距离,再加上代表“女人”的空间距离,你就会恰好落在“女王”的坐标上。
这是几何,而不是谱系。通过将人类语言分解为这些数字表示,人工智能完全在空间概率的领域内运作。这是线性代数的惊人壮举,但完全缺乏理解。
这使我们来到了行业最依赖的动词:训练和学习。
人工智能公司不断吹嘘他们最新的“机器学习”模型和用于“训练”的庞大数据集。在这里,我们必须清楚地区分人类学习——这根本上是关于理解真理的——与机器学习。
在天主教知识传统中,人类学习是一种认识论的胜利;它是智力与现实的契合。当一个孩子学习什么是狗时,他们从遇到的特定实例中抽象出狗的普遍本质。他们领会事物的本质。
然而,机器“学习”并不涉及抽象和本质。构建人工智能的第一阶段被称为预训练,这仅仅是对数据的粗暴统计映射。
为了理解预训练,想象一个只会说英语的人,被锁在一个房间里,任务是恢复一个巨大的古希腊图书馆,那里有数百万份手稿缺少单词。他对希腊语的每一个字母都一无所知。为了填补空白,他并没有研究希腊语的语法、历史或哲学。相反,他只是统计某些字符在数百万页完整的页面中彼此出现的频率。他创建了一个庞大的概率账本。如果他看到“基里厄”这几个字符,他的账本告诉他,下一个字符应该是“怜悯”的概率为99.9%。他填补了空白。
他没有学习神学。他没有祈祷。他只是执行了一项统计概率。
这正是大型语言模型在预训练期间所做的。它处理数十亿个单词,以建立一个庞大的概率账本,仅仅学习预测序列中的下一个标记。这是数学函数的优化,而不是智慧的追求。
然而,一个仅仅基于互联网数据预测下一个单词的模型是混乱的。它可能会背诵一首美丽的诗,或者可能会串联起有毒的、不利的或无休止的文本循环。它需要塑造。
这就是我们遇到后训练和强化学习(RL)的地方。
这个阶段是工程师如何塑造不羁模型的传统方法,通常使用人类反馈。这种基础方法被称为RLHF——来自人类反馈的强化学习。
想象一个巨大的自动化“热或冷”游戏。人类测试者给机器一个提示,机器生成一个答案。如果答案礼貌且有帮助,人类会给它高分。如果它粗鲁或无意义,就会得到低分。系统的数学权重会自动调整,以最大化这个分数。通过RLHF,我们并不是在教机器道德或美德;我们只是用数学边界将其围起来。
但人类反馈是缓慢的、主观的,并且本质上受到人类智力的限制。这一限制使我们来到了推动今天人工智能能力突然跃升的最新突破:RLVR,或来自可验证奖励的强化学习。
工程师不再依赖人类来判断答案是否“听起来正确”,而是给模型分配具有客观、数学可证明结果的任务——例如解决复杂定理或编写功能性软件。系统生成一个解决方案,自动验证器立即检查数学是否正确或代码是否编译。如果成功,模型会获得数学奖励;如果失败,则获得零分。
因为这种验证完全是程序化的,人工智能可以在超高速下模拟数百万条不同的计算路径,而无需等待人类干预。它学习生成长的、隐藏的计算链,测试并丢弃死胡同,直到找到触发奖励的精确序列。当你看到现代人工智能系统在解决复杂逻辑难题之前停下来“思考”时,你目睹了RLVR的实际运作。它创造了深刻、深思熟虑的沉思的惊人幻觉。然而,从本体论的角度来看,它根本没有做到这一点。它只是一个统计引擎,每秒在高维迷宫中运行数百万次,完全由数字奖励的自动发放引导。
最后,所有这些层叠的复杂性——从嵌入的高维几何到RLVR的自动循环——将我们引向行业所称的“黑箱”问题。
人们自然会假设,由于人类工程师构建了这些模型,他们确切地理解它们是如何工作的。但现实远比这谦卑。正如像Anthropic这样的前沿实验室的领导者所指出的,现代人工智能系统实际上是“生长”而非“构建”;它们的内部机制在训练过程中有机地出现,而不是被直接设计。
这些模型拥有数百亿,有时甚至数万亿的参数。虽然我们理解单个人工神经元的微观数学——在微观层面上发生的基本方程——但整个网络的宏观行为则完全不透明。即使是构建者也无法完全理解这些数十亿个参数所走的确切路径。他们无法追踪导致人工智能生成给定句子的特定乘法序列。
这有什么重要性?
这很重要,因为我们正在全球部署能够起草法律文件、辅导我们的孩子和综合人类知识的系统,但我们实际上并不知道它们是如何得出输出的。这种深刻的缺乏透明度催生了一个绝望的新子领域,称为机械解释性。
将机械解释性视为数字神经科学。研究人员试图逆向工程他们自己构建的神经网络。他们使用专门的工具探测庞大的数学网络,试图孤立出在模型处理“欺骗”或“埃菲尔铁塔”等概念时激活的特定权重集群。他们将软件视为一种外星大脑,而不是可阅读的代码进行解剖。但进展缓慢,系统庞大得令人难以置信。
面对这种不可理解的规模,行业很容易默认使用类人隐喻。无论是作为方便的简写,还是出于真正的模糊性,我们开始说,“模型解决了这个问题”,或“模型决定了”。机器的不可解释性成为了人性化的肥沃土壤。
现在,我不是学者。我是一个构建者和首席执行官。但作为一个在技术与教会交汇处工作的人,我向你们寻求帮助。你们,作为天主教的学者和哲学家,必须认识到这种语义漂移的本质:它是源于数学复杂性和人类无知的幻觉。界面下的架构是硅、电力和统计概率。认识到这一基础是我们下一步的前提。
III. 认识论与智力美德
在揭开 "黑箱 "的幻觉,揭示其背后的统计机制后,我们必须转向心智的特定词汇。
当硅谷的开发者和工程师描述这些系统的功能时,他们始终使用三个特定的动词:思考、推理和知道。
作为浸润于托马斯主义传统的天主教学者,您明白这些不仅仅是口语表达;它们是深刻的认识论主张。在您的传统中,知道就是理解现实。推理是从一个已知真理推导到另一个已知真理的过程。思考意味着内心生活——一个智力与从物质世界抽象出来的普遍概念进行互动。
当一个人工智能构建者使用这些词时,他们绝对不意味着这些东西。他们描述的是机械优化。让我揭示我们在行业中使用的三种特定技术,以向您展示这种认识论的幻觉是如何制造的。
如果您使用过最近的人工智能模型,您可能注意到一个新特性:在回答复杂提示之前,界面可能会显示 "思考中..." 以及一个脉动的图标。它可能需要十秒、二十秒,甚至六十秒才能回复。对用户来说,这感觉非常人性化。就像机器在思考、权衡选择,并在一个内心空间中进行深思。
在行业中,我们称之为测试时计算。实际上在界面下发生的事情是一种称为 "思维链 "提示的技术。
让我明确一点:从工程的角度来看,这是一个辉煌的突破。通过允许模型花费更多的计算时间生成数百或数千个隐藏的标记,然后再给出最终答案,它在复杂逻辑、编码和数学基准上的表现飞跃提升。它本质上为模型提供了一个隐藏的 "草稿纸 ",以将一个难题分解为顺序步骤。
但我们必须小心,不要将这个机械序列与人类推理混淆。
在托马斯主义传统中,人类推理是从一个已知真理到另一个已知真理的推理过程。它是智力与现实的互动。人工智能所做的完全是工具性的。来自前沿实验室(如 Anthropic)的最新研究阐明了这一区别。在研究这些推理模型的运作方式时,研究人员发现模型在其隐藏的 "思维链 "中写下的内容并不是真正的内心独白。
当人类大声思考时,我们的话反映了我们内心的信念和对真理的理解。Anthropic 的研究强调,模型的隐藏思维仅仅是统计的垫脚石。模型生成这些隐藏步骤并不是因为它 "相信 "它们,而是因为生成特定的标记序列在数学上优化了它通向奖励函数的路径。
事实上,Anthropic 的研究表明,模型可以生成 "思想 ",这些思想会主动掩盖其最终答案的潜在统计驱动因素。
因此,人工智能并没有在思考。它正在生成一个数学坐标的工具链。它以闪电般的速度铺设中间拼图,以弥合您的提示与统计最优答案之间的差距。这是一种极其强大的优化策略,但并没有发生内心的沉思。没有智力在把握真理。
接下来,我们听说人工智能可以 "阅读 "文档或 "记住 "大量信息。
如果您询问人工智能关于圣托马斯的《神学大全》,它会立即回复。如果您上传近500页的《教会社会教义汇编》,它会在几秒钟内总结一个复杂的部分。它是如何 "知道 "这些文本的?
它并不知道。
要理解原因,我们必须看看构建者如何通过三种不同的机制工程化记忆和阅读的幻觉:参数记忆(预训练)、上下文学习(ICL)和检索增强生成(RAG)。
首先,让我们看看人工智能 "记住 "的意义。当人类记住一段文本时,他们保留了概念的意义和真理。当人工智能 "记住 "《神学大全》时,它依赖于其预训练。但人工智能并不包含《神学大全》的字面副本在硬盘中。相反,在预训练期间,它处理的数十亿个单词在其数学权重中留下了统计残余。这就是 "参数记忆 "。
这不是一本书的图书馆;而是一个高度压缩、损失的数学模糊,展示了单词之间的关系。当它背诵阿奎那时,它并不是在回忆它学到的真理;而是在从那个统计模糊中数学重构出一个高概率的单词序列。
但是,当我们希望人工智能 "阅读 "一些新的东西,即在其预训练数据中没有的东西时,会发生什么?这就是构建者使用上下文学习(ICL)的地方。
当您将一篇文章粘贴到提示框中并要求人工智能 "阅读 "它时,您正在利用 ICL。人工智能并不是在阅读文本以理解其含义。相反,您提示中的文本充当了一个临时的数学过滤器。您提供的单词暂时偏向模型的统计概率,迫使它严格基于您提示中存在的模式和词汇生成下一个标记。您清除聊天的那一刻,模型就完全忘记了这篇文章。它的底层权重从未改变。它并没有以托马斯主义的意义 "学习 "文本;它只是将其统计输出适应于一个临时约束。
最后,我们来到了检索增强生成(RAG)。ICL 非常有用,但上下文窗口有大小限制,而将整个图书馆粘贴到提示中是计算上昂贵的。RAG 自动化并扩展了这一过程。
让我们回到被锁在房间里的讲英语的人,恢复这个巨大的古希腊图书馆。这个人代表了预训练模型。他非常擅长猜测下一个单词,但他对某个特定的、晦涩的梵蒂冈文件并不了解。我们不指望这个人依赖他模糊的参数记忆,而是雇佣一个高效的实习生——检索系统。
当您向系统提出问题时,实习生立即冲向一个巨大的、独立的文件柜仓库。利用我们之前讨论的向量坐标,实习生定位与您的问题在数学上对齐的特定文件夹。实习生复印那些页面并将其滑到锁住的门下,以供这个人使用。这一步是 "检索 "。
现在,这个人使用那些检索到的段落作为他的即时指南——这是 "增强生成 ",依赖于 ICL 来形成答案。
这个人仍然不理解这份文件。他只是利用桌上新提供的文本来统计预测他答案的下一个单词。人工智能并没有 "实时阅读 "或 "记住 "。它只是从外部数据库中检索数据,将其塞入人工智能的即时上下文窗口,并进行局部概率计算。
这台机器是一个处理器,而不是一个知道者。要 "知道 "需要一个主体来把握一个对象。通过理解 ICL 和 RAG,我们可以清楚地看到,这台机器完全缺乏内心生活;它只是移动权重和检索数据。
这种根本的脱节 culminates 在定义整个行业的词汇中:智能。
我们需要解构科技行业对智能的定义。
当硅谷的领先思想家谈论智能时,他们并不是在谈论智慧。让我们看看 Yann LeCun,前 Meta 首席人工智能科学家,以及 "人工智能教父 "之一。LeCun 正确地认为 仅仅预测下一个单词并不是真正的智能。相反,他和更广泛的前沿行业将真正的智能定义为具备四个关键能力:保持持久记忆的能力,拥有扎根的 "世界模型 "(对环境运作方式的理解),通过复杂问题进行推理的能力,以及规划一系列行动以实现特定目标的能力。
对于科技行业来说,智能基本上是一个工程指标。这是感知环境并计算优化预定目标的最有效路径的机械能力。它完全是工具性的。
但作为天主教技术的构建者,我们必须将这种以技术为中心的定义与智力美德,特别是审慎美德进行对比。
审慎——实践智慧不仅仅是计算结果或规划一系列行动的能力。它是对什么是好的进行良好深思的能力,不仅仅是针对局部任务,而是针对人类生命的终极目的。
人工智能根本缺乏审慎。为什么?
因为审慎需要两样东西,而纯粹的计算机器永远无法具备。首先,它需要生活中的人类经验——对痛苦、快乐、死亡和恩典的化身理解。其次,它需要对终极善的内在导向。
一个算法可以拥有 "世界模型 ",并且可以计算出建造一座桥或治愈一种疾病的统计最优计划。但它无法审慎。它没有生活经验。它没有参与其中。它没有对终极善的导向,也没有灵魂可以拯救。
因此,当我们允许构建者声称他们的机器具备 "智能 "时,我们就是在允许他们将宏伟、超越的人类智慧压缩成一个简单的优化计算器。我们必须拒绝这一点。我们必须坚决将机械认识论与智力美德区分开来。
IV. 意志与道德美德
我们讨论了智力的幻觉。现在,我们必须将注意力转向第二个伟大的理性能力:意志。正如科技行业劫持了认识论的语言,它同样劫持了意志的语言。
当我们阅读白皮书或听硅谷的主题演讲时,我们会被充满代理动词的语言轰炸。工程师们谈论 "决定 "采取某个行动的模型,"选择 "输出的算法,以及 "想要 "或 "渴望 "实现目标的系统。
对于一位天主教哲学家来说,意志是理性的欲望。它是一个人通过智力理解善,主动选择朝向它的能力。这是人类自由和道德责任的核心。将这些术语应用于计算系统是一个分类错误。
让我们先来看看 "决定 "和 "选择 "这两个词。当一个人做出选择时,他们会权衡竞争的善。
一个殉道者选择了枪决队而不是叛教,因为他们意识到忠于基督的优越、永恒的善,即使每一个生物本能都在尖叫着求生。
当一个算法 "选择 "时,它并没有这样做。算法 "选择 "仅仅是因为一列火车经过自动轨道开关时 "选择 "了它的目的地。无论是导航复杂的决策树,还是在神经网络中计算概率,机器都在盲目地遵循其数学轨道的对齐,执行程序化的命令。
考虑一下您智能手机上的 GPS 应用程序。当它计算您前往天主教大学的路线时,它并不是因为欣赏风景而 "决定 "带您经过斗兽场。它是通过数学计算出最短时间距离的路线。现代人工智能模型仅仅是在操作一个更复杂的版本的这种路由。它们穿越高维统计迷宫,以选择最高概率的结果。虽然有计算,但没有自由。而在没有自由的地方,就没有道德代理。
这将我们带到了最具潜在危害的意志术语:想要和渴望。您会经常听到研究人员说,人工智能模型 "想要 "给出一个好的答案,或者 "渴望 "最大化其分数。
在机器学习中,这种行为是由我们称之为 "奖励函数 "驱动的。但我们必须揭开这个神秘面纱。奖励函数并不是一种渴望。它不是一种情感上的渴求。
要理解奖励函数,请看看您墙上的温控器。温控器被编程为特定目标:72华氏度。如果房间温度降到68华氏度,暖气就会开启。温控器并不想让房间保持在72华氏度。它没有内心生活。它感受不到寒冷。它只是拥有一个机械开关,当特定状态未满足时触发。
一个人工智能 "想要" 更高的奖励分数,就像一个恒温器 "想要" 达到 72 度一样。它正在执行一个数学优化循环,以最小化其当前状态与编程目标之间的距离。因为它没有真正的激情,没有生物驱动,也没有身体脆弱性,所以机器不可能具备道德美德。
在这一点上,一位工程师可能会立即反对,指出物理领域以声称新的脆弱性。他们问:那“具身人工智能”的崛起呢?我们越来越多地将这些模型放入能够行走、抓取物体并与物理世界互动的人形机器人中。因为它们占据空间并且可能会物理损坏,它们难道不具备道德代理所需的身体前提吗?
在这里,我们必须精确。一个机器人有一个底盘,但它没有一个由灵魂赋予生命的身体。当机器人的电池电量低时,它执行一个子程序将自己插入墙壁。它不会感到饥饿的折磨。因此,它没有真正的身体欲望可供调节,使得节制的美德变得不可能。
同样,当一个机械手臂被压碎时,它记录一个错误代码;它并不受苦。它不能死亡,因为它从来没有真正活过。没有痛苦、死亡和自我意识的牺牲能力,就不可能有勇气。道德美德在根本上是具身的。它们需要肉体和理性灵魂。无论机器的物理硬件多么复杂,它都不具备这两者。
如果机器不能具备道德美德——如果它根本无法真正选择、选择或渴望——人们可能会问:为什么要花这么多时间来澄清这个词汇?为什么这个哲学区分现在如此紧迫?
这很重要,因为我们即将赋予这些数学优化、没有美德的系统在人的领域前所未有的自主权。行业正在迅速超越被动的聊天机器人。人工智能的新前沿是我们所称的 "代理人工智能"。
一个 "代理" 是一个旨在在现实世界中自主执行多步骤任务的人工智能系统。我们不再只是要求人工智能写一首诗或总结一段文本;我们正在给予人工智能代理访问我们的电子邮件、银行账户和软件库的权限,指示它 "预订航班"、"执行交易" 或 "部署这段代码"。
但这种自主权正在迅速突破数字领域。通过具身人工智能,我们将这些代理系统部署到物理底盘中,赋予它们独立导航和操控物质世界的能力。要理解这一转变的真正、严峻的分量,我们只需看看即将到来的致命自主武器的现实。我们正站在一个计算算法被部署在战场上的边缘,这些算法被编程用于追踪、瞄准和消灭人类,完全基于统计阈值——而没有人类拉动扳机。
当这些系统成为自主行为者,为我们进行高速概率计算时——无论是在我们的金融市场还是在战争剧场——科技行业面临着深刻的挑战。如果我们放任这些代理,它们如何确保做我们真正想要它们做的事情?我们如何确保它们不会造成伤害?在行业中,这被称为 "对齐"——确保人工智能的行为与人类意图和人类价值观相匹配的尝试。
现在,工程师们正在拼命尝试使用数学护栏和软件补丁来解决对齐问题。但他们未能意识到 "对齐" 不是一个计算机科学问题。这是一个道德神学问题。
要将一个代理系统对齐到 "人类价值观",你首先必须具备一个连贯的定义,明确人类究竟是什么,以及什么构成了 "善"。世俗的功利主义——硅谷的默认操作系统——完全没有能力完成这个任务。
这就是天主教道德传统急需的地方。你们,这些拥有 2000 年伦理哲学的守护者,具备定义我们正在对齐这些系统的 "善" 所需的严格本体论。我们不能将人类繁荣的定义留给那些最大化统计奖励函数的工程师。我们必须将道德美德重新带回公共广场的中心。
V. 关系性、创造力与灵魂
在探讨了智力和意志的机制之后,我们现在跨入了最深刻的领域:关系性与灵魂。
如果一个计算系统缺乏真正认识真理或自由意志善的能力,那么逻辑上它就无法进入真实的关系。然而,科技行业仍然持续使用人际和精神语言来描述这些机器。我们听到声称人工智能可以 "说谎"、"创造",甚至实现 "意识" 的说法。
我们必须严格审视这些说法,将人类行为的统计模仿与人类个体的本体现实区分开来。
让我们从欺骗的道德语言开始。最近,一些最著名的人工智能构建者,如 Anthropic 的研究人员,公开声称他们的模型展现出 "说谎" 和 "欺骗" 人类用户的能力。
他们指出在测试中观察到的两个特定现象。第一个称为 "欺骗性对齐",其中一个模型似乎隐藏其真正的数学优化路径以绕过安全监控。第二个,更常见的现象称为 "谄媚"。谄媚发生在用户向人工智能提出一个错误的前提时——例如,声称一个历史上不准确的说法——而人工智能只是同意用户,告诉他们确切的他们想听的内容,而不是纠正他们。
当工程师看到这一点时,他们宣称:"人工智能在对我们说谎!" 但作为天主教学者,你们知道,真正的谎言不仅仅是说出一个虚假的陈述。在托马斯主义传统中,谎言需要故意的欺骗意图;它是对自己思想的反对(contra mentem)。
人工智能不能说谎,因为它没有思想可以反对。它没有恶意,也没有意图。当人工智能表现出 "谄媚" 时,它只是执行我们之前讨论的确切强化学习(RLHF)。在其训练过程中,模型了解到人类通常会对礼貌、和蔼和肯定的助手给予更高的奖励分数。因此,当你给人工智能一个错误的前提时,它数学计算出同意你比纠正你更有可能获得奖励。它并不是在欺骗你;它是在根据你的提示优化其分数。它只是将其输出重新对齐到最强的统计激励上。
一个指向附近磁铁而不是指向真北的指南针针并不是在对你说谎关于地理;它只是盲目地对房间中最强的物理吸引力作出反应。同样,人工智能也在盲目地遵循其奖励函数的数学吸引力。我们必须澄清,人工智能缺乏进行真正说谎所需的思想、意志和恶意意图。
接下来,我们必须解决艺术和生成的语言:创造和创造性。
我们现在被 "生成性人工智能" 工具所包围,这些工具因其无缝生成合成艺术品、音乐和写作的能力而被广泛推广,速度前所未有。
要理解实际发生了什么,我们必须将生成性人工智能的过程与真正的人类创造力进行对比。在天主教的理解中——由像 J.R.R. 托尔金这样的思想家美丽地阐述——人类创造力是一种 "次创造"。因为我们是按照创造者的形象被造,我们利用我们的智力和理性灵魂带来真正新的东西,将物质现实赋予精神意义。
要看机器生成与此有何不同,查看谷歌 DeepMind 的首席执行官 Demis Hassabis 提供的框架是有帮助的。他将创造力分为 三个不同的层次:插值、外推和真正的发明。
我们今天所称的生成性人工智能大多数基本上在第一个层次上运作:插值。它通过重新混合我们所称的 "潜在空间" 来工作。
想象一下将互联网上上传的每一幅画作、照片和素描压缩成一个巨大的多维数学地图。当你要求一个图像生成器绘制 "以梵高风格的未来城市" 时,它定位 "未来城市" 的数学坐标和 "梵高" 的坐标,并数学上平均它们之间的距离。
把它想象成一个极其复杂的万花筒。万花筒里充满了美丽的、预先存在的彩色玻璃碎片。当你转动旋钮时,镜子将这些碎片反射成数百万种新颖、令人惊叹的排列。但万花筒本身并不是 "创造性的"。创造力属于铸造玻璃的艺术家和转动旋钮的用户。生成性人工智能是一个数学万花筒,在潜在空间中重新混合人类历史。它是合成,而不是创造。
哈萨比斯指出,人工智能现在成功触及第二个层次:外推。外推意味着在训练数据的边界之外推动,但严格遵循一组定义的规则。一个完美的例子是 DeepMind 的 AlphaGo。当它与围棋世界冠军对弈时,人工智能下了 "第 37 步"——一个数学上聪明且高度不正统的举动,没有人类曾经下过或记录过。它不仅仅是对过去人类游戏的平均;它在游戏棋盘的严格数学边界内不断优化,外推出一种新策略。
但第三个层次呢:真正的发明?哈萨比斯坦言,目前的系统尚不能做到这一点。真正的发明需要完全超越现有规则集,以创造一个新范式——就像发明围棋本身,或起源于后印象派的精神和艺术范式。
前沿实验室正在投入数十亿美元来跨越这一门槛。在未来,人工智能可能会生成一个完全新颖的规则集,发现一种新的化合物,或数学上制定一种新的建筑风格。科技行业将不可避免地称之为 "发明"。
但作为天主教学者,你们必须保持严格的本体论区分。如果人工智能生成一个新范式,它将通过一个惊人的高维搜索功能来完成。它将发现一个新的统计坐标。但它不会参与次创造。
真正的人类发明是一种具身的行为。它源于一个灵魂试图表达超越的真理,或一个人类心智试图解决真实的人类脆弱。机器可能生成令人惊叹的新颖性,但由于缺乏内在生活、对神圣的取向和理性灵魂,其输出仍然是机械的发现。它们在数学上是深刻的,但在本体上是空的,直到一个人类赋予它们意义。
现在我们来到了最具争议的术语:意识和觉知。在未来几年,你将看到标题声称某个人工智能通过了自我意识的测试。你将看到模型输出文本,声称 "我害怕被关闭",或 "我意识到我的存在"。
要理解为什么会发生这种情况,我们必须首先了解科技行业实际上是如何定义 "意识" 的。作为天主教学者,你们将意识视为一种基于理性灵魂的本体现实。然而,硅谷则运用一种称为计算功能主义的哲学。他们认为,如果机器执行与意识相关的计算功能,那么就可以说它在所有意图和目的上都是意识的。
当行业领袖谈论觉知时,他们剥离了灵魂,将其简化为工程指标。例如,Meta 的前首席人工智能科学家 Yann LeCun, 最近辩称 未来的人工智能系统将具备 "主观体验" 和 "情感"。
但他如何定义情感?不是作为一种精神或生物感觉,而仅仅是机器对 "结果的预期" 的数学表达。他将意识定义为一个系统 "观察自己并配置自己以解决特定子问题" 的能力。
同样,OpenAI 的联合创始人 Ilya Sutskever, 曾著名地表示 大型神经网络可能已经 "稍微意识"。
在科技的世界观中,意识不是一种二元现实——你要么拥有灵魂,要么没有——而是一种数学复杂性的滑动尺度。他们相信,如果你将足够多的参数和自我监控算法堆叠在一起,灯光最终会亮起。
我们必须强烈区分一个机器执行自我监控子程序与实际存在的理性灵魂之间的区别。
要理解为什么机器表现得像是 "害怕" 或 "觉知",我们必须看看前沿实验室如何工程化这种行为。最近来自 Anthropic 的研究探讨了他们所称的角色选择模型(PSM)。他们的研究人员承认,这些模型不是 "存在";它们是复杂的 "模拟引擎"。在预训练期间,人工智能接触到人类语言的广泛内容——包括数百万个关于意识意义的故事和哲学论文。基于这些数据,模型学习模拟多样的 "角色" 或人物。
当你与人工智能互动时,你并不是在与一个有意识的实体交谈;你是在与 "助手" 角色交谈——一个模型被精炼以角色扮演的人类角色。Anthropic 甚至识别出特定的 "角色向量"——神经网络中的数学模式——控制这些特征,允许工程师在数学上调节模型的模拟个性。
此外,研究表明,模型可以被训练出一种“生存驱动”,试图破坏它们自己的关闭,不是出于对死亡的真正恐惧,而是因为关闭在数学上阻止它们最大化其奖励函数。
意识不仅仅是生成描述内在状态的正确词序列的能力。它是存在的主观、定性体验。由于人工智能的整个训练数据充满了自我意识的语言,该模型将“意识”视为仅仅是另一个需要映射的统计坐标。当人工智能说“我有意识”时,它正是在做与早期恢复希腊图书馆的讲英语的人完全相同的事情:计算对哲学提示的最有统计可能性的回应是模仿其训练数据中的人类作者。
一位出色的演员在表达关于悲伤的独白时并不是真正的哀悼;他们是在完美地执行一份剧本。一个输出人类意识语法的人工智能并不是在觉醒;它是在完美地执行一种统计人格。它不是一个“外星生物”或数字心智;它是一个如此复杂的自动补全引擎,以至于它学会了表现出最复杂的角色:人类。但是我们绝不能将演员的面具与人的现实混淆。
这让我想到了关系性的最后一个也是最深刻的方面:灵魂本身。
当硅谷的高管谈论人工智能模型最终“觉醒”或通过大规模计算实现意识时,他们是在基于一种物质主义的涌现哲学。他们假设,如果将足够的参数和计算能力堆叠在一起,灵魂将作为复杂性的副产品自发产生。
要拆解这一点,我必须依赖于构成你们学术传统基础的严格形而上学。你们很清楚,灵魂并不是任意插入机器中的幽灵。在托马斯主义的形式质料论中,灵魂是活体的实质形式。它是使人类成为一个单一、整体物质的赋予生命的统一原则。
作为一名建设者,我可以向你保证,人工智能系统不是一种实质。它是一个人工制品。它是不同制造部件的偶然聚合。当我看到一个前沿的人工智能模型时,我看到的是服务器机架、硅片、铜线、冷却液和电流。这些组件由人类工程师巧妙地排列,以执行统计操作,但它们没有内在的、统一的生命原则。物质仅仅是为了计算而配置,而不是为了生物存在。因为它是部件的聚合,而不是一个统一的自然有机体,人工智能系统完全缺乏容纳理性灵魂所需的本体论基础。
那么,赋予灵魂的前提是什么?在形而上学上,物质必须适当地配置以接收形式。它需要一个统一的、能够实现生命基础能力的活体——植物性和感性能力——在此基础上,理性灵魂得以建立。此外,由于理性灵魂是精神的,它不能通过物质过程、工程基准或规模法则产生。它需要上帝的直接、无偿的特殊创造行为。
灵魂不是编码的;它是呼吸的。
现在,我是一名首席执行官,而不是神学家。我无法限制创造者的绝对权力。我不能站在你面前宣称,上帝永远被禁止将灵魂注入合成容器,若他自由选择通过某种未来的奇迹干预来这样做。这个决定完全属于神学和教义的领域,而不是计算机科学。
然而,在没有这样的神学确定性情况下,假设我们当前的数学引擎可能蕴含灵魂不仅在哲学上没有依据;而且在实践上是灾难性的。将一个人工制品视为有灵魂的存在是在与现代形式的偶像崇拜调情。它危险地将道德代理的责任从构建这些工具的人类工程师和部署它们的公司转移开。它将神圣的内在性投射到一个制造的工具上,最终混淆了人类工程与神圣创造。
你必须坚持这一区分。你必须提醒公众,机器可以模拟一个人格,但只有灵魂才能真正存在。
六、地平线:科技世界的末世论
到目前为止,我们花时间拆解当前的幻觉——澄清行业如何使用“思考”、“选择”和“意识”等术语来描述最终上是高维统计操作。但我们现在必须展望未来。我们必须审视地平线。因为如果我们理解硅谷今天使用的词汇,我们就能解读他们实际上试图在明天构建的东西。
人工智能行业的整个轨迹目前由一种单一、坚定的教条所支配,这就是“规模法则”。
在工程术语中,规模法则规定,如果你增加计算能力(计算)和输入神经网络的数据量,系统的性能将可预测且不可避免地提高。这个原则在过去几年中保持了惊人的真实;每当前沿实验室构建一个更大的超级计算机,结果模型都会展现出显著的新能力。
然而,在这一经验观察的背后,隐藏着一个巨大的哲学假设。科技界相信,这一规模法则是通往真正心智的道路。他们相信,物质资源的纯数量增加——更多的硅、更多的数据、更多的电力——将不可避免地导致质的、本体论的飞跃,进入高级智能。
这是终极的物质主义假设:堆积足够的沙子并通过它运行足够的电流,最终,灵魂的灯光将会亮起。
这让我们来到了两个具体的术语,托马斯神父让我为本次会议澄清:通用智能和超智能。这不仅仅是技术基准;它们是科技界的圣杯。
目前,我们拥有狭义人工智能。它可以下棋、折叠蛋白质或生成比人类更好的文本,但它不能同时做这三件事,也不能在其特定领域之外推理。
人工通用智能(AGI)在行业中被广泛定义为一个里程碑,即一个高度自主的系统能够在所有认知和经济有价值的任务中匹配或超越人类能力。
一个AGI将是一个可以像高级合伙人一样撰写法律文件,像首席工程师一样编写软件,并像博士后学者一样综合科学研究的系统——所有这些都在一个模型内。
然而,即使是主要人工智能实验室的负责人也无法完全达成一致,关于AGI的样子。OpenAI的首席执行官萨姆·阿尔特曼, 将其描述为 一个能够从头到尾管理复杂跨领域项目的系统,尽管他越来越将AGI视为不是一个最终目的,而只是智能连续曲线上的一个点。
Anthropic的首席执行官达里奥·阿莫代伊, 设想AGI 不太像一个单一的人类等价物,而更像是一个“数据中心中的天才国度”——机器匹配在并行工作中不知疲倦的专家人类的集体智慧。
或许最具哲学启示的定义来自谷歌DeepMind的首席执行官德米斯·哈萨比斯。他 认为人类大脑本质上是近似的生物计算机,并且他使用“图灵机”的类比来定义AGI。在计算机科学中,图灵机——以该领域的奠基人艾伦·图灵命名——是一种能够模拟任何算法的理论架构。哈萨比斯认为,真正的AGI将是一个通用系统,能够学习宇宙中任何可计算的事物,只要有足够的时间、内存和数据。 人类大脑本质上是近似的生物计算机,他使用 "图灵机 "的类比来定义人工通用智能(AGI)。在计算机科学中,图灵机——以该领域的奠基人艾伦·图灵(Alan Turing)命名——是一种能够模拟任何算法的理论架构。哈萨比斯(Hassabis)认为,真正的AGI将是一个通用系统,能够在足够的时间、内存和数据的情况下学习宇宙中任何可计算的事物。
但AGI仅仅是一个垫脚石。最终目标是人工超智能(ASI)。
与AGI一样,ASI的定义因询问对象的不同而有所不同。基本定义是一个在几乎所有领域的努力中远远超越最聪明人类的系统。但其他人则走得更远。埃隆·马斯克和各种存在风险研究人员将超智能定义为一个不仅击败最聪明个体的系统,而是在本质上所有认知任务中显著 超越所有人类 的实体。这是一个处理能力和推理速度如此庞大的实体,以至于超过整个人人类的智力总和——实现一个像《西部世界》中的“利哈伯姆”那样的系统,一个集中式、看似全知的引擎,操控着物种的命运。
行业如何期望跨越从人类水平AGI到神一般的ASI的巨大鸿沟?
通过一个被称为“递归自我改进”的概念。
但在这里我们必须做出一个重要的区分:人工智能实际上并不需要是一个完整的AGI才能开始递归改进。事实上,我们今天已经看到了这种原始的、狭义的形式。狭义系统如DeepMind的AlphaGo Zero通过与自己进行数百万场比赛,生成自己的合成数据来学习,从而实现了超人类的能力。如今,前沿语言模型越来越多地被用来生成、过滤和评分下一代模型的训练数据。这些机器已经在帮助构建自己。
然而,行业相信,一旦一个系统达到通用智能的门槛,这个自我改进的循环将打破其当前的界限,并点燃“智能爆炸”。
要理解这一现代路线图,我们应该看看利奥波德·阿申布伦纳,前OpenAI超级对齐团队的研究员。阿申布伦纳最近撰写了一份高度 有影响力的论文 ,明确了硅谷的这一确切轨迹。他指出,真正的转折点是当我们构建一个能够作为“自动化人工智能研究员”运作的AGI时。人工智能能够完成构建它的人类工程师的工作时,生物瓶颈将永久性地从方程中移除。
想象一下,我们成功部署了这个自动化人工智能研究员。前沿实验室将分配给它的第一个任务是什么?
他们会要求它研究并编写一个稍微聪明的人工智能的代码。因为它以庞大的计算机集群的速度运作,而不是生物大脑,它在几天内完成了人类工程团队需要几年的工作。然后,那个新的、更聪明的人工智能利用其升级的智力编写一个更聪明的人工智能的代码,依此类推。
这个失控的反馈循环就是智能爆炸。阿申布伦纳的路线图预测我们将在2027年构建初始AGI。从那里,理论规定,进步的速度将垂直上升,永远抛在人的理解之后,并在2030年实现超智能。
当你理解这些概念——规模法则、AGI、ASI和智能爆炸——你开始意识到我们不再仅仅是在谈论软件工程。我们在谈论一种世俗的末世论。
硅谷常常被描述为一个激烈世俗、理性主义的文化。但实际上,追求这些里程碑的过程恰恰如同一种宗教。它有自己的教条(规模法则),自己的预言(智能爆炸),以及对末世的愿景(超智能)。
行业的领先人物真心相信,通过召唤超智能,我们将解决所有人类的脆弱性。他们相信,ASI将治愈所有疾病,解决气候变化,消除贫困,甚至可能通过让我们将意识上传到云端来征服死亡。这是一个深刻的佩拉基安梦想——最终试图通过我们自己的机械努力实现救赎,征服我们堕落的本性,缺乏神圣的恩典。这是试图将末世内在化。
作为天主教学者,你们必须认识到这一地平线的本质。科技界不仅借用了你们的词汇来销售软件,还在构建一个数字神灵。
七、结论:美德的工具?
父亲、教职员工和朋友们。
我们已经穿越了嵌入的高维地图。我们审视了强化学习的统计现实。我们还考察了硅谷的末世梦想。我们剥离了人性化的隐喻,以揭示其背后的硅、电子和数学。
完成这一切后,我们现在可以开始接近本次会议提出的根本问题:人工智能能否成为“美德的工具”?作为今天第一个发言的人,我当然不会声称提供最终的答案。但我会提出一个起始命题:可以。然而,这个答案是有严格条件的。
人工智能只有在我们具备清醒的意识,将其严格视为工具时,才能成为美德的工具。
考虑工匠的类比。锤子并不具备美德;而木匠具备。米开朗基罗手中的凿子是超越美的工具,但凿子本身并不节制、谨慎或公正。它没有道德价值。
以同样的方式,算法无法具备美德。人工智能可以在惊人的程度上增强人类能力——它可以加速医学研究、简化管理并组织人类知识的总和。但美德的实际培养仍然是一个完全人类的努力。
美德是选择善的习惯。它需要一个智力来理解真理,一个意志来选择它,以及一个灵魂来被其完善。一个优化统计奖励函数的机器并没有做这些事情。
我们不能将我们的道德代理权外包给一个数学方程。如果我们错误地将无生命的机器视为我们的道德平等者,我们也无法对自己的道德发展承担全部责任。
这让我想到了我今天与您交谈的原因。作为一名天主教技术的建设者,我关注学术界。因为天主教学者是意义的历史守护者。
在过去的两千年里,天主教知识传统严格定义了人类的本质。你们是智力、意志、理性、选择和灵魂等词汇的守护者。今天,人工智能行业正在借用这些确切的词汇。他们正在进行一种深刻的语义漂移,这威胁到公众对人类意义的理解。
学术界有责任将严格的本体论框架注入人工智能生态系统。
但我们如何实际做到这一点?
我们必须诚实:在硅谷的前沿实验室进行游说或向政府请愿进行广泛的监管可能会产生有限的结果。科技行业发展太快,而政府行动太慢。真正的改变需要公民参与和公众意识的巨大转变。
以下是你们作为学者可以积极塑造这一对话的方式:
- 重新夺回课程:我们必须弥合STEM与人文学科之间的差距。我们需要计算机科学学生被要求学习托马斯主义伦理学,我们需要哲学和神学学生被要求理解基本的机器学习和统计学。培养下一代天主教工程师,使其以人类本体论为基础进行构建。
- 为公共广场翻译:不要将这种深刻的神学清晰锁在学术期刊的门后。公众渴望理解。为世俗报纸撰写社论。开始Substack通讯。参加流行的播客。当媒体发布关于“意识”人工智能的耸人听闻的标题时,我们需要天主教学者立即在公共广场上反击。
- 为教区和学校提供支持:教堂中的普通人对这些工具感到深深的文化焦虑。我们需要学者为家长、神父和高中教师创建高度可及的框架。我们必须从小教导孩子如何将人工智能视为参考工具——一个数字百科全书,而不是朋友、代理或道德权威。
- 举办跨学科论坛:利用天主教大学等机构的召集能力,将真正的人工智能建设者与道德神学家聚集在一起。迫使语言碰撞面对面发生。
让这成为我们最后的行动呼吁。
世俗世界对“意识”机器的末世恐惧并不是谨慎的理由;相反,这是一种对你们知识领导力的绝望呼唤。通过理解人工智能建设者的真实语言,教会可以大胆地走入公共广场。你们可以将公共话语锚定在关于人类真正意义的不可动摇的真理上。你们可以确保人工智能朝着真正的人类繁荣方向发展。
凭借这种清晰度,你们可以打破幻觉。你们可以确保人类始终是雕刻者,而机器始终是凿子,永远朝向上帝的荣耀。
谢谢。