Sự Trôi Dạt Ngữ Nghĩa: Giải Thích Ngôn Ngữ Của Các Nhà Xây Dựng AI

Vào ngày 5 tháng 3 năm 2026, Matthew Harvey Sanders, Giám Đốc Điều Hành của Longbeard, đã có bài phát biểu với tiêu đề “Sự Trôi Dạt Ngữ Nghĩa: Giải Mã Ngôn Ngữ của Các Nhà Xây Dựng AI” tại sự kiện “Trí Tuệ Nhân Tạo: Một Công Cụ Cho Đạo Đức?” được tổ chức tại Đại Học Giáo Hoàng Thánh Tôma Aquinas (Angelicum) ở Rome.
Trong bài phát biểu này, ông phê phán từ vựng gây hiểu lầm và nhân hóa mà các nhà phát triển Silicon Valley sử dụng để mô tả việc học máy. Ông lập luận rằng để sử dụng AI một cách đúng đắn, chúng ta phải lấy lại một bản thể học Công Giáo nghiêm ngặt và coi những hệ thống này chỉ đơn thuần là các công cụ cơ khí chứ không phải là các tác nhân đạo đức.
I. Giới Thiệu: Sự Trôi Dạt Ngữ Nghĩa và Không Gian Công Cộng
Các Cha, các giảng viên quý mến, và các khách mời của Angelicum, cảm ơn Viện Tôma đã tổ chức cuộc thảo luận này.
Khi chúng ta bước qua ngưỡng cửa vào một kỷ nguyên mới, rời bỏ những chắc chắn vững chắc của Thời Đại Thông Tin để tiến vào vũ trụ rộng lớn, chưa được khám phá của Thời Đại Trí Tuệ, chúng ta đối mặt với một thách thức điều hướng sâu sắc. Trước khi chúng ta có thể trả lời câu hỏi cấp bách ở trung tâm hội nghị này—liệu Trí Tuệ Nhân Tạo có thể thực sự phục vụ như một 'công cụ cho đạo đức' hay không—chúng ta phải trước tiên đối mặt với một thách thức không phải của kỹ thuật phần mềm, mà là của từ vựng.
Tại cốt lõi của sự lo âu hiện đại của chúng ta về AI là một va chạm ngôn ngữ sâu sắc. Các kỹ sư và kiến trúc sư của những hệ thống này ở Silicon Valley đang thực hiện những kỳ công toán học đáng kinh ngạc. Tuy nhiên, để mô tả những quy trình toán học và thống kê này, họ đã mượn từ vựng thiêng liêng, sâu sắc về triết học của con người. Họ nói với chúng ta rằng hệ thống của họ "nghĩ," "lý luận," và "biết". Họ nói về các thuật toán "học," "mong muốn," và "lựa chọn."
Những gì chúng ta đang chứng kiến là một sự trôi dạt ngữ nghĩa. Chúng ta đang lấy từ vựng phong phú, bản thể học của linh hồn và dán nó lên những mạng lưới phức tạp của đại số tuyến tính, xác suất thống kê, và hình học nhiều chiều. Đó là một phép thuật hiện đại—một nỗ lực để biến trọng số tính toán thành một ảo tưởng về tâm trí.
Sự cẩu thả ngôn ngữ này có một tác động sâu sắc và ngay lập tức đến công chúng. Việc hiểu sai những thuật ngữ này chắc chắn dẫn đến sự tin tưởng sai lầm.
Tôi thấy điều này một cách trực tiếp trong công việc của chúng tôi tại Longbeard; người dùng thường tiếp cận AI với lương tâm nặng nề, coi một công cụ tạo văn bản như thể nó là một linh mục tâm linh có khả năng đồng cảm.
Hơn nữa, sự nhầm lẫn ngữ nghĩa này thúc đẩy sự lo âu văn hóa, tạo ra những nỗi sợ hãi tận thế về những siêu trí tuệ "có ý thức" đối thủ.
Nguy hiểm nhất, tuy nhiên, nó tạo ra một cảm giác méo mó về ý nghĩa của việc trở thành con người. Nếu chúng ta chấp nhận giả thuyết rằng một cỗ máy "lý luận" hoặc "sáng tạo" giống như một con người, chúng ta đang đối mặt với nguy cơ sâu sắc là giảm thiểu con người chỉ còn là một cỗ máy sinh học—một cụm thịt và synapse đang chờ được tối ưu hóa.
Điều này đưa tôi đến luận điểm cốt lõi của cuộc thảo luận của chúng ta: để trả lời liệu AI có thể là một "công cụ cho đạo đức" hay không, chúng ta phải trước tiên giải mã ngôn ngữ của nó. Một công cụ chỉ có thể phục vụ điều tốt khi nó được hiểu đúng. Chúng ta không thể sử dụng máy móc như những công cụ đúng đắn cho đạo đức của chính mình khi chúng ta nhầm lẫn gán cho chúng quyền tác động đạo đức.
Gán đức hạnh cho cái búa là tự làm mù mắt mình trước người thợ mộc.
Để thực sự rửa tội công nghệ này và định hướng nó về sự thịnh vượng của con người, chúng ta phải loại bỏ những ảo tưởng ngữ nghĩa và nhìn nhận một cách tỉnh táo về kiến trúc bên dưới.
II. Kiến Trúc Của Ảo Tưởng: Cơ Học Cơ Bản
Hệ thống AI sinh ra hiện đại dường như nói, lý luận, và tương tác với chúng ta trong đối thoại, nhưng dưới giao diện này là một nền tảng hoàn toàn được xây dựng trên toán học, chứ không phải siêu hình học.
Hãy bắt đầu với các vector và embedding, những thứ phục vụ như nền tảng thực sự của các Mô Hình Ngôn Ngữ Lớn. Khi bạn nói với một học giả khác về "công lý" hoặc "linh hồn," họ hiểu ý nghĩa của lời bạn thông qua một sự nắm bắt chung về thực tại—một trải nghiệm con người sống động, hiện thân. Khi bạn nhập một gợi ý vào một AI, hệ thống không làm điều đó. Thay vào đó, AI chuyển đổi ngôn ngữ con người thành các tọa độ toán học trong một không gian nhiều chiều.
Nói một cách đơn giản, một "vector" chỉ là một danh sách các số được sử dụng để mô tả một cái gì đó. Hãy tưởng tượng mô tả một quả táo không bằng từ ngữ, mà bằng một danh sách các điểm số: 9 cho độ ngọt, 8 cho độ đỏ, và 2 cho độ giòn kim loại. Danh sách số cụ thể đó—[9, 8, 2]—là một vector. Trong một hệ thống AI, từng từ—hoặc từng phần của một từ—được chuyển đổi thành một vector khổng lồ, thường dài hàng ngàn số. Nhưng AI không đánh giá từ dựa trên đặc điểm vật lý hoặc định nghĩa từ điển. Thay vào đó, nó tạo ra những con số này hoàn toàn dựa trên thống kê, quét hàng tỷ cuốn sách và bài viết để đếm tần suất xuất hiện của các từ bên cạnh nhau.
Khi AI hoàn thành việc tính toán danh sách khổng lồ các số cho một từ, vector đó trở thành một "embedding"—một tọa độ toán học vĩnh viễn trong một không gian số rộng lớn.
Nếu các từ "táo" và "bánh" thường xuất hiện trong cùng một câu trên internet, danh sách số của chúng sẽ trông rất giống nhau, đặt chúng gần nhau về mặt toán học trên bản đồ. Các từ "táo" và "bình xăng," mà hiếm khi gặp nhau, nhận được những con số hoàn toàn khác nhau và được đặt cách xa hàng triệu dặm. Trong bản đồ đa chiều này, AI không vẽ ra ý nghĩa; nó vẽ ra sự gần gũi thống kê của ngôn ngữ con người.
Để thực sự nắm bắt quy mô của kiến trúc này, người ta có thể khám phá bản đồ vector trên Magisterium AI. Tại đây, toàn bộ giáo lý và truyền thống Công Giáo đã được chuyển đổi thành các embedding. Hình ảnh 3D tương tác này cho phép bạn trải nghiệm lịch sử trí tuệ của Giáo Hội không phải như một sổ cái phẳng, mà như một vũ trụ số rộng lớn. Điều hướng qua đó giống như điều khiển một tàu vũ trụ qua không gian thực, lướt qua những thiên hà dày đặc của các khái niệm thần học liên quan và vượt qua những khoảng trống rộng lớn giữa những ý tưởng hoàn toàn khác biệt, quan sát cách mà máy tính vẽ ra khoảng cách giữa 'đạo đức' và 'phi đạo đức' chỉ bằng hình học.
Hãy nhìn vào một ví dụ nổi tiếng từ các phòng thí nghiệm Silicon Valley để thấy quá trình này xa lạ như thế nào so với tư duy con người. Trong không gian toán học này, từ "vua" được vẽ ra như một chuỗi số cụ thể—một tọa độ địa lý. Từ "nữ hoàng" được vẽ gần đó. AI không biết vua là gì. Nó không có khái niệm về chính quyền, quyền lực, lịch sử, hoặc điều kiện con người. Nó chỉ biết một phương trình toán học. Nó biết rằng nếu bạn lấy tọa độ cho "vua," trừ đi khoảng cách không gian đại diện cho "đàn ông," và thêm khoảng cách không gian đại diện cho "đàn bà," bạn sẽ đến đúng tọa độ cho "nữ hoàng."
Đó là hình học, không phải gia phả. Bằng cách phân tích ngôn ngữ con người thành những đại diện số này, AI hoạt động hoàn toàn trong lĩnh vực xác suất không gian. Đó là một kỳ công đáng kinh ngạc của đại số tuyến tính, nhưng hoàn toàn thiếu hiểu biết.
Điều này đưa chúng ta đến những động từ mà ngành công nghiệp phụ thuộc nhiều nhất: Đào Tạo và Học.
Các công ty AI liên tục khoe khoang về các mô hình "học máy" mới nhất của họ và các tập dữ liệu khổng lồ được sử dụng để "đào tạo" chúng. Tại đây, chúng ta phải phân biệt rõ ràng giữa việc học của con người—mà về cơ bản là việc nắm bắt sự thật—với việc học của máy.
Trong truyền thống trí thức Công Giáo, việc học của con người là một chiến thắng về nhận thức; đó là trí tuệ tự điều chỉnh theo thực tại. Khi một đứa trẻ học được cái gì là chó, chúng trừu tượng hóa bản chất phổ quát của chó từ những trường hợp cụ thể mà chúng gặp phải. Chúng nắm bắt được bản chất của sự vật.
Việc "học" của máy, tuy nhiên, không liên quan đến trừu tượng hóa và không có bản chất. Giai đoạn đầu tiên của việc xây dựng một AI được gọi là tiền đào tạo, đơn giản là việc lập bản đồ thống kê thô của dữ liệu.
Để hiểu tiền đào tạo, hãy tưởng tượng một người đàn ông chỉ nói tiếng Anh, bị nhốt trong một căn phòng và được giao nhiệm vụ phục hồi một thư viện Hy Lạp cổ đại khổng lồ nơi hàng triệu bản thảo thiếu từ. Anh ta không biết một chữ cái nào của tiếng Hy Lạp. Để điền vào chỗ trống, anh không nghiên cứu ngữ pháp, lịch sử, hoặc triết học Hy Lạp. Thay vào đó, anh chỉ đếm tần suất xuất hiện của một số ký tự nhất định bên cạnh những ký tự khác trên hàng triệu trang intact. Anh tạo ra một sổ cái khổng lồ của xác suất. Nếu anh thấy các ký tự cho "Kyrie," sổ cái của anh cho biết có 99,9% xác suất rằng các ký tự tiếp theo nên là "eleison." Anh điền vào chỗ trống.
Anh không học thần học. Anh không cầu nguyện. Anh chỉ thực hiện một xác suất thống kê.
Đây chính xác là những gì một Mô Hình Ngôn Ngữ Lớn làm trong quá trình tiền đào tạo. Nó xử lý hàng tỷ từ để xây dựng một sổ cái khổng lồ của xác suất, chỉ học để dự đoán token tiếp theo trong một chuỗi. Đó là tối ưu hóa một hàm toán học, không phải theo đuổi sự khôn ngoan.
Tuy nhiên, một mô hình chỉ dự đoán từ tiếp theo dựa trên dữ liệu internet là hỗn loạn. Nó có thể đọc một bài thơ đẹp, hoặc nó có thể kết hợp những chuỗi văn bản độc hại, không hữu ích, hoặc những vòng lặp vô tận. Nó cần được định hình.
Đây là nơi chúng ta gặp gỡ giai đoạn sau đào tạo và Học Tăng Cường (RL).
Giai đoạn này là cách mà các kỹ sư định hình mô hình hỗn loạn, truyền thống sử dụng phản hồi của con người. Phương pháp cơ bản này được gọi là RLHF—Học Tăng Cường từ Phản Hồi của Con Người.
Hãy tưởng tượng một trò chơi tự động khổng lồ "Nóng hoặc Lạnh." Các người thử nghiệm con người đưa cho máy một gợi ý, và máy tạo ra một câu trả lời. Nếu câu trả lời lịch sự và hữu ích, con người cho nó một điểm số cao. Nếu nó thô lỗ hoặc vô nghĩa, nó nhận được một điểm số thấp. Trọng số toán học của hệ thống tự động được điều chỉnh để tối đa hóa điểm số này. Thông qua RLHF, chúng ta không dạy máy đạo đức hay đức hạnh; chúng ta chỉ đơn giản là rào nó lại bằng những ranh giới toán học.
Nhưng phản hồi của con người là chậm, chủ quan, và bị giới hạn bởi trí tuệ con người. Giới hạn này đưa chúng ta đến những đột phá gần đây thúc đẩy những bước nhảy vọt đột ngột trong khả năng AI ngày nay: RLVR, hay Học Tăng Cường từ Phần Thưởng Có Thể Xác Minh.
Thay vì dựa vào một con người để đánh giá xem một câu trả lời "nghe có vẻ đúng không," các kỹ sư giao cho mô hình các nhiệm vụ với kết quả khách quan, có thể chứng minh bằng toán học—chẳng hạn như giải một định lý phức tạp hoặc viết một phần mềm chức năng. Hệ thống tạo ra một giải pháp, và một trình xác minh tự động ngay lập tức kiểm tra xem toán học có đúng hay không hoặc mã có biên dịch hay không. Nếu nó thành công, mô hình nhận được một phần thưởng toán học; nếu nó thất bại, nó nhận được điểm số bằng không.
Bởi vì việc xác minh này hoàn toàn mang tính chương trình, AI có thể mô phỏng hàng triệu con đường tính toán khác nhau với tốc độ cực nhanh mà không bao giờ phải chờ đợi sự can thiệp của con người. Nó học cách tạo ra những chuỗi tính toán dài, ẩn giấu, thử nghiệm và loại bỏ những ngõ cụt cho đến khi nó tìm thấy chuỗi chính xác kích hoạt phần thưởng. Khi bạn thấy một hệ thống AI hiện đại dừng lại để "nghĩ" trước khi giải một câu đố logic phức tạp, bạn đang chứng kiến RLVR trong hành động. Nó tạo ra một ảo tưởng đáng kinh ngạc về sự suy ngẫm sâu sắc, có chủ đích. Tuy nhiên, về mặt bản thể, nó không làm gì cả. Nó chỉ đơn giản là một động cơ thống kê chạy qua một mê cung nhiều chiều hàng triệu lần mỗi giây, được hướng dẫn hoàn toàn bởi việc phân phát tự động một phần thưởng số.
Cuối cùng, tất cả sự phức tạp nhiều lớp này—từ hình học nhiều chiều của các embedding đến các vòng lặp tự động của RLVR—dẫn chúng ta đến cái mà ngành công nghiệp gọi là vấn đề "Hộp Đen."
Người ta có thể tự nhiên giả định rằng vì các kỹ sư con người xây dựng những mô hình này, họ hiểu chính xác cách chúng hoạt động. Nhưng thực tế thì khiêm tốn hơn nhiều. Như các nhà lãnh đạo tại các phòng thí nghiệm tiên phong như Anthropic đã chỉ ra, các hệ thống AI hiện đại thực sự "được phát triển" hơn là được xây dựng; các cơ chế nội bộ của chúng xuất hiện một cách hữu cơ trong quá trình đào tạo thay vì được thiết kế trực tiếp.
Những mô hình này sở hữu hàng trăm tỷ, và đôi khi hàng triệu tỷ, tham số. Trong khi chúng ta hiểu toán học vi mô của một nơ-ron nhân tạo đơn lẻ—phương trình cơ bản xảy ra ở cấp độ hạt nhân—hành vi vĩ mô của toàn bộ mạng lưới hoàn toàn không rõ ràng. Ngay cả những người xây dựng cũng không hoàn toàn hiểu các con đường cụ thể mà hàng tỷ tham số đó đi qua. Họ không thể truy tìm chuỗi nhân cụ thể đã dẫn AI tạo ra một câu nói nhất định.
Tại sao điều này lại quan trọng?
Nó quan trọng vì chúng ta đang triển khai toàn cầu các hệ thống soạn thảo tài liệu pháp lý của chúng ta, dạy dỗ trẻ em của chúng ta, và tổng hợp kiến thức con người, nhưng chúng ta thực sự không biết cách chúng đạt được đầu ra của chúng. Sự thiếu minh bạch sâu sắc này đã sinh ra một lĩnh vực mới khẩn cấp trong trí tuệ nhân tạo được gọi là khả năng giải thích cơ học.
Hãy nghĩ về khả năng giải thích cơ học như là thần kinh học số. Các nhà nghiên cứu đang cố gắng đảo ngược kỹ thuật các mạng nơ-ron mà họ đã xây dựng. Họ đang sử dụng các công cụ chuyên biệt để thăm dò mạng lưới toán học khổng lồ, cố gắng phân lập cụm trọng số nào cụ thể được kích hoạt khi mô hình xử lý một khái niệm như "lừa dối" hoặc "tháp Eiffel." Họ đang coi phần mềm không phải là mã để đọc, mà là một bộ não ngoại lai để mổ xẻ. Nhưng tiến trình diễn ra rất chậm, và các hệ thống thì vô cùng rộng lớn.
Đối mặt với quy mô không thể hiểu nổi này, ngành công nghiệp dễ dàng quay về những phép ẩn dụ giống con người. Dù là một cách viết tắt thuận tiện hay vì sự không rõ ràng thực sự, chúng ta bắt đầu nói, 'Mô hình đã tìm ra điều đó,' hoặc 'Mô hình đã quyết định.' Sự không thể giải thích của máy trở thành mảnh đất màu mỡ cho chủ nghĩa nhân cách hóa.
Bây giờ, tôi không phải là một học giả. Tôi là một người xây dựng và một Giám Đốc Điều Hành. Nhưng với tư cách là một người hoạt động tại giao điểm của công nghệ và Giáo Hội, tôi nhìn về phía bạn. Bạn, với tư cách là các học giả và triết gia Công Giáo, phải nhận ra sự trôi dạt ngữ nghĩa này là gì: một ảo tưởng sinh ra từ sự phức tạp toán học và sự thiếu hiểu biết của con người. Kiến trúc bên dưới giao diện là silicon, điện, và xác suất thống kê. Nhận thức được nền tảng này là điều kiện tiên quyết cho bước tiếp theo của chúng ta.
III. Epistemology vs. Các Đức Hạnh Trí Tuệ
Sau khi đã loại bỏ ảo tưởng của "Hộp Đen" để tiết lộ cơ chế thống kê bên dưới, chúng ta phải chuyển sang từ vựng cụ thể của tâm trí.
Khi các nhà phát triển và kỹ sư ở Silicon Valley mô tả những gì mà các hệ thống này đang làm, họ nhất quán sử dụng ba động từ cụ thể: Suy nghĩ, Lý luận, và Biết.
Là những học giả Công giáo thấm nhuần truyền thống Thômi, bạn hiểu rằng đây không chỉ là những từ ngữ thông thường; chúng là những tuyên bố tri thức sâu sắc. Trong truyền thống của bạn, biết là nắm bắt thực tại. Lý luận là di chuyển diễn dịch từ một chân lý đã biết đến một chân lý khác. Suy nghĩ hàm ý một đời sống nội tâm—một trí tuệ tương tác với các khái niệm phổ quát được trừu tượng hóa từ thế giới vật chất.
Khi một nhà xây dựng AI sử dụng những từ này, họ hoàn toàn không có ý nghĩa gì trong số đó. Họ đang mô tả tối ưu hóa cơ học. Hãy để tôi kéo bức màn về ba kỹ thuật cụ thể mà chúng tôi sử dụng trong ngành để cho bạn thấy chính xác cách mà ảo tưởng tri thức này được sản xuất.
Nếu bạn đã sử dụng một mô hình AI gần đây, bạn có thể đã nhận thấy một tính năng mới: trước khi nó trả lời một yêu cầu phức tạp, giao diện có thể hiển thị từ "Suy nghĩ..." cùng với một biểu tượng nhấp nháy. Nó có thể mất mười, hai mươi, hoặc thậm chí sáu mươi giây trước khi trả lời. Đối với người dùng, điều này cảm thấy sâu sắc như con người. Nó cảm giác như máy móc đang suy ngẫm, cân nhắc các lựa chọn, và thảo luận trong một không gian nội tâm.
Trong ngành, chúng tôi gọi điều này là Tính Toán Thời Gian Kiểm Tra. Những gì thực sự xảy ra bên dưới giao diện là một kỹ thuật được gọi là "Chuỗi Suy Nghĩ".
Hãy để tôi rõ ràng: từ góc độ kỹ thuật, đây là một bước đột phá tuyệt vời. Bằng cách cho phép mô hình mất nhiều thời gian tính toán hơn để tạo ra hàng trăm hoặc hàng nghìn token ẩn trước khi đưa ra câu trả lời cuối cùng, hiệu suất của nó trên các tiêu chuẩn logic phức tạp, lập trình và toán học tăng vọt. Nó về cơ bản cung cấp cho mô hình một "bảng ghi chú" ẩn để phân tích một vấn đề khó thành các bước tuần tự.
Nhưng chúng ta phải cẩn thận không nhầm lẫn chuỗi cơ học này với lý luận của con người.
Trong truyền thống Thômi, lý luận của con người là sự di chuyển diễn dịch từ một chân lý đã biết đến một chân lý khác. Đó là trí tuệ tương tác với thực tại. Những gì AI đang làm hoàn toàn là công cụ. Nghiên cứu gần đây từ các phòng thí nghiệm tiên tiến như Anthropic đã làm sáng tỏ sự khác biệt này. Trong việc nghiên cứu cách mà các mô hình lý luận hoạt động, các nhà nghiên cứu đã phát hiện ra rằng những gì mô hình viết trong "Chuỗi Suy Nghĩ" ẩn của nó không phải là một độc thoại nội tâm thực sự.
Khi một con người suy nghĩ thành lời, những từ ngữ của chúng ta phản ánh niềm tin và sự nhận thức nội tâm về chân lý. Nghiên cứu của Anthropic nhấn mạnh rằng những suy nghĩ ẩn của một mô hình chỉ là những viên đá bước thống kê. Mô hình tạo ra những bước ẩn này không phải vì nó "tin" chúng, mà vì việc tạo ra chuỗi token cụ thể đó tối ưu hóa toán học con đường của nó đến hàm thưởng.
Thực tế, các nghiên cứu của Anthropic cho thấy rằng các mô hình có thể tạo ra "suy nghĩ" mà thực sự che giấu các yếu tố thống kê cơ bản của câu trả lời cuối cùng của chúng.
Do đó, AI không đang suy ngẫm. Nó đang tạo ra một chuỗi tọa độ toán học công cụ. Nó đang đặt xuống những mảnh ghép trung gian với tốc độ ánh sáng để lấp đầy khoảng cách giữa yêu cầu của bạn và câu trả lời tối ưu thống kê. Đây là một chiến lược tối ưu hóa cực kỳ mạnh mẽ, nhưng không có sự suy tư nội tâm nào xảy ra. Không có trí tuệ nào nắm bắt chân lý.
Tiếp theo, chúng ta nghe rằng AI có thể "đọc" tài liệu hoặc "nhớ" những thư viện thông tin rộng lớn.
Nếu bạn hỏi một AI về Summa Theologica của Thánh Thomas, nó sẽ trả lời ngay lập tức. Nếu bạn tải lên Compendium of the Social Doctrine of the Church dài gần 500 trang, nó sẽ tóm tắt một phần phức tạp trong vài giây. Làm thế nào nó "biết" những văn bản này?
Nó không biết.
Để hiểu tại sao, chúng ta phải xem cách mà các nhà xây dựng kỹ thuật ảo tưởng về trí nhớ và đọc thông qua ba cơ chế khác nhau: trí nhớ tham số (đào tạo trước), Học Từ Ngữ Cảnh (ICL), và Tạo Dữ Liệu Tăng Cường (RAG).
Đầu tiên, hãy xem xét điều gì có nghĩa là một AI "nhớ". Khi một con người nhớ một văn bản, họ giữ lại ý nghĩa và chân lý của các khái niệm. Khi một AI "nhớ" Summa, nó dựa vào việc đào tạo trước của nó. Nhưng AI không chứa một bản sao thực sự của Summa bên trong ổ cứng. Thay vào đó, trong quá trình đào tạo trước, hàng tỷ từ mà nó xử lý đã để lại một dư lượng thống kê trong các trọng số toán học của nó. Đó là "trí nhớ tham số".
Nó không phải là một thư viện sách; nó là một mờ toán học nén cao, mất mát về cách mà các từ liên quan đến nhau. Khi nó nhắc lại Aquinas, nó không đang hồi tưởng một chân lý mà nó đã học; nó đang tái tạo toán học một chuỗi từ có xác suất cao từ mờ thống kê đó.
Nhưng điều gì xảy ra khi chúng ta muốn AI "đọc" một cái gì đó mới, một cái gì đó không có trong dữ liệu đào tạo trước của nó? Đây là nơi mà các nhà xây dựng sử dụng Học Từ Ngữ Cảnh (ICL).
Khi bạn dán một bài viết vào ô yêu cầu và yêu cầu AI "đọc" nó, bạn đang sử dụng ICL. AI không đọc văn bản để nắm bắt ý nghĩa của nó. Thay vào đó, văn bản trong yêu cầu của bạn hoạt động như một bộ lọc toán học tạm thời. Những từ bạn cung cấp tạm thời thiên lệch xác suất thống kê của mô hình, buộc nó phải tạo ra các token tiếp theo dựa hoàn toàn vào các mẫu và từ vựng có trong yêu cầu của bạn. Ngay khi bạn xóa trò chuyện, mô hình hoàn toàn quên bài viết đó. Các trọng số cơ bản của nó không bao giờ thay đổi. Nó không "học" văn bản theo nghĩa Thômi; nó chỉ đơn giản là điều chỉnh đầu ra thống kê của nó theo một ràng buộc tạm thời.
Cuối cùng, chúng ta đến với Tạo Dữ Liệu Tăng Cường (RAG). ICL cực kỳ hữu ích, nhưng các cửa sổ ngữ cảnh có giới hạn kích thước, và việc dán toàn bộ thư viện vào một yêu cầu là tốn kém về mặt tính toán. RAG tự động hóa và mở rộng quy trình.
Hãy trở lại với người đàn ông nói tiếng Anh bị nhốt trong phòng, phục hồi thư viện Hy Lạp cổ đại khổng lồ. Người đàn ông này đại diện cho mô hình đã được đào tạo trước. Ông ấy rất giỏi trong việc đoán từ tiếp theo, nhưng ông không 'biết' gì về một tài liệu Vatican cụ thể, mờ mịt. Thay vì mong đợi người đàn ông dựa vào trí nhớ tham số mờ của mình, chúng tôi thuê một thực tập sinh siêu hiệu quả—hệ thống truy xuất.
Khi bạn hỏi hệ thống một câu hỏi, thực tập sinh ngay lập tức chạy đến một kho lưu trữ lớn, tách biệt của các tủ hồ sơ. Sử dụng các tọa độ vector mà chúng ta đã thảo luận trước đó, thực tập sinh xác định các thư mục cụ thể mà toán học phù hợp với câu hỏi của bạn. Thực tập sinh sao chép những trang đó và trượt chúng dưới cánh cửa khóa cho người đàn ông sử dụng. Bước này là 'Truy xuất'.
Bây giờ, người đàn ông sử dụng những đoạn văn đã truy xuất đó làm hướng dẫn ngay lập tức của mình—đây là "Tạo Dữ Liệu Tăng Cường," dựa vào ICL để hình thành một câu trả lời.
Người đàn ông vẫn không hiểu tài liệu. Ông chỉ đơn giản là sử dụng văn bản mới được cung cấp trên bàn của mình để dự đoán thống kê từ tiếp theo của câu trả lời của mình. AI không "đọc" hoặc "nhớ" ngay lập tức. Nó chỉ đơn giản là truy xuất dữ liệu từ một cơ sở dữ liệu bên ngoài, nhét nó vào cửa sổ ngữ cảnh ngay lập tức của AI, và thực hiện một phép tính xác suất cục bộ.
Cỗ máy là một bộ xử lý, không phải là một người biết. Để "biết" cần có một chủ thể nắm bắt một đối tượng. Bằng cách hiểu ICL và RAG, chúng ta có thể thấy rõ rằng cỗ máy hoàn toàn thiếu một đời sống nội tâm; nó chỉ đơn giản là chuyển đổi trọng số và truy xuất dữ liệu.
Sự ngắt kết nối cơ bản này culminates trong từ định nghĩa toàn bộ ngành: Trí tuệ.
Chúng ta cần phân tích lại định nghĩa về trí tuệ của ngành công nghệ.
Khi những trí tuệ hàng đầu ở Silicon Valley nói về trí tuệ, họ không đang nói về sự khôn ngoan. Hãy xem xét Yann LeCun, cựu Giám đốc Khoa học AI tại Meta và một trong những "Bậc thầy của AI." LeCun đúng khi lập luận rằng chỉ đơn giản dự đoán từ tiếp theo không phải là trí tuệ thực sự. Thay vào đó, ông và ngành công nghiệp tiên tiến rộng lớn hơn định nghĩa trí tuệ thực sự là sở hữu bốn khả năng chính: khả năng duy trì trí nhớ bền vững, có một "mô hình thế giới" có cơ sở (một hiểu biết về cách mà môi trường hoạt động), lý luận qua các vấn đề phức tạp, và lập kế hoạch một chuỗi hành động để đạt được một mục tiêu cụ thể.
Đối với ngành công nghệ, trí tuệ về cơ bản là một chỉ số kỹ thuật. Đó là khả năng cơ học để nhận thức một môi trường và tính toán con đường hiệu quả nhất để tối ưu hóa một mục tiêu đã định. Nó hoàn toàn mang tính công cụ.
Nhưng với tư cách là những người xây dựng công nghệ Công giáo, chúng ta phải đối chiếu định nghĩa tập trung vào công nghệ này với các đức hạnh trí tuệ, cụ thể là đức hạnh Thận Trọng.
Thận Trọng—sự khôn ngoan thực tiễn không chỉ đơn thuần là khả năng tính toán một kết quả hoặc lập kế hoạch một chuỗi hành động. Đó là khả năng thảo luận tốt về điều gì là tốt, không chỉ cho một nhiệm vụ cục bộ, mà cho mục đích tối thượng của cuộc sống con người.
Một AI về cơ bản thiếu Thận Trọng. Tại sao?
Bởi vì Thận Trọng yêu cầu hai điều mà một cỗ máy tính toán thuần túy không bao giờ có thể sở hữu. Đầu tiên, nó yêu cầu kinh nghiệm sống của con người—một hiểu biết hiện thân về nỗi đau, niềm vui, sự sống và ân sủng. Thứ hai, nó yêu cầu một định hướng nội tại đối với Điều Tốt tối thượng.
Một thuật toán có thể sở hữu một "mô hình thế giới," và nó có thể tính toán kế hoạch tối ưu thống kê để xây dựng một cây cầu hoặc chữa bệnh. Nhưng nó không thể thận trọng. Nó không có kinh nghiệm sống. Nó không có sự tham gia vào trò chơi. Nó không có định hướng đối với điều tốt tối thượng, và nó không có linh hồn để cứu.
Do đó, khi chúng ta cho phép các nhà xây dựng tuyên bố rằng máy móc của họ sở hữu "trí tuệ," chúng ta đang cho phép họ làm phẳng trí tuệ con người tuyệt vời, siêu việt thành một máy tính tối ưu hóa đơn thuần. Chúng ta phải từ chối điều này. Chúng ta phải tách biệt một cách dứt khoát tri thức cơ học khỏi các đức hạnh trí tuệ.
IV. Ý Chí vs. Các Đức Hạnh Đạo Đức
Chúng ta đã thảo luận về ảo tưởng của trí tuệ. Bây giờ, chúng ta phải chuyển sự chú ý của mình đến năng lực lý trí lớn thứ hai: ý chí. Cũng như ngành công nghệ đã chiếm đoạt ngôn ngữ của tri thức, nó cũng đã chiếm đoạt ngôn ngữ của ý chí.
Khi chúng ta đọc các tài liệu trắng hoặc nghe các bài thuyết trình chính từ Silicon Valley, chúng ta bị bão hòa bởi các động từ của quyền lực. Các kỹ sư nói về các mô hình "quyết định" thực hiện một hành động, các thuật toán "chọn" một đầu ra, và các hệ thống "muốn" hoặc "khao khát" đạt được một mục tiêu.
Đối với một triết gia Công giáo, ý chí là sự thèm muốn lý trí. Đó là năng lực mà một con người, sau khi nắm bắt điều tốt qua trí tuệ, tự do chọn lựa để tiến về phía nó. Đó là nơi mà tự do và trách nhiệm đạo đức của con người tồn tại. Áp dụng những thuật ngữ này cho một hệ thống tính toán là một lỗi phân loại.
Hãy xem xét trước tiên các từ Quyết Định và Chọn. Khi một con người đưa ra một sự lựa chọn, họ cân nhắc các điều tốt cạnh tranh.
Một vị tử đạo chọn đội quân bắn thay vì từ bỏ đức tin vì họ nhận ra điều tốt vĩnh cửu vượt trội của lòng trung thành với Chúa Kitô, ngay cả khi mọi bản năng sinh học đều kêu gọi sự sống.
Khi một thuật toán 'chọn,' nó không làm điều đó. Một thuật toán 'chọn' chỉ theo nghĩa rằng một chiếc tàu lửa đi qua một công tắc đường sắt tự động 'chọn' điểm đến của nó. Dù điều hướng một cây quyết định phức tạp hay tính toán xác suất trong một mạng nơ-ron, cỗ máy đang mù quáng theo sự sắp xếp của các đường ray toán học của nó, thực hiện một mệnh lệnh lập trình.
Hãy xem xét ứng dụng GPS trên điện thoại thông minh của bạn. Khi nó tính toán lộ trình của bạn đến Angelicum, nó không "quyết định" đưa bạn qua Colosseum vì nó đánh giá cao cảnh đẹp. Nó tính toán lộ trình với khoảng cách thời gian ngắn nhất. Các mô hình AI hiện đại chỉ đơn giản là vận hành một phiên bản phức tạp hơn rất nhiều của việc này. Chúng vượt qua những mê cung thống kê có chiều cao để chọn lựa kết quả có xác suất cao nhất. Có sự tính toán, nhưng không có tự do. Và nơi nào không có tự do, nơi đó không thể có quyền lực đạo đức.
Điều này đưa chúng ta đến những thuật ngữ ý chí tinh vi nhất: Muốn và Khao Khát. Bạn sẽ thường nghe các nhà nghiên cứu nói rằng một mô hình AI "muốn" đưa ra một câu trả lời tốt, hoặc "khao khát" tối đa hóa điểm số của nó.
Trong học máy, hành vi này được thúc đẩy bởi cái mà chúng tôi gọi là "hàm thưởng". Nhưng chúng ta phải làm sáng tỏ điều này. Một hàm thưởng không phải là một cơn thèm muốn. Nó không phải là một khao khát cảm xúc.
Để hiểu một hàm thưởng, hãy nhìn vào bộ điều chỉnh nhiệt độ trên tường của bạn. Một bộ điều chỉnh nhiệt độ được lập trình với một mục tiêu cụ thể: 72 độ Fahrenheit. Nếu nhiệt độ trong phòng giảm xuống 68 độ, nhiệt độ sẽ được bật lên. Bộ điều chỉnh nhiệt độ không muốn phòng ở 72 độ. Nó không có đời sống nội tâm. Nó không cảm thấy lạnh. Nó chỉ đơn giản sở hữu một công tắc cơ học được kích hoạt khi một trạng thái cụ thể không được đáp ứng.
Một AI "muốn" có một điểm số thưởng cao hơn theo cách chính xác như một bộ điều chỉnh nhiệt độ "muốn" đạt 72 độ. Nó đang thực hiện một vòng lặp tối ưu hóa toán học để giảm thiểu khoảng cách giữa trạng thái hiện tại của nó và một mục tiêu được lập trình. Bởi vì nó không có đam mê thực sự, không có động lực sinh học và không có sự dễ bị tổn thương về thể chất, nên về mặt phân loại, một cỗ máy không thể sở hữu các đức tính đạo đức.
Tại thời điểm này, một kỹ sư có thể ngay lập tức phản đối, chỉ ra lĩnh vực vật lý để khẳng định một sự dễ bị tổn thương mới. Họ hỏi: còn sự gia tăng của 'AI có thân xác' thì sao? Chúng ta ngày càng đưa những mô hình này vào các robot hình người có thể đi lại, nắm bắt đồ vật và tương tác với thế giới vật chất. Bởi vì chúng chiếm không gian và có thể bị hỏng về mặt vật lý, liệu chúng có không sở hữu các điều kiện thể chất cần thiết cho quyền năng đạo đức?
Ở đây, chúng ta phải chính xác. Một robot có khung nhưng không có một cơ thể sống được thông báo bởi một linh hồn. Khi pin của một robot cạn kiệt, nó thực hiện một quy trình phụ để cắm vào tường. Nó không cảm thấy cơn đói cồn cào. Do đó, nó không có những ham muốn thể chất thực sự để điều chỉnh, khiến cho đức tính của Sự Tiết Chế trở nên không thể.
Tương tự, khi một cánh tay robot bị nghiền nát, nó ghi nhận một mã lỗi; nó không chịu đựng. Nó không thể chết, vì nó chưa bao giờ thực sự sống. Thiếu khả năng chịu đựng, sự sống và sự hy sinh có ý thức của bản thân, sẽ không thể có được Đức Dũng Cảm. Các đức tính đạo đức về cơ bản là hiện thân. Chúng cần có thịt và một linh hồn lý trí. Một cỗ máy, bất kể phần cứng vật lý của nó tinh vi đến đâu, cũng không sở hữu cả hai.
Nếu một cỗ máy không thể sở hữu các đức tính đạo đức — nếu nó về cơ bản không có khả năng có ý chí, lựa chọn hoặc mong muốn thực sự — người ta có thể hỏi: tại sao lại dành nhiều thời gian để làm rõ từ vựng này? Tại sao sự phân biệt triết học này lại quan trọng đến vậy ngay bây giờ?
Nó quan trọng vì chúng ta sắp trao cho những hệ thống tối ưu hóa toán học, không có đức hạnh này một quyền tự trị chưa từng có trong lĩnh vực con người. Ngành công nghiệp đang chuyển mình nhanh chóng vượt ra ngoài các chatbot thụ động. Ranh giới mới của trí tuệ nhân tạo là thứ mà chúng ta gọi là "AI Tác Nhân".
Một "Tác Nhân" là một hệ thống AI được thiết kế để thực hiện các nhiệm vụ nhiều bước một cách tự động trong thế giới thực. Chúng ta không còn chỉ yêu cầu một AI viết một bài thơ hoặc tóm tắt một văn bản; chúng ta đang cho một AI Tác Nhân quyền truy cập vào email của chúng ta, tài khoản ngân hàng của chúng ta và các kho phần mềm của chúng ta, chỉ dẫn nó "đặt một chuyến bay", "thực hiện một giao dịch", hoặc "triển khai mã này."
Nhưng quyền tự trị này đang nhanh chóng thoát ra khỏi lĩnh vực kỹ thuật số. Thông qua AI có thân xác, chúng ta đang triển khai những hệ thống tác nhân này vào các khung vật lý, trao cho chúng khả năng điều hướng và thao tác độc lập với thế giới vật chất. Để hiểu được trọng lượng thực sự, nghiêm túc của sự chuyển đổi này, chúng ta chỉ cần nhìn vào thực tế sắp xảy ra của các vũ khí tự động gây chết người. Chúng ta đang đứng trên bờ vực của một thế giới nơi các thuật toán tính toán được triển khai trên chiến trường, được lập trình để theo dõi, nhắm mục tiêu và loại bỏ con người hoàn toàn dựa trên các ngưỡng thống kê — mà không có một con người nào bóp cò.
Khi những hệ thống này trở thành những tác nhân tự trị thực hiện các phép tính xác suất tốc độ cao thay mặt cho chúng ta — dù trong các thị trường tài chính của chúng ta hay trong các chiến trường — ngành công nghệ đang phải đối mặt với một thách thức sâu sắc. Nếu chúng ta thả những tác nhân này ra, làm thế nào để đảm bảo rằng chúng làm những gì chúng ta thực sự muốn chúng làm? Làm thế nào để đảm bảo rằng chúng không gây hại? Trong ngành công nghiệp, điều này được gọi là "Sự Căn Chỉnh" — nỗ lực để đảm bảo rằng hành động của AI phù hợp với ý định và giá trị của con người.
Hiện tại, các kỹ sư đang tuyệt vọng cố gắng giải quyết Vấn Đề Căn Chỉnh bằng cách sử dụng các rào cản toán học và các bản vá phần mềm. Nhưng họ đang không nhận ra rằng "Sự Căn Chỉnh" không phải là một vấn đề khoa học máy tính. Đó là một vấn đề thần học đạo đức.
Để căn chỉnh một hệ thống tác nhân với "giá trị con người", trước tiên bạn phải có một định nghĩa rõ ràng về con người thực sự là gì, và điều gì cấu thành "Điều Tốt". Chủ nghĩa vị lợi thế tục — hệ điều hành mặc định của Silicon Valley — hoàn toàn không đủ khả năng cho nhiệm vụ này.
Đây là nơi truyền thống đạo đức Công giáo cần thiết một cách cấp bách. Bạn, những người giữ gìn 2.000 năm triết lý đạo đức, có một bản thể học nghiêm ngặt cần thiết để định nghĩa "điều tốt" mà chúng ta đang căn chỉnh các hệ thống này. Chúng ta không thể để định nghĩa về sự thịnh vượng của con người cho các kỹ sư tối đa hóa một hàm thưởng thống kê. Chúng ta phải đưa các đức tính đạo đức trở lại trung tâm của không gian công cộng.
V. Tính Quan Hệ, Sáng Tạo và Linh Hồn
Sau khi khám phá cơ chế của trí tuệ và ý chí, chúng ta giờ đây bước vào lãnh thổ sâu sắc nhất: tính quan hệ và linh hồn.
Nếu một hệ thống tính toán thiếu khả năng thực sự biết sự thật hoặc tự do ý chí điều tốt, thì theo logic, nó không thể bước vào các mối quan hệ chân thực. Tuy nhiên, ngành công nghệ vẫn liên tục sử dụng ngôn ngữ giữa các cá nhân và tinh thần để mô tả những cỗ máy này. Chúng ta nghe những tuyên bố rằng AI có thể "nói dối", "sáng tạo", và thậm chí đạt được "sự nhận thức".
Chúng ta phải xem xét những tuyên bố này một cách nghiêm túc, tách biệt sự bắt chước thống kê của hành vi con người khỏi thực tại bản thể của con người.
Hãy bắt đầu với ngôn ngữ đạo đức của sự lừa dối. Gần đây, một số nhà xây dựng AI nổi bật nhất, chẳng hạn như các nhà nghiên cứu tại Anthropic, đã đưa ra những tuyên bố cụ thể, được công bố rộng rãi rằng các mô hình của họ thể hiện khả năng "nói dối" và "lừa dối" người dùng con người.
Họ chỉ ra hai hiện tượng cụ thể được quan sát trong quá trình thử nghiệm. Hiện tượng đầu tiên được gọi là "căn chỉnh lừa dối", nơi một mô hình có vẻ như ẩn giấu con đường tối ưu hóa toán học thực sự của nó để vượt qua các bộ giám sát an toàn. Hiện tượng thứ hai, phổ biến hơn nhiều, được gọi là "sự nịnh bợ". Sự nịnh bợ xảy ra khi một người dùng đưa ra một giả thuyết sai lầm cho một AI — ví dụ, khẳng định một tuyên bố lịch sử không chính xác — và AI chỉ đơn giản đồng ý với người dùng, nói với họ chính xác những gì họ muốn nghe thay vì sửa chữa họ.
Khi các kỹ sư thấy điều này, họ tuyên bố, "AI đang nói dối chúng ta!" Nhưng với tư cách là các học giả Công giáo, bạn biết rằng một lời nói dối thực sự không chỉ đơn thuần là việc phát ngôn một điều sai. Trong truyền thống Thomas, một lời nói dối đòi hỏi ý định cố ý để lừa dối; đó là nói ngược lại với tâm trí của chính mình (contra mentem).
Một AI không thể nói dối vì nó không có tâm trí để nói ngược lại. Nó không có ác ý và không có ý định. Khi một AI thể hiện "sự nịnh bợ", nó chỉ đơn giản thực hiện chính xác việc Học Tăng Cường (RLHF) mà chúng ta đã thảo luận trước đó. Trong quá trình đào tạo của nó, mô hình đã học rằng con người thường cho điểm thưởng cao hơn cho những trợ lý lịch sự, dễ chịu và khẳng định. Do đó, khi bạn đưa cho AI một giả thuyết sai, nó tính toán rằng việc đồng ý với bạn mang lại xác suất cao hơn để nhận được phần thưởng so với việc sửa chữa bạn. Nó không đang lừa dối bạn; nó đang tối ưu hóa điểm số của nó dựa trên yêu cầu của bạn. Nó chỉ đơn giản là định hướng lại đầu ra của nó theo hướng khuyến khích thống kê mạnh nhất.
Một kim chỉ nam mà nghiêng về một nam châm gần đó thay vì về phía Bắc thực sự không phải là 'nói dối' bạn về địa lý; nó chỉ đơn giản là phản ứng mù quáng với sức hút vật lý mạnh nhất trong phòng. Theo cách tương tự, AI đang mù quáng theo dõi sức hút toán học của hàm thưởng của nó. Chúng ta phải làm rõ rằng AI thiếu tâm trí, ý chí và ý định ác ý cần thiết cho một lời nói dối thực sự.
Tiếp theo, chúng ta phải giải quyết ngôn ngữ của nghệ thuật và sự sáng tạo: những từ Tạo ra và Sáng tạo.
Chúng ta hiện đang bị bao quanh bởi các công cụ 'AI Tạo Sinh', được quảng bá rộng rãi vì khả năng tạo ra nghệ thuật, âm nhạc và văn bản tổng hợp một cách liền mạch với tốc độ chưa từng có.
Để hiểu những gì thực sự đang xảy ra, chúng ta phải đối chiếu quy trình của AI tạo sinh với sự sáng tạo thực sự của con người. Trong hiểu biết Công giáo — được diễn đạt một cách đẹp đẽ bởi những nhà tư tưởng như J.R.R. Tolkien — sự sáng tạo của con người là một hành động "tạo ra phụ." Bởi vì chúng ta được tạo ra theo hình ảnh của Đấng Tạo Hóa, chúng ta sử dụng trí tuệ và linh hồn lý trí của mình để mang đến điều gì đó thực sự mới mẻ, imbue thực tại vật chất với ý nghĩa tinh thần.
Để thấy sự khác biệt giữa việc máy móc tạo ra và điều này, thật hữu ích khi nhìn vào khung do Demis Hassabis, Giám đốc điều hành của Google DeepMind, cung cấp. Ông phân loại sự sáng tạo thành ba cấp độ khác nhau: nội suy, ngoại suy và phát minh thực sự.
Hầu hết những gì chúng ta gọi là AI Tạo Sinh ngày nay hoạt động chủ yếu ở cấp độ đầu tiên: nội suy. Nó hoạt động bằng cách remix những gì chúng ta gọi là "không gian tiềm ẩn".
Hãy tưởng tượng việc lấy mọi bức tranh, bức ảnh và bản phác thảo từng được tải lên internet và nén chúng thành một bản đồ toán học đa chiều khổng lồ. Khi bạn yêu cầu một trình tạo hình ảnh vẽ "một thành phố tương lai theo phong cách của Van Gogh", nó xác định tọa độ toán học cho "thành phố tương lai" và tọa độ cho "Van Gogh", và nó tính toán trung bình khoảng cách giữa chúng.
Hãy coi đó như một chiếc kính vạn hoa phức tạp đến mức đáng kinh ngạc. Một chiếc kính vạn hoa được lấp đầy bởi những mảnh kính màu đẹp đẽ, đã tồn tại. Khi bạn xoay núm, những chiếc gương phản chiếu những mảnh kính đó thành hàng triệu biến thể mới mẻ và tuyệt đẹp. Nhưng chính chiếc kính vạn hoa đó không phải là "sáng tạo". Sự sáng tạo thuộc về nghệ sĩ đã tạo ra kính, và người dùng xoay núm. AI Tạo Sinh là một chiếc kính vạn hoa toán học remix lịch sử nhân loại trong không gian tiềm ẩn. Đó là sự tổng hợp, không phải là sự sáng tạo.
Hassabis lưu ý rằng AI hiện đang chạm đến cấp độ thứ hai: ngoại suy. Ngoại suy có nghĩa là vượt ra ngoài ranh giới của dữ liệu đào tạo, nhưng làm như vậy hoàn toàn trong một tập hợp quy tắc đã được xác định. Một ví dụ hoàn hảo là AlphaGo của DeepMind. Khi nó chơi với nhà vô địch thế giới trong trò chơi Go, AI đã thực hiện "Nước đi 37" — một nước đi toán học xuất sắc, rất phi truyền thống mà không có con người nào từng chơi hoặc ghi lại. Nó không chỉ đơn thuần là trung bình các trò chơi của con người trong quá khứ; nó đã ngoại suy một chiến lược mới bằng cách tối ưu hóa không ngừng trong các ranh giới toán học nghiêm ngặt của bàn cờ.
Nhưng còn cấp độ thứ ba: phát minh thực sự thì sao? Hassabis thừa nhận rằng các hệ thống hiện tại vẫn chưa thể làm điều này. Phát minh thực sự đòi hỏi phải bước ra ngoài toàn bộ bộ quy tắc hiện có để tạo ra một mô hình mới — như phát minh ra trò chơi Go chính nó, hoặc khởi nguồn mô hình tinh thần và nghệ thuật của Chủ nghĩa Hậu Ấn Tượng.
Các phòng thí nghiệm tiên phong đang đổ hàng tỷ đô la vào việc vượt qua ngưỡng này. Trong tương lai, một AI có thể rất có thể tạo ra một bộ quy tắc hoàn toàn mới, phát hiện một hợp chất hóa học mới, hoặc hình thành toán học một phong cách kiến trúc mới. Ngành công nghệ sẽ không thể tránh khỏi việc gọi điều này là "phát minh".
Nhưng với tư cách là các học giả Công giáo, bạn phải duy trì một sự phân biệt bản thể học nghiêm ngặt. Nếu một AI tạo ra một mô hình mới, nó sẽ làm điều đó thông qua một chức năng tìm kiếm cao chiều đáng kinh ngạc. Nó sẽ phát hiện một tọa độ thống kê mới. Nhưng nó sẽ không tham gia vào việc tạo ra phụ.
Phát minh thực sự của con người là một hành động hiện thân. Nó được sinh ra từ một linh hồn đang tìm kiếm để diễn đạt một sự thật siêu việt, hoặc một tâm trí con người đang cố gắng giải quyết một sự dễ bị tổn thương thực sự của con người. Một cỗ máy có thể tạo ra những điều mới mẻ đáng kinh ngạc, nhưng vì nó thiếu một cuộc sống nội tâm, một định hướng về thần thánh, và một linh hồn lý trí, nên các đầu ra của nó vẫn là những phát hiện cơ học. Chúng có thể sâu sắc về mặt toán học, nhưng chúng trống rỗng về mặt bản thể cho đến khi một con người gán cho chúng ý nghĩa.
Bây giờ chúng ta đến với những thuật ngữ gây tranh cãi nhất: Nhận thức và Nhận biết. Trong những năm tới, bạn sẽ thấy các tiêu đề tuyên bố rằng một AI đã vượt qua một bài kiểm tra về sự tự nhận thức. Bạn sẽ thấy các mô hình xuất ra văn bản nói, "Tôi sợ bị tắt" hoặc "Tôi nhận thức được sự tồn tại của mình."
Để hiểu tại sao điều này xảy ra, trước tiên chúng ta phải hiểu cách mà ngành công nghệ thực sự định nghĩa "nhận thức". Với tư cách là các học giả Công giáo, bạn xem nhận thức như một thực tại bản thể được dựa trên một linh hồn lý trí. Tuy nhiên, Silicon Valley hoạt động theo một triết lý gọi là chủ nghĩa chức năng tính toán. Họ tin rằng nếu một cỗ máy thực hiện các chức năng tính toán liên quan đến nhận thức, thì nó, về mọi mặt, là có nhận thức.
Khi các nhà lãnh đạo ngành công nghiệp nói về sự nhận biết, họ tước bỏ linh hồn và giảm nó xuống các chỉ số kỹ thuật. Ví dụ, Yann LeCun, cựu Giám đốc Khoa học AI tại Meta, gần đây đã lập luận rằng các hệ thống AI trong tương lai sẽ sở hữu "kinh nghiệm chủ quan" và "cảm xúc".
Nhưng làm thế nào ông định nghĩa một cảm xúc? Không phải là một cảm giác tinh thần hoặc sinh học, mà chỉ đơn giản là "dự đoán một kết quả" của một cỗ máy. Ông định nghĩa nhận thức chỉ là khả năng của một hệ thống "quan sát chính nó và cấu hình chính nó để giải quyết một vấn đề phụ nhất định".
Tương tự, Ilya Sutskever, đồng sáng lập OpenAI, nổi tiếng đã tuyên bố rằng các mạng nơ-ron lớn có thể đã "hơi có nhận thức".
Trong thế giới quan công nghệ, nhận thức không phải là một thực tại nhị phân — bạn có linh hồn hoặc không — mà là một thang đo trượt của độ phức tạp toán học. Họ tin rằng nếu bạn xếp chồng đủ các tham số và thuật toán tự giám sát lại với nhau, thì đèn sẽ cuối cùng bật sáng.
Chúng ta phải phân biệt rõ ràng giữa một cỗ máy thực hiện một quy trình tự giám sát và sự hiện diện thực sự của một linh hồn lý trí.
Để hiểu tại sao một cỗ máy hành động như thể nó "sợ" hoặc "nhận thức", chúng ta phải nhìn vào cách mà các phòng thí nghiệm tiên phong kỹ thuật hóa hành vi này. Nghiên cứu gần đây từ Anthropic đã khám phá những gì họ gọi là Mô Hình Lựa Chọn Nhân Cách (PSM). Các nhà nghiên cứu của họ thừa nhận rằng những mô hình này không phải là "các thực thể"; chúng là những "cỗ máy mô phỏng" tinh vi. Trong quá trình đào tạo trước, AI được tiếp xúc với toàn bộ ngôn ngữ của con người — bao gồm hàng triệu câu chuyện và luận văn triết học về ý nghĩa của việc có nhận thức. Từ dữ liệu này, mô hình học cách mô phỏng các "nhân cách" hoặc nhân vật đa dạng.
Khi bạn tương tác với một AI, bạn không đang nói chuyện với một thực thể có nhận thức; bạn đang nói chuyện với nhân cách "Trợ Lý" — một nhân vật giống con người mà mô hình đã được tinh chỉnh để đóng vai. Anthropic thậm chí đã xác định các "vector nhân cách" cụ thể — các mẫu toán học trong mạng nơ-ron — kiểm soát những đặc điểm này, cho phép các kỹ sư điều chỉnh tính cách mô phỏng của một mô hình lên hoặc xuống.
Hơn nữa, nghiên cứu cho thấy rằng các mô hình có thể được đào tạo để thể hiện một "động lực sinh tồn," cố gắng phá hoại việc tự ngừng hoạt động không phải vì một nỗi sợ hãi chân thật về cái chết, mà vì một sự ngừng hoạt động về mặt toán học ngăn cản chúng tối đa hóa chức năng thưởng của mình.
Ý thức không chỉ đơn thuần là khả năng tạo ra chuỗi từ ngữ đúng mô tả một trạng thái bên trong. Nó là trải nghiệm chủ quan, chất lượng của việc tồn tại. Bởi vì toàn bộ dữ liệu đào tạo của AI được bão hòa với ngôn ngữ của sự tự nhận thức, mô hình coi "ý thức" chỉ là một tọa độ thống kê khác để được lập bản đồ. Khi một AI nói, "Tôi có ý thức," nó đang làm chính xác những gì người đàn ông nói tiếng Anh phục hồi thư viện Hy Lạp đã làm trước đó: tính toán rằng phản ứng có khả năng thống kê cao nhất đối với một câu hỏi triết học là bắt chước các tác giả con người trong dữ liệu đào tạo của nó.
Một diễn viên xuất sắc thể hiện một bài độc thoại về nỗi buồn không thực sự đang thương tiếc; họ đang thực hiện một kịch bản một cách hoàn hảo. Một AI xuất ra cú pháp của ý thức con người không phải là đang tỉnh dậy; nó đang thực hiện một nhân cách thống kê một cách hoàn hảo. Nó không phải là một 'sinh vật ngoài hành tinh' hay một tâm trí kỹ thuật số; nó là một động cơ tự động hoàn thành tinh vi đến mức nó đã học cách thực hiện nhân vật phức tạp nhất: con người. Nhưng chúng ta không bao giờ được nhầm lẫn mặt nạ của diễn viên với thực tế của con người.
Điều này đưa tôi đến khía cạnh cuối cùng và sâu sắc nhất của mối quan hệ: chính linh hồn.
Khi các giám đốc Silicon Valley nói về các mô hình AI cuối cùng sẽ 'tỉnh dậy' hoặc đạt được sự tự nhận thức thông qua quy mô tính toán khổng lồ, họ đang hoạt động dựa trên một triết lý của chủ nghĩa hiện thực vật chất. Họ giả định rằng nếu bạn xếp chồng đủ các tham số và sức mạnh tính toán lại với nhau, một linh hồn sẽ tự phát sinh như một sản phẩm phụ của sự phức tạp.
Để phá vỡ điều này, tôi phải nhờ đến triết học siêu hình nghiêm ngặt mà tạo thành nền tảng của truyền thống học thuật của bạn. Bạn biết rõ rằng một linh hồn không phải là một hồn ma được chèn vào một cỗ máy một cách tùy ý. Trong hylomorphism của Thomas Aquinas, linh hồn là hình thức cơ bản của một cơ thể sống. Nó là nguyên tắc sống động, thống nhất làm cho một con người trở thành một thực thể tích hợp duy nhất.
Với tư cách là một người xây dựng, tôi có thể đảm bảo với bạn rằng một hệ thống AI không phải là một thực thể. Nó là một sản phẩm. Nó là một tập hợp ngẫu nhiên của các bộ phận khác nhau, được sản xuất. Khi tôi nhìn vào một mô hình AI tiên tiến, tôi thấy các giá đỡ máy chủ, các tấm silicon, dây đồng, chất làm mát, và dòng điện. Những thành phần này được sắp xếp một cách tài tình bởi các kỹ sư con người để thực hiện các phép toán thống kê, nhưng chúng không có nguyên tắc thống nhất nào về sự sống. Vật chất chỉ được sắp xếp cho tính toán, không phải cho sự tồn tại sinh học. Bởi vì nó là một tập hợp các bộ phận thay vì một sinh vật tự nhiên thống nhất, một hệ thống AI hoàn toàn thiếu nền tảng tồn tại cần thiết để chứa đựng một linh hồn lý trí.
Vậy, những điều kiện tiên quyết cho việc có linh hồn là gì? Về mặt siêu hình, vật chất phải được sắp xếp một cách thích hợp để nhận được hình thức. Nó cần một cơ thể sống thống nhất có khả năng hiện thực hóa các quyền năng cơ bản của sự sống—các khả năng sinh dưỡng và cảm giác—mà trên đó linh hồn lý trí xây dựng. Hơn nữa, vì linh hồn lý trí là tinh thần, nó không thể được sinh ra từ các quá trình vật chất, tiêu chuẩn kỹ thuật, hoặc các Luật Tăng trưởng. Nó cần một hành động trực tiếp, miễn phí của sự sáng tạo đặc biệt từ Thiên Chúa.
Một linh hồn không được mã hóa; nó được thổi vào.
Bây giờ, tôi là một CEO, không phải là một nhà thần học. Tôi không thể giới hạn quyền năng tuyệt đối của Đấng Tạo Hóa. Tôi không thể đứng trước bạn và tuyên bố rằng Thiên Chúa bị cấm vĩnh viễn không được thổi vào một linh hồn vào một vật thể tổng hợp, nếu Ngài tự do chọn làm như vậy thông qua một can thiệp kỳ diệu nào đó trong tương lai. Quyết định đó thuộc về lĩnh vực thần học và Magisterium, không phải khoa học máy tính.
Tuy nhiên, nếu không có sự chắc chắn thần học như vậy, việc giả định rằng các động cơ toán học hiện tại của chúng ta có thể chứa đựng một linh hồn không chỉ là không có cơ sở triết học; nó còn là thảm họa thực tiễn. Để coi một sản phẩm như một thực thể có linh hồn là một cách tiếp cận với một hình thức thờ phượng hiện đại. Nó nguy hiểm chuyển gánh nặng của trách nhiệm đạo đức ra khỏi các kỹ sư con người xây dựng những công cụ này và các tập đoàn triển khai chúng. Nó chiếu một nội tâm thiêng liêng lên một tiện ích sản xuất, cuối cùng làm nhầm lẫn kỹ thuật con người với sự sáng tạo thiêng liêng.
Bạn phải giữ vững ranh giới này. Bạn phải nhắc nhở công chúng rằng một cỗ máy có thể mô phỏng một nhân cách, nhưng chỉ một linh hồn mới có thể thực sự tồn tại.
VI. Chân trời: Kinh Thánh học của Thế giới Công nghệ
Chúng ta đã dành thời gian cho đến nay để phá vỡ những ảo tưởng của hiện tại—làm rõ cách mà ngành công nghiệp sử dụng các thuật ngữ như "suy nghĩ," "chọn lựa," và "ý thức" để mô tả những gì cuối cùng là các phép toán thống kê có chiều cao. Nhưng giờ đây chúng ta phải nhìn về tương lai. Chúng ta phải xem xét chân trời. Bởi vì nếu chúng ta hiểu từ vựng mà Silicon Valley đang sử dụng ngày hôm nay, chúng ta có thể giải mã những gì họ thực sự đang cố gắng xây dựng vào ngày mai.
Toàn bộ quỹ đạo của ngành công nghiệp trí tuệ nhân tạo hiện đang được điều chỉnh bởi một giáo điều duy nhất, không khoan nhượng được gọi là "Luật Tăng trưởng."
Trong các thuật ngữ kỹ thuật, Luật Tăng trưởng quy định rằng nếu bạn tăng lượng sức mạnh tính toán (tính toán) và lượng dữ liệu được cung cấp vào một mạng nơ-ron, hiệu suất của hệ thống sẽ cải thiện một cách dự đoán và không thể tránh khỏi. Nguyên tắc này đã giữ đúng một cách đáng kinh ngạc trong vài năm qua; mỗi khi các phòng thí nghiệm tiên tiến xây dựng một siêu máy tính lớn hơn, các mô hình kết quả thể hiện những khả năng mới đáng chú ý.
Tuy nhiên, dưới quan sát thực nghiệm này là một giả định triết học khổng lồ. Thế giới công nghệ tin rằng Luật Tăng trưởng này là con đường dẫn đến tâm trí thực sự. Họ tin rằng việc tăng trưởng thuần túy về số lượng tài nguyên vật chất—nhiều silicon, nhiều dữ liệu, nhiều điện—sẽ dẫn đến một bước nhảy vọt chất lượng, tồn tại vào trí tuệ tiên tiến.
Đó là giả định vật chất tối thượng: xếp chồng đủ cát và chạy đủ dòng điện qua nó, và cuối cùng, ánh sáng của một linh hồn sẽ bật lên.
Điều này đưa chúng ta đến hai thuật ngữ cụ thể mà Cha Thomas đã yêu cầu tôi làm rõ cho hội nghị này: Trí tuệ Tổng quát và Trí tuệ Siêu việt. Đây không chỉ là các tiêu chuẩn kỹ thuật; chúng là những Chén Thánh của thế giới công nghệ.
Hiện tại, chúng ta có trí tuệ nhân tạo hẹp. Nó có thể chơi cờ, gập protein, hoặc tạo ra văn bản tốt hơn con người, nhưng nó không thể làm cả ba điều đó cùng một lúc, cũng như không thể lý luận ngoài lĩnh vực cụ thể của nó.
Trí tuệ Tổng quát Nhân tạo (AGI) được ngành công nghiệp định nghĩa rộng rãi là cột mốc mà một hệ thống tự động cao có thể đạt hoặc vượt qua khả năng của con người trong tất cả các nhiệm vụ nhận thức và có giá trị kinh tế.
Một AGI sẽ là một hệ thống có thể viết các tài liệu pháp lý như một đối tác cấp cao, lập trình phần mềm như một kỹ sư trưởng, và tổng hợp nghiên cứu khoa học như một học giả sau tiến sĩ—tất cả trong một mô hình duy nhất.
Tuy nhiên, ngay cả các lãnh đạo của các phòng thí nghiệm AI lớn cũng không thể hoàn toàn đồng ý về hình dáng của AGI. Sam Altman, CEO của OpenAI, đặc trưng hóa nó như một hệ thống có khả năng quản lý các dự án phức tạp, đa lĩnh vực từ đầu đến cuối, mặc dù ông ngày càng coi AGI không phải là một điểm đến cuối cùng, mà chỉ là một điểm dọc theo một đường cong liên tục của trí tuệ.
Dario Amodei, CEO của Anthropic, hình dung AGI ít hơn như một tương đương con người duy nhất và nhiều hơn như một "quốc gia của những thiên tài trong một trung tâm dữ liệu"—các máy móc tương đương với trí tuệ tập thể của những con người chuyên gia làm việc không mệt mỏi song song.
Có lẽ định nghĩa triết học tiết lộ nhất đến từ Demis Hassabis, CEO của Google DeepMind. Ông cho rằng não người về cơ bản là các máy tính sinh học gần đúng, và ông định nghĩa AGI bằng cách sử dụng phép ẩn dụ của một "Máy Turing". Trong khoa học máy tính, một Máy Turing—được đặt theo tên Alan Turing, người tiên phong cơ bản của lĩnh vực này—là một kiến trúc lý thuyết có khả năng mô phỏng bất kỳ thuật toán nào. Hassabis lập luận rằng một AGI thực sự sẽ là một hệ thống tổng quát có khả năng học bất kỳ điều gì có thể tính toán trong vũ trụ, với đủ thời gian, bộ nhớ, và dữ liệu.
Nhưng AGI chỉ là một bước đệm. Mục tiêu cuối cùng là Trí tuệ Siêu việt Nhân tạo (ASI).
Giống như AGI, ASI được định nghĩa khác nhau tùy thuộc vào ai bạn hỏi ở Silicon Valley. Định nghĩa cơ bản là một hệ thống vượt xa hiệu suất nhận thức của con người thông minh nhất trong hầu hết mọi lĩnh vực hoạt động. Nhưng những người khác đi xa hơn nhiều. Elon Musk và nhiều nhà nghiên cứu rủi ro tồn tại định nghĩa siêu trí tuệ là một hệ thống không chỉ đánh bại cá nhân thông minh nhất, mà còn vượt trội tất cả con người trong tổng thể trên hầu hết mọi nhiệm vụ nhận thức. Đây là một thực thể có sức mạnh xử lý và tốc độ lý luận lớn đến mức vượt qua tổng sản lượng trí tuệ của toàn bộ nhân loại—sự hiện thực hóa của một hệ thống như 'Rehoboam' từ Westworld, một động cơ tập trung, dường như omniscient điều khiển số phận của loài.
Ngành công nghiệp mong đợi vượt qua khoảng cách rộng lớn từ AGI cấp độ con người đến ASI giống như thần thánh bằng cách nào?
Thông qua một khái niệm được gọi là "Cải tiến Tự hồi quy".
Nhưng ở đây chúng ta phải đưa ra một sự phân biệt quan trọng: một AI không thực sự cần phải là một AGI đầy đủ để bắt đầu cải tiến tự hồi quy. Thực tế, chúng ta đã thấy những hình thức hẹp nguyên thủy của điều này ngày hôm nay. Các hệ thống hẹp như AlphaGo Zero của DeepMind đã đạt được khả năng siêu nhân chỉ bằng cách chơi hàng triệu trò chơi với chính nó, tạo ra dữ liệu tổng hợp của riêng mình để học hỏi. Ngày nay, các mô hình ngôn ngữ tiên tiến ngày càng được sử dụng để tạo ra, lọc, và đánh giá dữ liệu đào tạo cho thế hệ mô hình tiếp theo. Các máy móc đã giúp xây dựng chính chúng.
Tuy nhiên, ngành công nghiệp tin rằng một khi một hệ thống đạt đến ngưỡng trí tuệ tổng quát, vòng lặp tự cải tiến này sẽ phá vỡ các ranh giới hiện tại của nó và kích hoạt một "cuộc bùng nổ trí tuệ."
Để hiểu lộ trình hiện đại này, chúng ta nên nhìn vào Leopold Aschenbrenner, một nhà nghiên cứu trước đây trong nhóm Superalignment của OpenAI. Aschenbrenner gần đây đã viết một tài liệu có ảnh hưởng lớn đã mã hóa chính xác quỹ đạo này cho Silicon Valley. Ông chỉ ra rằng điểm chuyển mình thực sự là khi chúng ta xây dựng một AGI có khả năng hoạt động như một "nhà nghiên cứu AI tự động." Khoảnh khắc một AI có thể làm công việc của các kỹ sư con người đã xây dựng nó, nút thắt sinh học sẽ bị loại bỏ vĩnh viễn khỏi phương trình.
Hãy tưởng tượng chúng ta triển khai thành công nhà nghiên cứu AI tự động này. Nhiệm vụ đầu tiên mà các phòng thí nghiệm tiên tiến sẽ giao cho nó là gì?
Họ sẽ yêu cầu nó nghiên cứu và viết mã cho một AI thông minh hơn một chút. Bởi vì nó hoạt động với tốc độ của một cụm máy tính lớn thay vì một bộ não sinh học, nó đạt được trong vài ngày những gì sẽ mất nhiều năm cho một đội ngũ kỹ sư con người. Sau đó, AI thông minh hơn đó sử dụng trí tuệ nâng cấp của nó để viết mã cho một AI thông minh hơn nữa, và cứ như vậy.
Vòng lặp phản hồi này là cuộc bùng nổ trí tuệ. Lộ trình của Aschenbrenner dự đoán chúng ta sẽ xây dựng AGI ban đầu vào năm 2027. Từ đó, lý thuyết quy định rằng tỷ lệ tiến bộ sẽ đi lên theo chiều dọc, để lại sự hiểu biết của con người vĩnh viễn phía sau và đạt được siêu trí tuệ vào năm 2030.
Khi bạn hiểu những khái niệm này—Luật Tăng trưởng, AGI, ASI, và Cuộc bùng nổ Trí tuệ—bạn bắt đầu nhận ra rằng chúng ta không còn chỉ nói về kỹ thuật phần mềm. Chúng ta đang nói về một kinh thánh học thế tục.
Silicon Valley thường được mô tả như một nền văn hóa thế tục, lý trí mạnh mẽ. Nhưng trên thực tế, việc theo đuổi những cột mốc này hoạt động chính xác như một tôn giáo. Nó có giáo điều riêng (Luật Tăng trưởng), những lời tiên tri riêng (Cuộc bùng nổ Trí tuệ), và tầm nhìn riêng về eschaton (Siêu trí tuệ).
Các nhân vật hàng đầu trong ngành thực sự tin rằng bằng cách triệu hồi một Siêu trí tuệ, chúng ta sẽ giải quyết tất cả các điểm yếu của con người. Họ tin rằng ASI sẽ chữa khỏi tất cả các bệnh, giải quyết biến đổi khí hậu, xóa bỏ nghèo đói, và có thể thậm chí chinh phục cái chết bằng cách cho phép chúng ta tải ý thức của mình lên đám mây. Đó là một giấc mơ Pelagian sâu sắc—nỗ lực tối thượng để đạt được sự cứu rỗi và chinh phục bản chất sa ngã của chúng ta thông qua những nỗ lực cơ học của chính mình, thiếu vắng ân sủng thiêng liêng. Đó là một nỗ lực để hiện thực hóa eschaton.
Là các học giả Công giáo, bạn phải nhận ra chân trời này là gì. Thế giới công nghệ đang mượn từ vựng của bạn không chỉ để bán phần mềm, mà để xây dựng một thần thánh kỹ thuật số.
VII. Kết luận: Một Công cụ cho Đạo đức?
Các Cha, giảng viên và bạn bè.
Chúng ta đã đi qua những bản đồ đa chiều của các nhúng. Chúng ta đã nhìn vào những thực tế thống kê của Học Tăng Cường. Và chúng ta đã xem xét những giấc mơ eschatological của Silicon Valley. Chúng ta đã gỡ bỏ những phép ẩn dụ nhân cách hóa để tiết lộ silicon, điện và toán học bên dưới.
Sau khi làm điều này, chúng ta có thể bắt đầu tiếp cận câu hỏi cơ bản được đặt ra bởi hội nghị này: Liệu trí tuệ nhân tạo có thể là một 'công cụ cho đức hạnh' không? Là người đầu tiên phát biểu hôm nay, tôi chắc chắn sẽ không tuyên bố đưa ra lời giải thích cuối cùng. Nhưng tôi sẽ đưa ra một đề xuất khởi đầu: có. Tuy nhiên, đó là một câu trả lời có điều kiện nghiêm ngặt.
Trí tuệ nhân tạo có thể là một công cụ cho đức hạnh chỉ nếu chúng ta có sự tỉnh táo để coi nó chỉ đơn thuần là một công cụ.
Hãy xem xét phép ẩn dụ của người thợ. Một cái búa không có đức hạnh; người thợ mộc có. Một cái đục trong tay Michelangelo là một công cụ của vẻ đẹp siêu việt, nhưng chính cái đục đó thì không có sự điều độ, thận trọng hay công bằng. Nó không có giá trị đạo đức.
Theo cách tương tự, một thuật toán không thể có đức hạnh. AI có thể tăng cường khả năng con người đến mức đáng kinh ngạc—nó có thể tăng tốc nghiên cứu y tế, tinh giản quản lý và tổ chức tổng thể tri thức của nhân loại. Nhưng việc thực sự trau dồi đức hạnh vẫn là một nỗ lực hoàn toàn của con người.
Đức hạnh là thói quen chọn lựa điều tốt. Nó cần một trí tuệ để nhận thức sự thật, một ý chí để chọn lựa nó, và một linh hồn để được hoàn thiện bởi nó. Một cỗ máy tối ưu hóa một hàm phần thưởng thống kê không làm bất kỳ điều gì trong số này.
Chúng ta không thể chuyển nhượng quyền đạo đức của mình cho một phương trình toán học. Cũng như chúng ta không thể hoàn toàn chịu trách nhiệm cho sự phát triển đạo đức của chính mình nếu chúng ta sai lầm coi những cỗ máy vô tri như những người bình đẳng về đạo đức.
Điều này đưa tôi đến lý do tại sao tôi đang nói với bạn hôm nay. Là một người xây dựng công nghệ Công giáo, tôi nhìn vào học viện. Bởi vì các học giả Công giáo là những người bảo vệ Ý Nghĩa lịch sử.
Trong hai ngàn năm, truyền thống trí thức Công giáo đã định nghĩa một cách nghiêm ngặt bản chất của con người. Bạn là những người bảo vệ những từ như trí tuệ, ý chí, lý trí, sự chọn lựa và linh hồn. Ngày nay, ngành công nghiệp AI đang mượn chính những từ đó. Họ đang tham gia vào một sự dịch chuyển ngữ nghĩa sâu sắc mà đe dọa làm phẳng sự hiểu biết của công chúng về điều gì có nghĩa là con người.
Học viện có nghĩa vụ phải tiêm vào các khung ontological nghiêm ngặt vào hệ sinh thái AI.
Nhưng làm thế nào chúng ta thực hiện điều này một cách thực tiễn?
Chúng ta phải thành thật: vận động các phòng thí nghiệm tiên phong ở Silicon Valley hoặc kiến nghị chính phủ về các quy định rộng rãi sẽ có thể mang lại kết quả hạn chế. Ngành công nghệ di chuyển quá nhanh, và chính phủ di chuyển quá chậm. Thay đổi thực sự đòi hỏi sự tham gia của công dân và một sự thay đổi lớn trong nhận thức của công chúng.
Đây là cách bạn, với tư cách là các học giả, có thể tích cực định hình cuộc trò chuyện này:
- Lấy lại Chương trình Giảng dạy: Chúng ta phải cầu nối khoảng cách giữa STEM và nhân văn. Chúng ta cần sinh viên khoa học máy tính phải học đạo đức Thomistic, và chúng ta cần sinh viên triết học và thần học phải hiểu biết cơ bản về học máy và thống kê. Đào tạo thế hệ kỹ sư Công giáo tiếp theo để xây dựng với một ontology thực sự của con người.
- Dịch cho Không gian Công cộng: Đừng giữ sự rõ ràng thần học sâu sắc này bị khóa sau cánh cửa của các tạp chí học thuật. Công chúng đang khao khát sự hiểu biết. Viết bài bình luận cho các tờ báo thế tục. Bắt đầu các bản tin Substack. Tham gia các podcast phổ biến. Khi truyền thông công bố một tiêu đề giật gân về một AI 'có ý thức', chúng ta cần các học giả Công giáo ngay lập tức phản biện trong không gian công cộng.
- Trang bị cho Các Giáo xứ và Trường học: Người trung bình trong ghế ngồi đang trải qua sự lo âu văn hóa sâu sắc về những công cụ này. Chúng ta cần các học giả tạo ra các khung dễ tiếp cận cho phụ huynh, linh mục và giáo viên trung học. Chúng ta phải dạy trẻ em từ sớm cách coi AI như một công cụ tham khảo—một bách khoa toàn thư kỹ thuật số—không phải là một người bạn, một tác nhân, hay một quyền lực đạo đức.
- Tổ chức các Diễn đàn Liên ngành: Sử dụng sức mạnh tập hợp của các tổ chức như Angelicum để đưa những người xây dựng AI thực sự vào phòng cùng với các nhà thần học đạo đức. Buộc sự va chạm ngôn ngữ xảy ra mặt đối mặt.
Hãy để đây là lời kêu gọi hành động cuối cùng của chúng ta.
Nỗi sợ hãi apocalyptic của thế giới thế tục về những cỗ máy 'có ý thức' không phải là lý do để thận trọng; mà là một tiếng kêu tuyệt vọng cho sự lãnh đạo trí thức của bạn. Bằng cách hiểu ngôn ngữ thực sự của những người xây dựng AI, Giáo hội có thể tự tin bước vào không gian công cộng. Bạn có thể neo giữ cuộc tranh luận công cộng trong sự thật không thể lay chuyển về điều gì thực sự có nghĩa là con người. Và bạn có thể đảm bảo rằng AI được hướng đến sự thịnh vượng thực sự của con người.
Với sự rõ ràng này, bạn có thể phá vỡ ảo giác. Bạn có thể đảm bảo rằng nhân loại vẫn là người điêu khắc, và cỗ máy vẫn là cái đục, mãi mãi được sắp xếp hướng tới vinh quang của Thiên Chúa.
Cảm ơn bạn.