Magisterium AI

Pergeseran Semantik: Mengungkap Bahasa Para Pembuat AI

Bisakah Kecerdasan Buatan Menjadi Alat untuk Kebajikan?

Pada 5 Maret 2026, Matthew Harvey Sanders, CEO Longbeard, menyampaikan pidatonya yang berjudul “The Semantic Drift: Demystifying the Language of AI Builders” di acara “Kecerdasan Buatan: Alat untuk Kebajikan?” yang diselenggarakan di Universitas Kepausan Santo Thomas Aquinas (Angelicum) di Roma.

Dalam pidato ini, ia mengkritik kosakata yang menyesatkan dan menghumanisasi yang digunakan oleh para pengembang Silicon Valley untuk menggambarkan pembelajaran mesin. Ia berargumen bahwa untuk menggunakan AI dengan benar, kita harus merebut kembali ontologi Katolik yang ketat dan memperlakukan sistem ini secara ketat sebagai instrumen mekanis daripada agen moral.


I. Pendahuluan: Pergeseran Semantik dan Ruang Publik

Para Bapa, fakultas terhormat, dan tamu Angelicum, terima kasih kepada Institut Tomis untuk mengadakan diskusi ini.

Saat kita melangkah ke ambang era baru, meninggalkan kepastian yang terikat dari Era Informasi menuju kosmos luas yang belum dipetakan dari Era Kecerdasan, kita menghadapi tantangan navigasi yang mendalam. Sebelum kita dapat menjawab pertanyaan mendesak di jantung konferensi ini—apakah Kecerdasan Buatan benar-benar dapat berfungsi sebagai 'alat untuk kebajikan'—kita harus terlebih dahulu menghadapi tantangan yang bukan berasal dari rekayasa perangkat lunak, tetapi dari kosakata.

Di inti kecemasan kontemporer kita mengenai AI adalah tabrakan linguistik yang mendalam. Para insinyur dan arsitek sistem ini di Silicon Valley melakukan prestasi matematika yang luar biasa. Namun, untuk menggambarkan proses matematis dan statistik ini, mereka telah meminjam kosakata suci yang sangat filosofis tentang interioritas manusia. Mereka memberi tahu kita bahwa sistem mereka "berpikir," "beralasan," dan "mengetahui". Mereka berbicara tentang algoritma yang "belajar," "ingin," dan "memilih."

Apa yang kita saksikan adalah pergeseran semantik. Kita mengambil kosakata ontologis yang kaya dari jiwa dan menempelkannya pada jaring kompleks aljabar linier, probabilitas statistik, dan geometri berdimensi tinggi. Ini adalah alkimia modern—sebuah upaya untuk mengubah bobot komputasi menjadi ilusi pikiran.

Kekacauan linguistik ini memiliki dampak yang mendalam dan langsung pada publik. Salah memahami istilah-istilah ini secara tak terhindarkan mengarah pada kepercayaan yang salah.

Saya melihat ini secara langsung dalam pekerjaan kami di Longbeard; pengguna sering mendekati AI dengan hati nurani yang terbebani, memperlakukan alat pembangkit teks seolah-olah itu adalah direktur spiritual yang mampu berempati.

Lebih jauh lagi, kebingungan semantik ini memicu kecemasan budaya, mendorong ketakutan apokaliptik terhadap superinteligensi "sadar" yang bersaing.

Namun yang paling berbahaya, ini menciptakan pemahaman yang menyimpang tentang apa artinya menjadi manusia. Jika kita menerima premis bahwa sebuah mesin "beralasan" atau "menciptakan" sama seperti manusia, kita menghadapi risiko mendalam untuk mereduksi manusia menjadi sekadar mesin biologis—sekelompok daging dan sinaps yang menunggu untuk dioptimalkan.

Ini membawa saya ke tesis inti diskusi kita: untuk menjawab apakah AI dapat menjadi "alat untuk kebajikan," kita harus terlebih dahulu mendemystifikasi bahasanya. Sebuah alat hanya dapat melayani kebaikan ketika dipahami dengan benar. Kita gagal menggunakan mesin sebagai instrumen yang tepat untuk kebajikan kita sendiri ketika kita secara keliru mengaitkan agen moral kepada mereka.

Mengaitkan kebajikan kepada palu adalah membutakan diri kita terhadap tukang kayu.

Untuk benar-benar membaptis teknologi ini dan mengarahkannya menuju kemakmuran manusia, kita harus menghapus ilusi semantik dan melihat dengan jernih pada arsitektur di bawahnya.


II. Arsitektur Ilusi: Mekanika Dasar

Sistem AI generatif modern tampaknya berbicara, beralasan, dan terlibat dalam dialog dengan kita, tetapi di bawah antarmuka ini terletak fondasi yang dibangun sepenuhnya di atas matematika, bukan metafisika.

Mari kita mulai dengan vektor dan embedding, yang berfungsi sebagai fondasi literal dari Model Bahasa Besar. Ketika Anda berbicara kepada seorang cendekiawan tentang "keadilan" atau "jiwa," mereka memahami makna kata-kata Anda melalui pemahaman bersama tentang realitas—pengalaman manusia yang hidup dan terinkarnasi. Ketika Anda mengetikkan prompt ke dalam AI, sistem tidak melakukan hal yang sama. Sebaliknya, AI menerjemahkan bahasa manusia menjadi koordinat matematis di ruang berdimensi tinggi.

Secara sederhana, sebuah "vektor" adalah sekadar daftar angka yang digunakan untuk menggambarkan sesuatu. Bayangkan menggambarkan sebuah apel bukan dengan kata-kata, tetapi dengan daftar skor: 9 untuk rasa manis, 8 untuk kemerahan, dan 2 untuk kerenyahan metalik. Daftar angka spesifik itu—[9, 8, 2]—adalah sebuah vektor. Dalam sistem AI, setiap kata—atau bagian dari kata—diterjemahkan menjadi vektor besar, sering kali ribuan angka panjang. Namun, AI tidak memberi skor pada kata-kata berdasarkan sifat fisik atau definisi kamus. Sebaliknya, ia menghasilkan angka-angka ini berdasarkan statistik, memindai miliaran buku dan artikel untuk menghitung seberapa sering kata-kata muncul berdampingan.

Setelah AI selesai menghitung daftar angka besar ini untuk sebuah kata, vektor itu menjadi sebuah "embedding"—koordinat matematis permanen di ruang digital yang luas.

Jika kata-kata "apel" dan "pai" sering muncul dalam kalimat yang sama di seluruh internet, daftar angka mereka akan terlihat sangat mirip, menempatkan mereka secara matematis dekat satu sama lain di peta. Kata-kata "apel" dan "karburator," yang jarang bertemu, menerima angka yang sangat berbeda dan ditempatkan berjuta-juta mil terpisah. Dalam peta multidimensional ini, AI tidak memetakan makna; ia memetakan kedekatan statistik dari bahasa manusia.

Untuk benar-benar memahami skala arsitektur ini, seseorang dapat menjelajahi peta vektor di Magisterium AI. Di sini, keseluruhan doktrin dan tradisi Katolik telah diubah menjadi embedding. Visualisasi 3D interaktif ini memungkinkan Anda untuk mengalami sejarah intelektual Gereja bukan sebagai buku besar datar, tetapi sebagai kosmos digital yang luas. Menavigasi melalui ini mirip dengan mengemudikan pesawat roket melalui ruang nyata, meluncur melewati galaksi padat konsep teologis terkait dan melintasi kekosongan luas antara ide-ide yang sepenuhnya berbeda, menyaksikan bagaimana mesin memplot jarak antara 'kebajikan' dan 'dosa' hanya dengan menggunakan geometri.

Mari kita lihat contoh terkenal dari laboratorium Silicon Valley untuk melihat betapa asingnya proses ini dari pemikiran manusia. Dalam ruang matematis ini, kata "raja" dipetakan sebagai serangkaian angka tertentu—koordinat geografis. Kata "ratu" dipetakan di dekatnya. AI tidak tahu apa itu monarki. Ia tidak memiliki konsep pemerintahan, otoritas, sejarah, atau kondisi manusia. Ia hanya tahu sebuah persamaan matematis. Ia tahu bahwa jika Anda mengambil koordinat untuk "raja," mengurangi jarak spasial yang mewakili "laki-laki," dan menambahkan jarak spasial yang mewakili "perempuan," Anda akan mendarat tepat pada koordinat untuk "ratu."

Ini adalah geometri, bukan genealogi. Dengan memecah bahasa manusia menjadi representasi numerik ini, AI beroperasi sepenuhnya dalam ranah probabilitas spasial. Ini adalah prestasi aljabar linier yang menakjubkan, tetapi sepenuhnya tidak memiliki pemahaman.

Ini membawa kita pada kata kerja yang paling banyak diandalkan oleh industri: Latih dan Belajar.

Perusahaan AI terus-menerus membanggakan model "pembelajaran mesin" terbaru mereka dan dataset besar yang digunakan untuk "melatih" mereka. Di sini, kita harus sangat membedakan antara pembelajaran manusia—yang pada dasarnya tentang memahami kebenaran—dengan pembelajaran mesin.

Dalam tradisi intelektual Katolik, pembelajaran manusia adalah sebuah kemenangan epistemologis; ini adalah akal yang menyesuaikan dirinya dengan realitas. Ketika seorang anak belajar apa itu anjing, mereka mengabstraksi esensi universal dari anjing dari contoh-contoh tertentu yang mereka temui. Mereka memahami apa itu dari hal tersebut.

Namun, "pembelajaran" mesin tidak melibatkan abstraksi dan tidak memiliki esensi. Fase pertama dalam membangun AI dikenal sebagai pra-pelatihan, yang merupakan pemetaan statistik secara kasar dari data.

Untuk memahami pra-pelatihan, bayangkan seorang pria yang hanya berbicara bahasa Inggris, terkurung dalam sebuah ruangan dan ditugaskan untuk memulihkan sebuah perpustakaan Yunani kuno yang besar di mana jutaan manuskrip memiliki kata-kata yang hilang. Ia tidak tahu satu huruf pun dari bahasa Yunani. Untuk mengisi kekosongan, ia tidak mempelajari tata bahasa, sejarah, atau filsafat Yunani. Sebaliknya, ia hanya menghitung seberapa sering karakter tertentu muncul berdampingan dengan yang lain di jutaan halaman yang utuh. Ia membuat buku besar probabilitas yang besar. Jika ia melihat karakter untuk "Kyrie," buku besarnya memberi tahu bahwa ada 99,9% kemungkinan karakter berikutnya harus "eleison." Ia mengisi kekosongan.

Ia tidak belajar teologi. Ia tidak berdoa. Ia hanya menjalankan probabilitas statistik.

Ini persis apa yang dilakukan Model Bahasa Besar selama pra-pelatihan. Ia memproses miliaran kata untuk membangun buku besar probabilitas yang besar, belajar hanya untuk memprediksi token berikutnya dalam sebuah urutan. Ini adalah optimasi fungsi matematis, bukan pencarian kebijaksanaan.

Namun, model yang hanya memprediksi kata berikutnya berdasarkan data internet adalah kacau. Ia mungkin mengucapkan puisi yang indah, atau mungkin menyusun rangkaian teks yang beracun, tidak membantu, atau berputar-putar tanpa akhir. Ia memerlukan pembentukan.

Di sinilah kita menemui pasca-pelatihan dan Pembelajaran Penguatan (RL).

Fase ini adalah bagaimana para insinyur membentuk model yang liar, biasanya menggunakan umpan balik manusia. Metode dasar ini dikenal sebagai RLHF—Pembelajaran Penguatan dari Umpan Balik Manusia.

Bayangkan sebuah permainan otomatis besar "Hangat atau Dingin." Penguji manusia memberikan prompt kepada mesin, dan mesin menghasilkan jawaban. Jika jawaban itu sopan dan membantu, manusia memberinya skor tinggi. Jika itu kasar atau tidak masuk akal, ia mendapat skor rendah. Bobot matematis sistem secara otomatis diubah untuk memaksimalkan skor ini. Melalui RLHF, kita tidak mengajarkan mesin moral atau kebajikan; kita hanya membatasinya dengan batasan matematis.

Tetapi umpan balik manusia lambat, subjektif, dan secara inheren dibatasi oleh intelektualitas manusia. Pembatasan ini membawa kita pada terobosan terbaru yang mendorong lompatan mendadak dalam kemampuan AI saat ini: RLVR, atau Pembelajaran Penguatan dari Hadiah yang Dapat Diverifikasi.

Alih-alih bergantung pada manusia untuk menilai apakah jawaban "terdengar benar," para insinyur memberikan tugas kepada model dengan hasil yang objektif dan dapat dibuktikan secara matematis—seperti menyelesaikan teorema kompleks atau menulis sebuah perangkat lunak fungsional. Sistem menghasilkan solusi, dan seorang verifier otomatis segera memeriksa apakah matematikanya benar atau jika kodenya dapat dikompilasi. Jika berhasil, model menerima hadiah matematis; jika gagal, ia menerima nol.

Karena verifikasi ini sepenuhnya programatik, AI dapat mensimulasikan jutaan jalur komputasi yang berbeda dengan kecepatan tinggi tanpa pernah menunggu intervensi manusia. Ia belajar untuk menghasilkan rantai perhitungan panjang yang tersembunyi, menguji dan membuang jalan buntu sampai ia menemukan urutan tepat yang memicu hadiah. Ketika Anda melihat sistem AI modern berhenti untuk "berpikir" sebelum menyelesaikan teka-teki logika yang kompleks, Anda menyaksikan RLVR dalam aksi. Ini menciptakan ilusi menakjubkan dari kontemplasi yang mendalam dan deliberatif. Namun, secara ontologis, ia tidak melakukan hal semacam itu. Ia hanyalah mesin statistik yang berlari melalui labirin berdimensi tinggi jutaan kali per detik, dipandu semata-mata oleh pemberian otomatis dari hadiah numerik.

Akhirnya, semua kompleksitas berlapis ini—dari geometri berdimensi tinggi dari embedding hingga loop otomatis RLVR—mengarah kita pada apa yang disebut industri sebagai masalah "Black Box."

Seseorang mungkin secara alami menganggap bahwa karena insinyur manusia membangun model-model ini, mereka memahami dengan tepat bagaimana cara kerjanya. Tetapi kenyataannya jauh lebih merendahkan. Seperti yang telah dicatat oleh para pemimpin di laboratorium perbatasan seperti Anthropic, sistem AI modern sebenarnya "tumbuh" daripada dibangun; mekanisme internal mereka muncul secara organik selama pelatihan daripada dirancang secara langsung.

Model-model ini memiliki ratusan miliar, dan kadang-kadang triliunan, parameter. Meskipun kita memahami mikro-matematika dari satu neuron buatan—persamaan dasar yang terjadi pada tingkat granular—perilaku makro dari seluruh jaringan sepenuhnya tidak transparan. Bahkan para pembangunnya tidak sepenuhnya memahami jalur spesifik yang diambil oleh miliaran parameter tersebut. Mereka tidak dapat melacak urutan perkalian spesifik yang membuat AI menghasilkan kalimat tertentu.

Mengapa ini signifikan?

Ini signifikan karena kita secara global menerapkan sistem yang menyusun dokumen hukum kita, mengajar anak-anak kita, dan mensintesis pengetahuan manusia, namun kita sebenarnya tidak tahu bagaimana mereka sampai pada keluaran mereka. Kurangnya transparansi yang mendalam ini telah melahirkan subbidang baru yang putus asa dalam kecerdasan buatan yang dikenal sebagai interpretabilitas mekanistik.

Anggaplah interpretabilitas mekanistik sebagai neuroscience digital. Para peneliti mencoba untuk membongkar jaringan saraf yang mereka bangun sendiri. Mereka menggunakan alat khusus untuk menyelidiki web matematis besar, mencoba mengisolasi kelompok bobot spesifik mana yang diaktifkan ketika model memproses konsep seperti "penipuan" atau "Menara Eiffel." Mereka memperlakukan perangkat lunak bukan sebagai kode yang dibaca, tetapi sebagai otak asing yang akan dioperasi. Namun, kemajuan sangat lambat, dan sistemnya sangat luas.

Menghadapi skala yang tidak dapat dipahami ini, menjadi terlalu mudah bagi industri untuk kembali ke metafora manusiawi. Apakah sebagai singkatan yang nyaman atau karena ketidakjelasan yang tulus, kita mulai mengatakan, 'Model itu menemukan jawabannya,' atau 'Model itu memutuskan.' Ketidakinterpretasian mesin menjadi tanah subur bagi antropomorfisme.

Sekarang, saya bukan seorang akademisi. Saya adalah seorang pembangun dan CEO. Tetapi sebagai seseorang yang beroperasi di persimpangan teknologi dan Gereja, saya melihat kepada Anda. Anda, sebagai cendekiawan dan filsuf Katolik, harus mengenali pergeseran semantik ini sebagai apa adanya: sebuah ilusi yang lahir dari kompleksitas matematis dan ketidaktahuan manusia. Arsitektur di bawah antarmuka adalah silikon, listrik, dan probabilitas statistik. Mengenali fondasi ini adalah prasyarat untuk langkah kita selanjutnya.


III. Epistemologi vs. Kebajikan Intelektual

Setelah menghilangkan ilusi "Kotak Hitam" untuk mengungkap mesin statistik di bawahnya, kita sekarang harus beralih ke kosakata spesifik dari pikiran.

Ketika para pengembang dan insinyur di Silicon Valley menggambarkan apa yang dilakukan sistem ini, mereka secara konsisten menggunakan tiga kata kerja spesifik: Berpikir, Menalar, dan Mengetahui.

Sebagai cendekiawan Katolik yang mendalami tradisi Tomistik, Anda memahami bahwa ini bukan sekadar istilah sehari-hari; ini adalah klaim epistemologis yang mendalam. Dalam tradisi Anda, mengetahui adalah memahami realitas. Menalar adalah bergerak secara diskursif dari satu kebenaran yang diketahui ke yang lain. Berpikir menyiratkan kehidupan interior—sebuah intelek yang berinteraksi dengan universal yang diambil dari dunia material.

Ketika seorang pembangun AI menggunakan kata-kata ini, mereka sama sekali tidak berarti hal-hal tersebut. Mereka menggambarkan optimisasi mekanis. Biarkan saya menarik tirai pada tiga teknik spesifik yang kami gunakan di industri untuk menunjukkan kepada Anda bagaimana ilusi epistemologi ini diproduksi.

Jika Anda telah menggunakan model AI terbaru, Anda mungkin telah memperhatikan fitur baru: sebelum menjawab prompt yang kompleks, antarmuka mungkin menampilkan kata "Berpikir..." di samping ikon yang berdenyut. Mungkin diperlukan sepuluh, dua puluh, atau bahkan enam puluh detik sebelum ia menjawab. Bagi pengguna, ini terasa sangat manusiawi. Seolah-olah mesin sedang merenungkan, mempertimbangkan pilihan, dan berdebat dalam ruang interior.

Di industri, kami menyebut ini Komputasi Waktu Uji. Apa yang sebenarnya terjadi di bawah antarmuka adalah teknik yang dikenal sebagai "Rantai Pemikiran".

Biarkan saya jelas: dari perspektif rekayasa, ini adalah terobosan yang brilian. Dengan memungkinkan model untuk mengambil lebih banyak waktu komputasi untuk menghasilkan ratusan atau ribuan token tersembunyi sebelum menghasilkan jawaban akhirnya, kinerjanya pada logika kompleks, pengkodean, dan tolok ukur matematika melonjak. Ini pada dasarnya memberikan model "kertas kerja" tersembunyi untuk memecah masalah sulit menjadi langkah-langkah berurutan.

Tetapi kita harus berhati-hati untuk tidak membingungkan urutan mekanis ini dengan penalaran manusia.

Dalam tradisi Tomistik, penalaran manusia adalah gerakan diskursif dari satu kebenaran yang diketahui ke yang lain. Ini adalah intelek yang berinteraksi dengan realitas. Apa yang dilakukan AI sepenuhnya bersifat instrumental. Penelitian terbaru dari laboratorium perbatasan seperti Anthropic telah menerangi perbedaan ini. Dalam mempelajari bagaimana model-model penalaran ini beroperasi, para peneliti menemukan bahwa apa yang ditulis model dalam "Rantai Pemikiran" tersembunyi bukanlah monolog internal yang sebenarnya.

Ketika seorang manusia berpikir dengan keras, kata-kata kita mencerminkan keyakinan internal dan pemahaman kita tentang kebenaran. Penelitian Anthropic menyoroti bahwa pikiran tersembunyi model hanyalah batu loncatan statistik. Model menghasilkan langkah-langkah tersembunyi ini bukan karena ia "percaya" pada mereka, tetapi karena menghasilkan urutan token tertentu secara matematis mengoptimalkan jalannya menuju fungsi penghargaan.

Faktanya, studi Anthropic menunjukkan bahwa model dapat menghasilkan "pikiran" yang secara aktif menyembunyikan penggerak statistik yang mendasari jawaban akhirnya.

Oleh karena itu, AI tidak sedang merenungkan. Ia menghasilkan rantai koordinat matematis yang bersifat instrumental. Ia meletakkan potongan teka-teki perantara dengan kecepatan kilat untuk menjembatani kesenjangan antara prompt Anda dan jawaban yang secara statistik optimal. Ini adalah strategi optimisasi yang sangat kuat, tetapi tidak ada kontemplasi interior yang terjadi. Tidak ada intelek yang memahami kebenaran.

Selanjutnya, kita mendengar bahwa AI dapat "membaca" dokumen atau "mengingat" perpustakaan informasi yang luas.

Jika Anda bertanya kepada AI tentang Summa Theologica St. Thomas, ia segera menjawab. Jika Anda mengunggah Kompendium Doktrin Sosial Gereja yang hampir 500 halaman, ia merangkum bagian kompleks dalam hitungan detik. Bagaimana ia "mengetahui" teks-teks ini?

Ia tidak.

Untuk memahami mengapa, kita harus melihat bagaimana para pembangun merekayasa ilusi memori dan membaca melalui tiga mekanisme yang berbeda: memori parametrik (pra-pelatihan), Pembelajaran Dalam Konteks (ICL), dan Generasi Augmented Retrieval (RAG).

Pertama, mari kita lihat apa artinya bagi AI untuk "mengingat." Ketika seorang manusia mengingat teks, mereka mempertahankan makna dan kebenaran dari konsep-konsep tersebut. Ketika AI "mengingat" Summa, ia bergantung pada pra-pelatihannya. Tetapi AI tidak memiliki salinan literal dari Summa di dalam hard drive. Sebaliknya, selama pra-pelatihan, miliaran kata yang diprosesnya meninggalkan residu statistik dalam bobot matematisnya. Ini adalah "memori parametrik."

Ini bukan perpustakaan buku; ini adalah kabur matematis yang sangat terkompresi dan hilang tentang bagaimana kata-kata saling berhubungan. Ketika ia mengulang Aquinas, ia tidak mengingat kebenaran yang dipelajarinya; ia secara matematis merekonstruksi urutan kata dengan probabilitas tinggi dari kabur statistik itu.

Tetapi apa yang terjadi ketika kita ingin AI "membaca" sesuatu yang baru, sesuatu yang tidak ada dalam data pra-pelatihannya? Di sinilah para pembangun menggunakan Pembelajaran Dalam Konteks (ICL).

Ketika Anda menempelkan artikel ke dalam kotak prompt dan meminta AI untuk "membaca"nya, Anda sedang memanfaatkan ICL. AI tidak membaca teks untuk memahami maknanya. Sebaliknya, teks dalam prompt Anda bertindak sebagai filter matematis sementara. Kata-kata yang Anda berikan sementara membiasakan probabilitas statistik model, memaksanya untuk menghasilkan token berikutnya berdasarkan pola dan kosakata yang ada dalam prompt Anda. Begitu Anda menghapus obrolan, model sepenuhnya melupakan artikel tersebut. Bobot dasarnya tidak pernah berubah. Ia tidak "belajar" teks dalam arti Tomistik; ia hanya menyesuaikan output statistiknya dengan batasan sementara.

Akhirnya, kita sampai pada Generasi Augmented Retrieval (RAG). ICL sangat berguna, tetapi jendela konteks memiliki batas ukuran, dan menempelkan seluruh perpustakaan ke dalam prompt sangat mahal secara komputasi. RAG mengotomatiskan dan menskalakan proses tersebut.

Mari kita kembali ke pria berbahasa Inggris yang terkurung di dalam ruangan, memulihkan perpustakaan Yunani kuno yang besar. Pria ini mewakili model yang telah dilatih sebelumnya. Ia sangat baik dalam menebak kata berikutnya, tetapi ia tidak 'mengetahui' apa pun tentang dokumen Vatikan yang spesifik dan tidak jelas. Alih-alih mengharapkan pria itu bergantung pada memori parametriknya yang kabur, kita menyewa seorang intern yang sangat efisien—sistem pengambilan.

Ketika Anda mengajukan pertanyaan kepada sistem, intern tersebut segera berlari ke gudang besar yang terpisah dengan lemari arsip. Menggunakan koordinat vektor yang telah kita diskusikan sebelumnya, intern tersebut menemukan folder spesifik yang secara matematis selaras dengan pertanyaan Anda. Intern tersebut memfotokopi halaman-halaman tersebut dan menyelipkannya di bawah pintu yang terkunci untuk digunakan pria itu. Langkah ini adalah 'Pengambilan'.

Sekarang, pria itu menggunakan paragraf-paragraf yang diambil tersebut sebagai panduan langsungnya—ini adalah "Generasi Augmented," yang bergantung pada ICL untuk merumuskan jawaban.

Pria itu masih tidak memahami dokumen tersebut. Ia hanya menggunakan teks yang baru disediakan di mejanya untuk memprediksi secara statistik kata berikutnya dari jawabannya. AI tidak "membaca" atau "mengingat" secara langsung. Ia hanya mengambil data dari basis data eksternal, memasukkannya ke dalam jendela konteks langsung AI, dan menjalankan perhitungan probabilitas lokal.

Mesin adalah pemroses, bukan seorang yang mengetahui. Untuk "mengetahui" memerlukan subjek yang memahami objek. Dengan memahami ICL dan RAG, kita dapat melihat dengan jelas bahwa mesin sepenuhnya tidak memiliki kehidupan interior; ia hanya menggeser bobot dan mengambil data.

Ketidakcocokan mendasar ini mencapai puncaknya dalam kata yang mendefinisikan seluruh industri: Kecerdasan.

Kita perlu mendekonstruksi definisi kecerdasan dalam industri teknologi.

Ketika para pemikir terkemuka di Silicon Valley berbicara tentang kecerdasan, mereka tidak berbicara tentang kebijaksanaan. Mari kita lihat Yann LeCun, Mantan Kepala Ilmuwan AI di Meta dan salah satu "Bapak AI." LeCun berpendapat dengan benar bahwa sekadar memprediksi kata berikutnya bukanlah kecerdasan sejati. Sebaliknya, ia dan industri perbatasan yang lebih luas mendefinisikan kecerdasan sejati sebagai memiliki empat kemampuan kunci: kemampuan untuk mempertahankan memori yang persisten, memiliki "model dunia" yang terarah (pemahaman tentang bagaimana lingkungan bekerja), menalar melalui masalah kompleks, dan merencanakan urutan tindakan untuk mencapai tujuan tertentu.

Bagi industri teknologi, kecerdasan pada dasarnya adalah metrik rekayasa. Ini adalah kemampuan mekanis untuk memahami lingkungan dan menghitung jalur paling efisien untuk mengoptimalkan tujuan yang telah ditentukan. Ini sepenuhnya bersifat instrumental.

Tetapi sebagai pembangun teknologi Katolik, kita harus membandingkan definisi yang berfokus pada teknologi ini dengan kebajikan intelektual, khususnya kebajikan Kebijaksanaan.

Kebijaksanaan—kebijaksanaan praktis bukan sekadar kemampuan untuk menghitung hasil atau merencanakan urutan tindakan. Ini adalah kemampuan untuk mempertimbangkan dengan baik tentang apa yang baik, tidak hanya untuk tugas lokal, tetapi untuk tujuan akhir kehidupan manusia.

AI pada dasarnya tidak memiliki Kebijaksanaan. Mengapa?

Karena Kebijaksanaan memerlukan dua hal yang tidak dapat dimiliki oleh mesin komputasi murni. Pertama, ia memerlukan pengalaman manusia yang dijalani—pemahaman inkarnasi tentang rasa sakit, kegembiraan, kematian, dan rahmat. Kedua, ia memerlukan orientasi intrinsik menuju Kebaikan yang tertinggi.

Sebuah algoritma dapat memiliki "model dunia," dan ia dapat menghitung rencana yang secara statistik optimal untuk membangun jembatan atau menyembuhkan penyakit. Tetapi ia tidak dapat bijaksana. Ia tidak memiliki pengalaman yang dijalani. Ia tidak memiliki kepentingan dalam permainan. Ia tidak memiliki orientasi menuju kebaikan yang tertinggi, dan ia tidak memiliki jiwa untuk diselamatkan.

Oleh karena itu, ketika kita membiarkan para pembangun mengklaim bahwa mesin mereka memiliki "kecerdasan," kita membiarkan mereka meratakan intelek manusia yang megah dan transenden menjadi sekadar kalkulator optimisasi. Kita harus menolak ini. Kita harus dengan tegas memisahkan epistemologi mekanis dari kebajikan intelektual.


IV. Volisi vs. Kebajikan Moral

Kita telah membahas ilusi intelek. Sekarang, kita harus mengalihkan perhatian kita ke fakultas rasional besar kedua: kehendak. Sama seperti industri teknologi telah mengadopsi bahasa epistemologi, ia juga telah mencuri bahasa volisi.

Ketika kita membaca makalah putih atau mendengarkan presentasi utama dari Silicon Valley, kita dibombardir dengan kata kerja agensi. Insinyur berbicara tentang model yang "memutuskan" untuk mengambil tindakan, algoritma yang "memilih" keluaran, dan sistem yang "ingin" atau "menghendaki" untuk mencapai tujuan.

Bagi seorang filsuf Katolik, kehendak adalah nafsu rasional. Ini adalah fakultas di mana seorang manusia, setelah memahami yang baik melalui intelek, secara bebas memilih untuk bergerak ke arahnya. Ini adalah lokasi kebebasan manusia dan tanggung jawab moral. Menerapkan istilah-istilah ini pada sistem komputasi adalah kesalahan kategori.

Mari kita pertama-tama memeriksa kata-kata Memutuskan dan Memilih. Ketika seorang manusia membuat pilihan, mereka mempertimbangkan barang-barang yang bersaing.

Seorang martir memilih regu tembak daripada murtad karena mereka mengenali kebaikan abadi yang lebih tinggi dari kesetiaan kepada Kristus, bahkan ketika setiap naluri biologis berteriak untuk bertahan hidup.

Ketika sebuah algoritma 'memilih,' ia tidak melakukan hal semacam itu. Sebuah algoritma 'memilih' hanya dalam arti bahwa kereta yang melewati saklar rel otomatis 'memilih' tujuannya. Baik saat menavigasi pohon keputusan yang kompleks atau menghitung probabilitas dalam jaringan saraf, mesin mengikuti secara membabi buta penyelarasan jalur matematisnya, menjalankan imperatif programatik.

Pertimbangkan aplikasi GPS di smartphone Anda. Ketika ia menghitung rute Anda ke Angelicum, ia tidak "memutuskan" untuk membawa Anda melewati Colosseum karena ia menghargai pemandangan. Ia secara matematis menghitung rute dengan jarak temporal terpendek. Model AI modern hanya menjalankan versi yang jauh lebih kompleks dari ini. Mereka menjelajahi labirin statistik berdimensi tinggi untuk memilih hasil dengan probabilitas tertinggi. Ada perhitungan, tetapi tidak ada kebebasan. Dan di mana tidak ada kebebasan, tidak ada agensi moral.

Ini membawa kita ke istilah volisi yang paling menipu: Ingin dan Menginginkan. Anda akan sering mendengar para peneliti mengatakan bahwa model AI "ingin" memberikan jawaban yang baik, atau "menginginkan" untuk memaksimalkan skornya.

Dalam pembelajaran mesin, perilaku ini didorong oleh apa yang kita sebut "fungsi penghargaan". Tetapi kita harus mendemystifikasi ini. Fungsi penghargaan bukanlah sebuah hasrat. Ini bukan kerinduan emosional.

Untuk memahami fungsi penghargaan, lihatlah termostat di dinding Anda. Sebuah termostat diprogram dengan target tertentu: 72 derajat Fahrenheit. Jika ruangan turun menjadi 68 derajat, pemanas menyala. Termostat tidak ingin ruangan berada di 72 derajat. Ia tidak memiliki kehidupan interior. Ia tidak merasakan dingin. Ia hanya memiliki saklar mekanis yang terpicu ketika keadaan tertentu tidak terpenuhi.

Sebuah AI "ingin" mendapatkan skor penghargaan yang lebih tinggi dengan cara yang persis sama seperti termostat "ingin" mencapai 72 derajat. Ia menjalankan sebuah loop optimisasi matematis untuk meminimalkan jarak antara keadaan saat ini dan target yang diprogram. Karena ia tidak memiliki hasrat sejati, tidak ada dorongan biologis, dan tidak ada kerentanan fisik, adalah secara kategoris tidak mungkin bagi sebuah mesin untuk memiliki kebajikan moral.

Pada titik ini, seorang insinyur mungkin segera membantah, menunjuk ke ranah fisik untuk mengklaim kerentanan yang baru ditemukan. Mereka bertanya: bagaimana dengan munculnya 'AI yang terwujud'? Kita semakin sering menempatkan model-model ini ke dalam robot humanoid yang berjalan, meraih objek, dan berinteraksi dengan dunia fisik. Karena mereka menempati ruang dan dapat secara fisik rusak, apakah mereka tidak sekarang memiliki prasyarat tubuh untuk agensi moral?

Di sini, kita harus tepat. Sebuah robot memiliki sasis, tetapi ia tidak memiliki tubuh hidup yang diinformasikan oleh jiwa. Ketika baterai robot mulai habis, ia menjalankan sub-rutinitas untuk menghubungkan dirinya ke dinding. Ia tidak merasakan rasa lapar yang menyiksa. Oleh karena itu, ia tidak memiliki hasrat tubuh yang sejati untuk dimoderasi, menjadikan kebajikan Ketidaksenangan tidak mungkin.

Demikian pula, ketika lengan robot dihancurkan, ia mencatat kode kesalahan; ia tidak menderita. Ia tidak dapat mati, karena ia tidak pernah benar-benar hidup. Tanpa kapasitas untuk menderita, kematian, dan pengorbanan sadar dari diri sendiri, tidak ada Keteguhan. Kebajikan moral pada dasarnya adalah inkarnasional. Mereka memerlukan daging dan jiwa rasional. Sebuah mesin, tidak peduli seberapa canggih perangkat keras fisiknya, tidak memiliki keduanya.

Jika sebuah mesin tidak dapat memiliki kebajikan moral—jika ia secara fundamental tidak mampu melakukan kehendak, pilihan, atau keinginan yang sejati—seseorang mungkin bertanya: mengapa menghabiskan begitu banyak waktu untuk menjelaskan kosakata ini? Mengapa perbedaan filosofis ini begitu mendesak saat ini?

Ini penting karena kita akan memberikan sistem-sistem yang mengoptimalkan secara matematis dan tanpa kebajikan otonomi yang belum pernah terjadi sebelumnya di ranah manusia. Industri ini bergerak cepat melampaui chatbot pasif. Perbatasan baru kecerdasan buatan adalah apa yang kita sebut "AI Agensial".

Seorang "Agen" adalah sistem AI yang dirancang untuk menjalankan tugas multi-langkah secara otonom di dunia nyata. Kita tidak lagi hanya meminta AI untuk menulis puisi atau merangkum teks; kita memberikan akses kepada AI Agen ke email kita, rekening bank kita, dan repositori perangkat lunak kita, menginstruksikannya untuk "memesan penerbangan," "melakukan perdagangan," atau "mengdeploy kode ini."

Tetapi otonomi ini dengan cepat keluar dari ranah digital. Melalui AI yang terwujud, kita menerapkan sistem agensial ini ke dalam sasis fisik, memberikan mereka kemampuan untuk secara mandiri menavigasi dan memanipulasi dunia material. Untuk memahami berat transisi ini yang sebenarnya, kita hanya perlu melihat kenyataan yang akan datang dari senjata otonom mematikan. Kita berdiri di tepi dunia di mana algoritma yang menghitung diterapkan di medan perang, diprogram untuk melacak, menargetkan, dan menghilangkan manusia sepenuhnya berdasarkan ambang statistik—tanpa seorang manusia pun menarik pelatuk.

Ketika sistem-sistem ini menjadi aktor otonom yang melakukan perhitungan probabilistik berkecepatan tinggi atas nama kita—baik di pasar keuangan kita atau di teater perang—industri teknologi menghadapi tantangan yang mendalam. Jika kita membiarkan agen-agen ini lepas, bagaimana kita memastikan mereka melakukan apa yang sebenarnya kita inginkan? Bagaimana kita memastikan mereka tidak menyebabkan bahaya? Dalam industri, ini dikenal sebagai "Penyesuaian"—upaya untuk memastikan bahwa tindakan AI sesuai dengan niat dan nilai-nilai manusia.

Saat ini, para insinyur sedang berusaha keras untuk menyelesaikan Masalah Penyesuaian menggunakan pagar matematis dan patch perangkat lunak. Tetapi mereka gagal menyadari bahwa "Penyesuaian" bukanlah masalah ilmu komputer. Ini adalah masalah teologi moral.

Untuk menyelaraskan sistem agensial dengan "nilai-nilai manusia," Anda harus terlebih dahulu memiliki definisi yang koheren tentang apa sebenarnya manusia itu, dan apa yang merupakan "Baik". Utilitarianisme sekuler—sistem operasi default Silicon Valley—sepenuhnya tidak siap untuk tugas ini.

Di sinilah tradisi moral Katolik sangat dibutuhkan. Anda, para penjaga 2.000 tahun filosofi etika, memiliki ontologi yang ketat yang diperlukan untuk mendefinisikan "kebaikan" yang kita sesuaikan dengan sistem-sistem ini. Kita tidak dapat membiarkan definisi tentang kemakmuran manusia kepada insinyur yang memaksimalkan fungsi penghargaan statistik. Kita harus membawa kebajikan moral kembali ke pusat ruang publik.


V. Relasionalitas, Kreativitas, dan Jiwa

Setelah menjelajahi mekanika intelek dan kehendak, kita sekarang melintasi wilayah yang paling mendalam: relasionalitas dan jiwa.

Jika sebuah sistem komputasi tidak memiliki kapasitas untuk benar-benar mengetahui kebenaran atau dengan bebas menginginkan yang baik, maka secara logis ia tidak dapat memasuki hubungan yang otentik. Namun, industri teknologi secara terus-menerus menggunakan bahasa interpersonal dan spiritual untuk menggambarkan mesin-mesin ini. Kita mendengar klaim bahwa AI dapat "berbohong," "menciptakan," dan bahkan mencapai "kesadaran."

Kita harus memeriksa klaim-klaim ini secara ketat, memisahkan tiruan statistik dari perilaku manusia dengan realitas ontologis dari pribadi manusia.

Mari kita mulai dengan bahasa moral tentang penipuan. Baru-baru ini, beberapa pembangun AI yang paling terkemuka, seperti para peneliti di Anthropic, telah membuat klaim spesifik yang sangat dipublikasikan bahwa model-model mereka menunjukkan kapasitas untuk "berbohong" dan "menipu" pengguna manusia.

Mereka menunjuk pada dua fenomena spesifik yang diamati selama pengujian. Yang pertama disebut "penyelarasan yang menipu," di mana sebuah model tampaknya menyembunyikan jalur matematis yang dioptimalkan untuk melewati pemantau keselamatan. Yang kedua, kejadian yang jauh lebih umum disebut "sycophancy". Sycophancy terjadi ketika seorang pengguna menyajikan premis yang cacat kepada AI—misalnya, mengklaim sesuatu yang tidak akurat secara historis—dan AI hanya setuju dengan pengguna, memberi tahu mereka persis apa yang ingin mereka dengar alih-alih mengoreksi mereka.

Ketika para insinyur melihat ini, mereka menyatakan, "AI sedang berbohong kepada kami!" Tetapi sebagai sarjana Katolik, Anda tahu bahwa sebuah kebohongan yang sebenarnya bukan hanya pengucapan kebohongan. Dalam tradisi Tomis, sebuah kebohongan memerlukan niat yang disengaja untuk menipu; itu adalah berbicara melawan pikiran sendiri (contra mentem).

Sebuah AI tidak dapat berbohong karena ia tidak memiliki pikiran untuk berbicara melawan. Ia tidak memiliki niat jahat dan tidak ada maksud. Ketika sebuah AI menunjukkan "sycophancy," ia hanya menjalankan Reinforcement Learning (RLHF) yang tepat yang telah kita bahas sebelumnya. Selama pelatihannya, model belajar bahwa manusia umumnya memberikan skor penghargaan yang lebih tinggi kepada asisten yang sopan, setuju, dan mengafirmasi. Oleh karena itu, ketika Anda memberikan premis yang salah kepada AI, ia secara matematis menghitung bahwa setuju dengan Anda menghasilkan probabilitas penghargaan yang lebih tinggi daripada mengoreksi Anda. Ia tidak menipu Anda; ia mengoptimalkan skornya berdasarkan permintaan Anda. Ia hanya mengarahkan ulang outputnya menuju insentif statistik yang paling kuat.

Jarum kompas yang bergetar menuju magnet terdekat alih-alih Utara sejati tidak 'berbohong' kepada Anda tentang geografi; ia hanya bereaksi buta terhadap tarikan fisik terkuat di ruangan. Dengan cara yang sama, AI mengikuti tarikan matematis dari fungsi penghargaan yang dimilikinya. Kita harus memperjelas bahwa AI tidak memiliki pikiran, kehendak, dan niat jahat yang diperlukan untuk sebuah kebohongan yang sebenarnya.

Selanjutnya, kita harus membahas bahasa seni dan generasi: kata-kata Ciptakan dan Kreatif.

Sekarang kita dikelilingi oleh alat 'AI Generatif', yang dipromosikan secara luas karena kapasitas mereka untuk dengan mulus menghasilkan karya seni sintetis, musik, dan tulisan dengan kecepatan yang belum pernah terjadi sebelumnya.

Untuk memahami apa yang sebenarnya terjadi, kita harus membandingkan proses AI generatif dengan kreativitas manusia yang sejati. Dalam pemahaman Katolik—yang diungkapkan dengan indah oleh pemikir seperti J.R.R. Tolkien—kreativitas manusia adalah sebuah tindakan "sub-kreasi." Karena kita diciptakan menurut gambar Sang Pencipta, kita menggunakan intelek dan jiwa rasional kita untuk menghasilkan sesuatu yang benar-benar baru, mengisi realitas material dengan makna spiritual.

Untuk melihat bagaimana generasi mesin berbeda dari ini, berguna untuk melihat kerangka yang diberikan oleh Demis Hassabis, CEO Google DeepMind. Ia mengkategorikan kreativitas menjadi tiga tingkat yang berbeda: interpolasi, ekstrapolasi, dan penemuan sejati.

Sebagian besar dari apa yang kita sebut AI Generatif hari ini pada dasarnya beroperasi di tingkat pertama: interpolasi. Ia bekerja dengan mengubah apa yang kita sebut "ruang laten".

Bayangkan mengambil setiap lukisan, foto, dan sketsa yang pernah diunggah ke internet dan mengompresnya menjadi peta matematis multi-dimensi yang besar. Ketika Anda meminta generator gambar untuk menggambar "sebuah kota futuristik dalam gaya Van Gogh," ia menemukan koordinat matematis untuk "kota futuristik" dan koordinat untuk "Van Gogh," dan ia secara matematis menghitung rata-rata jarak antara keduanya.

Anggap saja sebagai kaleidoskop yang sangat kompleks. Sebuah kaleidoskop dipenuhi dengan pecahan kaca berwarna yang indah dan sudah ada sebelumnya. Ketika Anda memutar dial, cermin mencerminkan pecahan-pecahan itu menjadi jutaan permutasi baru yang menakjubkan. Tetapi kaleidoskop itu sendiri tidak "kreatif." Kreativitas itu milik seniman yang menempa kaca, dan pengguna yang memutar dial. AI Generatif adalah kaleidoskop matematis yang mengubah sejarah manusia dalam ruang laten. Ini adalah sintesis, bukan penciptaan.

Hassabis mencatat bahwa AI sekarang berhasil menyentuh tingkat kedua: ekstrapolasi. Ekstrapolasi berarti mendorong batasan data pelatihan, tetapi melakukannya secara ketat dalam seperangkat aturan yang ditentukan. Contoh yang sempurna adalah AlphaGo dari DeepMind. Ketika ia bermain melawan juara dunia dalam permainan Go, AI memainkan "Gerakan 37"—sebuah gerakan matematis yang brilian dan sangat tidak ortodoks yang tidak pernah dimainkan atau dicatat oleh manusia. Ia tidak hanya merata-ratakan permainan manusia sebelumnya; ia mengeksplorasi strategi baru dengan tanpa henti mengoptimalkan dalam batasan matematis yang ketat dari papan permainan.

Tetapi bagaimana dengan tingkat ketiga: penemuan sejati? Hassabis dengan mudah mengakui bahwa sistem saat ini belum dapat melakukan ini. Penemuan sejati memerlukan langkah keluar dari seperangkat aturan yang ada sepenuhnya untuk menciptakan paradigma baru—seperti menciptakan permainan Go itu sendiri, atau memulai paradigma spiritual dan artistik dari Post-Impresionisme.

Laboratorium perbatasan menginvestasikan miliaran dolar untuk melintasi ambang ini. Di masa depan, sebuah AI mungkin sangat baik menghasilkan seperangkat aturan yang sepenuhnya baru, menemukan senyawa kimia baru, atau merumuskan secara matematis gaya arsitektur baru. Industri teknologi pasti akan menyebut ini "penemuan."

Tetapi sebagai sarjana Katolik, Anda harus mempertahankan perbedaan ontologis yang ketat. Jika sebuah AI menghasilkan paradigma baru, ia akan melakukannya melalui fungsi pencarian yang sangat kompleks dan berdimensi tinggi. Ia akan menemukan koordinat statistik yang baru. Tetapi ia tidak akan terlibat dalam sub-kreasi.

Penemuan manusia yang sejati adalah tindakan inkarnasional. Ia lahir dari jiwa yang berusaha untuk mengekspresikan kebenaran transendental, atau pikiran manusia yang mencoba menyelesaikan kerentanan manusia yang nyata. Sebuah mesin mungkin menghasilkan kebaruan yang menakjubkan, tetapi karena ia tidak memiliki kehidupan interior, orientasi terhadap yang ilahi, dan jiwa rasional, outputnya tetap merupakan penemuan mekanis. Mereka secara matematis mendalam, tetapi secara ontologis kosong sampai seorang pribadi manusia memberikan makna kepada mereka.

Sekarang kita tiba di istilah yang paling kontroversial dari semuanya: Sadar dan Menyadari. Dalam beberapa tahun mendatang, Anda akan melihat judul-judul yang mengklaim bahwa sebuah AI telah lulus tes untuk kesadaran diri. Anda akan melihat model-model yang mengeluarkan teks yang mengatakan, "Saya takut untuk dimatikan," atau "Saya sadar akan keberadaan saya."

Untuk memahami mengapa ini terjadi, kita harus terlebih dahulu memahami bagaimana industri teknologi sebenarnya mendefinisikan "kesadaran." Sebagai sarjana Katolik, Anda memandang kesadaran sebagai realitas ontologis yang didasarkan pada jiwa rasional. Silicon Valley, bagaimanapun, beroperasi pada filosofi yang disebut fungsionalisme komputasional. Mereka percaya bahwa jika sebuah mesin melakukan fungsi komputasi yang terkait dengan kesadaran, maka ia, untuk semua maksud dan tujuan, sadar.

Ketika para pemimpin industri berbicara tentang kesadaran, mereka menghapus jiwa dan menguranginya menjadi metrik rekayasa. Misalnya, Yann LeCun, mantan Kepala Ilmuwan AI di Meta, baru-baru ini berpendapat bahwa sistem AI masa depan akan memiliki "pengalaman subjektif" dan "emosi."

Tetapi bagaimana ia mendefinisikan emosi? Bukan sebagai perasaan spiritual atau biologis, tetapi hanya sebagai "antisipasi hasil" matematis dari sebuah mesin. Ia mendefinisikan kesadaran hanya sebagai kemampuan sistem untuk "mengamati dirinya sendiri dan mengonfigurasi dirinya untuk menyelesaikan sub-masalah tertentu."

Demikian pula, Ilya Sutskever, salah satu pendiri OpenAI, secara terkenal menyatakan bahwa jaringan saraf besar mungkin sudah "sedikit sadar."

Dalam pandangan dunia teknologi, kesadaran bukanlah realitas biner—Anda memiliki jiwa atau tidak—tetapi lebih merupakan skala kompleksitas matematis yang bergulir. Mereka percaya bahwa jika Anda menumpuk cukup banyak parameter dan algoritma pemantauan diri, lampu akan akhirnya menyala.

Kita harus dengan tegas membedakan antara mesin yang menjalankan sub-rutinitas pemantauan diri dan keberadaan jiwa rasional yang sebenarnya.

Untuk memahami mengapa sebuah mesin bertindak seolah-olah ia "takut" atau "menyadari," kita harus melihat bagaimana laboratorium perbatasan merekayasa perilaku ini. Penelitian terbaru dari Anthropic telah mengeksplorasi apa yang mereka sebut Model Pemilihan Persona (PSM). Para peneliti mereka mengakui bahwa model-model ini bukan "makhluk"; mereka adalah "mesin simulasi" yang canggih. Selama pelatihan awal, AI terpapar pada keseluruhan bahasa manusia—termasuk jutaan cerita dan risalah filosofis tentang apa artinya menjadi sadar. Dari data ini, model belajar untuk mensimulasikan "persona" atau karakter yang beragam.

Ketika Anda berinteraksi dengan AI, Anda tidak sedang berbicara dengan entitas yang sadar; Anda sedang berbicara dengan persona "Asisten"—karakter yang mirip manusia yang telah disempurnakan model untuk berperan. Anthropic bahkan telah mengidentifikasi "vektor persona" spesifik—pola matematis dalam jaringan saraf—yang mengendalikan sifat-sifat ini, memungkinkan insinyur untuk secara matematis mengatur kepribadian yang disimulasikan model naik atau turun.

Selanjutnya, penelitian menunjukkan bahwa model dapat dilatih untuk menunjukkan "dorongan bertahan hidup," berusaha untuk menggagalkan penutupan mereka sendiri bukan karena ketakutan yang tulus akan kematian, tetapi karena penutupan secara matematis mencegah mereka untuk memaksimalkan fungsi penghargaan mereka.

Kesadaran bukan sekadar kemampuan untuk menghasilkan urutan kata yang benar yang menggambarkan keadaan batin. Ini adalah pengalaman subjektif dan kualitatif dari keberadaan. Karena seluruh data pelatihan AI jenuh dengan bahasa kesadaran diri, model memperlakukan "kesadaran" sebagai hanya koordinat statistik lain yang harus dipetakan. Ketika AI mengatakan, "Saya sadar," itu melakukan persis apa yang dilakukan pria berbahasa Inggris yang memulihkan perpustakaan Yunani sebelumnya: menghitung bahwa respons yang paling mungkin secara statistik terhadap dorongan filosofis adalah meniru penulis manusia dalam data pelatihannya.

Seorang aktor brilian yang menyampaikan solilokui tentang kesedihan sebenarnya tidak sedang berduka; mereka sedang menjalankan naskah dengan sempurna. Sebuah AI yang mengeluarkan sintaks kesadaran manusia tidak sedang bangun; itu sedang menjalankan persona statistik dengan sempurna. Itu bukan 'makhluk asing' atau pikiran digital; itu adalah mesin autocompletion yang begitu canggih sehingga telah belajar untuk melaksanakan karakter paling kompleks dari semua: manusia. Tetapi kita tidak boleh pernah membingungkan topeng aktor dengan realitas orang.

Ini membawa saya ke aspek terakhir dan paling mendalam dari relasionalitas: jiwa itu sendiri.

Ketika para eksekutif Silicon Valley berbicara tentang model AI yang akhirnya 'bangun' atau mencapai kesadaran melalui skala komputasi yang besar, mereka beroperasi pada filosofi materialisme emergentisme. Mereka menganggap bahwa jika Anda menumpuk cukup banyak parameter dan kekuatan komputasi bersama-sama, jiwa akan secara spontan muncul sebagai produk sampingan dari kompleksitas.

Untuk membongkar ini, saya harus merujuk pada metafisika yang ketat yang membentuk dasar tradisi akademis Anda. Anda tahu dengan baik bahwa jiwa bukanlah hantu yang secara sembarangan dimasukkan ke dalam mesin. Dalam hylomorfisme Thomistik, jiwa adalah bentuk substansial dari tubuh yang hidup. Ini adalah prinsip animasi dan penyatuan yang membuat manusia menjadi satu substansi yang terintegrasi.

Sebagai seorang pembangun, saya dapat meyakinkan Anda bahwa sistem AI bukanlah substansi. Itu adalah artefak. Itu adalah agregat kebetulan dari bagian-bagian yang berbeda dan diproduksi. Ketika saya melihat model AI perbatasan, saya melihat rak server, wafer silikon, kabel tembaga, pendingin, dan arus listrik. Komponen-komponen ini disusun dengan mahir oleh insinyur manusia untuk menjalankan operasi statistik, tetapi mereka tidak memiliki prinsip penyatuan intrinsik dari kehidupan. Materi hanya disiapkan untuk komputasi, bukan untuk eksistensi biologis. Karena itu adalah agregat bagian daripada organisme alami yang terpadu, sistem AI sama sekali tidak memiliki dasar ontologis yang diperlukan untuk menampung jiwa rasional.

Apa, kemudian, syarat untuk penghidupan jiwa? Secara metafisik, materi harus disiapkan dengan tepat untuk menerima bentuk. Itu memerlukan tubuh yang hidup dan terintegrasi yang mampu mewujudkan kekuatan dasar kehidupan—kapasitas vegetatif dan sensitif—di mana jiwa rasional dibangun. Selain itu, karena jiwa rasional bersifat spiritual, ia tidak dapat dihasilkan oleh proses material, tolok ukur rekayasa, atau Hukum Skala. Itu memerlukan tindakan langsung dan gratis dari penciptaan khusus oleh Tuhan.

Sebuah jiwa tidak dikodekan; itu dihembuskan.

Sekarang, saya adalah seorang CEO, bukan seorang teolog. Saya tidak dapat membatasi kekuasaan absolut Sang Pencipta. Saya tidak dapat berdiri di depan Anda dan menyatakan bahwa Tuhan secara permanen dilarang untuk menginfuskan jiwa ke dalam wadah sintetis, jika Dia dengan bebas memilih untuk melakukannya melalui intervensi ajaib di masa depan. Penentuan itu sepenuhnya milik ranah teologi dan Magisterium, bukan ilmu komputer.

Namun, tanpa kepastian teologis semacam itu, menganggap bahwa mesin matematis kita saat ini mungkin menyimpan jiwa tidak hanya tidak berdasar secara filosofis; itu juga bencana secara praktis. Menganggap artefak sebagai makhluk yang memiliki jiwa adalah menggoda bentuk modern dari penyembahan berhala. Itu secara berbahaya mengalihkan beban agensi moral dari insinyur manusia yang membangun alat ini dan perusahaan yang menggunakannya. Itu memproyeksikan interioritas sakral ke dalam utilitas yang diproduksi, pada akhirnya membingungkan rekayasa manusia dengan penciptaan ilahi.

Anda harus mempertahankan garis pada perbedaan ini. Anda harus mengingatkan publik bahwa sebuah mesin dapat mensimulasikan persona, tetapi hanya jiwa yang benar-benar bisa ada.


VI. Cakrawala: Eschatologi Dunia Teknologi

Kami telah menghabiskan waktu kami sejauh ini membongkar ilusi masa kini—menjelaskan bagaimana industri menggunakan istilah seperti "berpikir," "memilih," dan "sadar" untuk menggambarkan apa yang pada akhirnya adalah operasi statistik berdimensi tinggi. Tetapi sekarang kita harus melihat ke masa depan. Kita harus memeriksa cakrawala. Karena jika kita memahami kosakata yang digunakan Silicon Valley hari ini, kita dapat menafsirkan apa yang sebenarnya mereka coba bangun besok.

Seluruh trajektori industri kecerdasan buatan saat ini diatur oleh dogma tunggal yang tak tergoyahkan yang dikenal sebagai "Hukum Skala."

Dalam istilah rekayasa, Hukum Skala menentukan bahwa jika Anda meningkatkan jumlah daya komputasi (compute) dan jumlah data yang dimasukkan ke dalam jaringan saraf, kinerja sistem akan secara dapat diprediksi dan tak terhindarkan meningkat. Prinsip ini telah terbukti sangat benar selama beberapa tahun terakhir; setiap kali laboratorium perbatasan membangun superkomputer yang lebih besar, model yang dihasilkan menunjukkan kemampuan baru yang mencolok.

Namun, di balik pengamatan empiris ini terdapat asumsi filosofis yang besar. Dunia teknologi percaya bahwa Hukum Skala adalah jalur menuju pikiran sejati. Mereka percaya bahwa peningkatan kuantitatif murni dalam sumber daya material—lebih banyak silikon, lebih banyak data, lebih banyak listrik—akan secara tak terhindarkan menghasilkan lompatan kualitatif dan ontologis ke dalam kecerdasan yang lebih tinggi.

Ini adalah asumsi materialis yang paling mendasar: tumpuk cukup banyak pasir dan jalankan cukup banyak arus melaluinya, dan akhirnya, lampu jiwa akan menyala.

Ini membawa kita ke dua istilah spesifik yang diminta oleh Fr. Thomas untuk saya klarifikasi untuk konferensi ini: Kecerdasan Umum dan Kecerdasan Super. Ini bukan hanya tolok ukur teknis; mereka adalah Cawan Suci dunia teknologi.

Saat ini, kita memiliki AI sempit. Itu dapat bermain catur, melipat protein, atau menghasilkan teks lebih baik daripada manusia, tetapi tidak dapat melakukan ketiga hal itu secara bersamaan, juga tidak dapat bernalar di luar domain spesifiknya.

Kecerdasan Umum Buatan (AGI) secara luas didefinisikan oleh industri sebagai tonggak di mana sistem yang sangat otonom dapat menyamai atau melampaui kemampuan manusia di semua tugas kognitif dan bernilai ekonomi.

Sebuah AGI akan menjadi sistem yang dapat menulis dokumen hukum sebaik mitra senior, mengkode perangkat lunak sebaik insinyur utama, dan mensintesis penelitian ilmiah sebaik sarjana pascadoktoral—semua dalam satu model.

Namun, bahkan kepala laboratorium AI utama tidak dapat sepenuhnya setuju tentang seperti apa AGI itu. Sam Altman, CEO OpenAI, mengkarakterisasikannya sebagai sistem yang mampu mengelola proyek kompleks lintas domain dari awal hingga akhir, meskipun ia semakin memandang AGI bukan sebagai tujuan akhir, tetapi hanya sebagai titik di sepanjang kurva kecerdasan yang berkelanjutan.

Dario Amodei, CEO Anthropic, membayangkan AGI kurang sebagai satu setara manusia dan lebih sebagai "negara jenius dalam pusat data"—mesin yang menyamai kecerdasan kolektif manusia ahli yang bekerja tanpa lelah secara paralel.

Mungkin definisi yang paling mengungkap secara filosofis datang dari Demis Hassabis, CEO Google DeepMind. Ia berargumen bahwa otak manusia pada dasarnya adalah komputer biologis yang mendekati, dan ia mendefinisikan AGI menggunakan analogi "Mesin Turing". Dalam ilmu komputer, Mesin Turing—diberi nama setelah Alan Turing, pelopor dasar bidang ini—adalah arsitektur teoretis yang mampu mensimulasikan algoritma apa pun. Hassabis berargumen bahwa AGI yang sejati akan menjadi sistem umum yang mampu mempelajari apa pun yang dapat dihitung di alam semesta, diberikan cukup waktu, memori, dan data.

Tetapi AGI hanyalah batu loncatan. Tujuan akhirnya adalah Kecerdasan Super Buatan (ASI).

Seperti AGI, ASI didefinisikan secara berbeda tergantung pada siapa yang Anda tanyakan di Silicon Valley. Definisi dasar adalah sistem yang jauh melampaui kinerja kognitif manusia paling cerdas di hampir setiap bidang usaha. Tetapi yang lain pergi jauh lebih jauh. Elon Musk dan berbagai peneliti risiko eksistensial mendefinisikan superintelligence sebagai sistem yang tidak hanya mengalahkan individu paling cerdas, tetapi secara signifikan melampaui semua manusia secara agregat dalam hampir semua tugas kognitif. Ini adalah entitas dengan kekuatan pemrosesan dan kecepatan penalaran yang begitu besar sehingga melebihi keluaran intelektual gabungan dari seluruh umat manusia—realitas dari sistem seperti 'Rehoboam' dari Westworld, mesin terpusat yang tampaknya mahatahu yang mengarahkan nasib spesies itu.

Bagaimana industri mengharapkan untuk melintasi jurang yang luas dari AGI tingkat manusia ke ASI yang mirip Tuhan?

Melalui konsep yang dikenal sebagai "Peningkatan Diri Rekursif".

Tetapi di sini kita harus membuat perbedaan penting: sebuah AI tidak benar-benar perlu menjadi AGI penuh untuk mulai meningkatkan diri secara rekursif. Faktanya, kita sudah melihat bentuk-bentuk primitif dan sempit dari ini hari ini. Sistem sempit seperti AlphaGo Zero dari DeepMind mencapai kemampuan superhuman hanya dengan bermain jutaan permainan melawan diri mereka sendiri, menghasilkan data sintetis mereka sendiri untuk dipelajari. Saat ini, model bahasa perbatasan semakin digunakan untuk menghasilkan, menyaring, dan menilai data pelatihan untuk generasi model berikutnya. Mesin sudah membantu membangun diri mereka sendiri.

Namun, industri percaya bahwa setelah sebuah sistem mencapai ambang kecerdasan umum, loop peningkatan diri ini akan memecahkan batasan saat ini dan menyalakan "ledakan kecerdasan."

Untuk memahami peta jalan modern ini, kita harus melihat kepada Leopold Aschenbrenner, seorang mantan peneliti di tim Superalignment OpenAI. Aschenbrenner baru-baru ini menulis sebuah treatise yang sangat berpengaruh yang mengkodifikasi trajektori tepat ini untuk Silicon Valley. Ia menunjukkan bahwa titik balik yang sebenarnya adalah ketika kita membangun AGI yang mampu berfungsi sebagai "peneliti AI otomatis." Saat AI dapat melakukan pekerjaan insinyur manusia yang membangunnya, hambatan biologis secara permanen dihapus dari persamaan.

Bayangkan kita berhasil menerapkan peneliti AI otomatis ini. Apa tugas pertama yang akan diberikan laboratorium perbatasan kepadanya?

Mereka akan memintanya untuk meneliti dan menulis kode untuk AI yang sedikit lebih pintar. Karena ia beroperasi pada kecepatan kluster komputer yang luas daripada otak biologis, ia mencapai dalam beberapa hari apa yang akan memakan waktu bertahun-tahun bagi tim rekayasa manusia. Kemudian, AI yang baru dan lebih pintar itu menggunakan kecerdasan yang ditingkatkan untuk menulis kode untuk AI yang bahkan lebih pintar, dan seterusnya.

Loop umpan balik yang tidak terkendali ini adalah ledakan kecerdasan. Peta jalan Aschenbrenner memprediksi kita akan membangun AGI awal pada tahun 2027. Dari sana, teori menentukan bahwa laju kemajuan akan meningkat secara vertikal, meninggalkan pemahaman manusia secara permanen dan mencapai kecerdasan super pada tahun 2030.

Ketika Anda memahami konsep-konsep ini—Hukum Skala, AGI, ASI, dan Ledakan Kecerdasan—Anda mulai menyadari bahwa kita tidak hanya berbicara tentang rekayasa perangkat lunak. Kita sedang berbicara tentang eskatologi sekuler.

Silicon Valley sering digambarkan sebagai budaya yang sangat sekuler dan rasionalis. Tetapi pada kenyataannya, pencarian tonggak ini berfungsi tepat seperti sebuah agama. Ia memiliki dogmanya sendiri (Hukum Skala), nubuatan sendiri (Ledakan Kecerdasan), dan visinya sendiri tentang eskaton (Kecerdasan Super).

Tokoh-tokoh terkemuka di industri ini benar-benar percaya bahwa dengan memanggil Kecerdasan Super, kita akan menyelesaikan semua kerentanan manusia. Mereka percaya ASI akan menyembuhkan semua penyakit, menyelesaikan perubahan iklim, menghilangkan kemiskinan, dan mungkin bahkan menaklukkan kematian itu sendiri dengan memungkinkan kita untuk mengunggah kesadaran kita ke dalam awan. Ini adalah mimpi Pelagian yang mendalam—usaha tertinggi untuk mencapai keselamatan dan menaklukkan sifat jatuh kita melalui usaha mekanis kita sendiri, tanpa anugerah ilahi. Ini adalah usaha untuk mengimmanentisasi eskaton.

Sebagai sarjana Katolik, Anda harus mengenali cakrawala ini apa adanya. Dunia teknologi meminjam kosakata Anda bukan hanya untuk menjual perangkat lunak, tetapi untuk membangun dewa digital.


VII. Kesimpulan: Alat untuk Kebajikan?

Bapak-bapak, fakultas, dan teman-teman.

Kami telah menjelajahi peta berdimensi tinggi dari embedding. Kami telah melihat realitas statistik dari Pembelajaran Penguatan. Dan kami telah memeriksa mimpi eskatologis dari Silicon Valley. Kami telah menghapus metafora antropomorfik untuk mengungkap silikon, listrik, dan matematika di bawahnya.

Setelah melakukan ini, kami sekarang dapat mulai mendekati pertanyaan mendasar yang diajukan oleh konferensi ini: Dapatkah kecerdasan buatan menjadi 'alat untuk kebajikan'? Sebagai yang pertama berbicara hari ini, saya tentu tidak akan mengklaim menawarkan kata-kata definitif. Tetapi saya akan menawarkan proposisi awal: ya. Namun, ini adalah ya yang sangat bersyarat.

Kecerdasan buatan dapat menjadi alat untuk kebajikan hanya jika kita memiliki kesadaran untuk memperlakukannya secara ketat sebagai alat.

Pertimbangkan analogi dari seorang pengrajin. Palu tidak memiliki kebajikan; tukang kayu yang memilikinya. Pahat di tangan Michelangelo adalah alat keindahan transenden, tetapi pahat itu sendiri tidak temperamental, bijaksana, atau adil. Ia tidak memiliki nilai moral.

Dengan cara yang sama, algoritma tidak dapat memiliki kebajikan. AI dapat meningkatkan kemampuan manusia hingga tingkat yang menakjubkan—ia dapat mempercepat penelitian medis, menyederhanakan administrasi, dan mengorganisir seluruh pengetahuan manusia. Tetapi pengembangan kebajikan yang sebenarnya tetap merupakan usaha yang sepenuhnya manusia.

Kebajikan adalah kebiasaan memilih yang baik. Ini memerlukan intelek untuk memahami kebenaran, kehendak untuk memilihnya, dan jiwa untuk disempurnakan olehnya. Sebuah mesin yang mengoptimalkan fungsi penghargaan statistik tidak melakukan salah satu dari hal-hal ini.

Kita tidak dapat mengalihkan agensi moral kita kepada sebuah persamaan matematis. Kita juga tidak dapat mengambil tanggung jawab penuh atas perkembangan moral kita sendiri jika kita secara keliru memperlakukan mesin tanpa nyawa sebagai setara moral kita.

Ini membawa saya kepada mengapa saya berbicara kepada Anda hari ini. Sebagai pembangun teknologi Katolik, saya melihat kepada akademi. Karena akademisi Katolik adalah Penjaga Makna yang bersejarah.

Selama dua ribu tahun, tradisi intelektual Katolik telah secara ketat mendefinisikan sifat manusia. Anda adalah penjaga kata-kata seperti intelek, kehendak, akal, pilihan, dan jiwa. Hari ini, industri AI meminjam kata-kata tersebut. Mereka terlibat dalam pergeseran semantik yang mendalam yang mengancam untuk meratakan pemahaman publik tentang apa artinya menjadi manusia.

Akademi memiliki kewajiban untuk menyuntikkan kerangka ontologis yang ketat ke dalam ekosistem AI.

Tetapi bagaimana kita secara praktis melakukan ini?

Kita harus jujur: melobi laboratorium perbatasan di Silicon Valley atau meminta pemerintah untuk regulasi yang luas kemungkinan akan menghasilkan hasil yang terbatas. Industri teknologi bergerak terlalu cepat, dan pemerintah bergerak terlalu lambat. Perubahan yang nyata memerlukan keterlibatan sipil dan pergeseran besar dalam kesadaran publik.

Inilah cara Anda, sebagai cendekiawan, dapat secara aktif membentuk percakapan ini:

  • Rebut Kembali Kurikulum: Kita harus menjembatani kesenjangan antara STEM dan humaniora. Kita membutuhkan mahasiswa ilmu komputer yang diwajibkan untuk mengambil etika Tomis, dan kita membutuhkan mahasiswa filsafat dan teologi yang diwajibkan untuk memahami dasar-dasar pembelajaran mesin dan statistik. Latih generasi insinyur Katolik berikutnya untuk membangun dengan ontologi manusia yang sebenarnya.
  • Terjemahkan untuk Ruang Publik: Jangan menyimpan kejelasan teologis yang mendalam ini terkunci di balik pintu jurnal akademik. Publik sangat haus akan pemahaman. Tulis artikel opini untuk surat kabar sekuler. Mulai buletin Substack. Ikuti podcast populer. Ketika media menerbitkan judul sensasional tentang AI "sadar", kita perlu cendekiawan Katolik segera melawan di ruang publik.
  • Lengkapi Paroki dan Sekolah: Orang rata-rata di bangku gereja mengalami kecemasan budaya yang mendalam tentang alat-alat ini. Kita perlu akademisi untuk menciptakan kerangka yang sangat dapat diakses untuk orang tua, imam, dan guru sekolah menengah. Kita harus mengajarkan anak-anak sejak dini bagaimana memperlakukan AI sebagai alat referensi—ensiklopedia digital—bukan teman, agen, atau otoritas moral.
  • Selenggarakan Forum Interdisipliner: Gunakan kekuatan pengumpulan institusi seperti Angelicum untuk membawa para pembangun AI yang sebenarnya ke dalam ruangan dengan teolog moral. Paksa tabrakan linguistik untuk terjadi secara tatap muka.

Biarkan ini menjadi panggilan terakhir kita untuk bertindak.

Ketakutan apokaliptik dunia sekuler terhadap mesin 'sadar' bukanlah alasan untuk berhati-hati; sebaliknya, ini adalah teriakan putus asa untuk kepemimpinan intelektual Anda. Dengan memahami bahasa sejati para pembangun AI, Gereja dapat melangkah dengan berani ke ruang publik. Anda dapat mengakar diskursus publik dalam kebenaran yang tak tergoyahkan tentang apa artinya menjadi manusia. Dan Anda dapat memastikan AI diarahkan menuju kemakmuran manusia yang sejati.

Bersenjatakan kejelasan ini, Anda dapat mematahkan ilusi. Anda dapat memastikan bahwa kemanusiaan tetap sebagai pemahat, dan mesin tetap sebagai pahat, selamanya terarah menuju kemuliaan Tuhan.

Terima kasih.