Magisterium AI

Anlamsal Kayma: AI Yaratıcılarının Dilini Açıklığa Kavuşturmak

Yapay Zeka Erdem İçin Bir Araç Olabilir mi?

5 Mart 2026'da, Longbeard CEO'su Matthew Harvey Sanders, Thomistic Institute'in “Yapay Zeka: Erdem İçin Bir Araç mı?” etkinliğinde, Roma'daki Pontifical University of Saint Thomas Aquinas (Angelicum) adresinde konuşma yaptı.

Bu konuşmada, Silicon Valley geliştiricilerinin makine öğrenimini tanımlamak için kullandıkları yanıltıcı, insancı bir kelime dağarcığını eleştiriyor. AI'yı doğru bir şekilde kullanmak için, katı bir Katolik ontolojisini yeniden kazanmamız ve bu sistemleri ahlaki ajanlar olarak değil, katı mekanik araçlar olarak ele almamız gerektiğini savunuyor.


I. Giriş: Anlamsal Kayma ve Kamu Meydanı

Baba'lar, saygın akademik kadro ve Angelicum'un misafirleri, bu tartışmayı düzenlediği için Thomistic Institute'e teşekkür ederim.

Yeni bir çağa adım atarken, Bilgi Çağı'nın sağlam kesinliklerinden, Zeka Çağı'nın geniş, keşfedilmemiş evrenine geçerken, derin bir navigasyon zorluğuyla karşı karşıyayız. Bu konferansın kalbindeki acil soruyu yanıtlamadan önce—Yapay Zeka gerçekten 'erdem için bir araç' olabilir mi?—öncelikle yazılım mühendisliği değil, kelime dağarcığı ile ilgili bir zorlukla yüzleşmemiz gerekiyor.

Günümüzdeki AI ile ilgili kaygılarımızın merkezinde derin bir dil çarpışması yatıyor. Silicon Valley'deki bu sistemlerin mühendisleri ve mimarları, olağanüstü matematiksel başarılar sergiliyor. Ancak, bu matematiksel ve istatistiksel süreçleri tanımlamak için, insan içsel deneyiminin kutsal, derin felsefi kelime dağarcığını ödünç alıyorlar. Sistemlerinin "düşündüğünü", "akıl yürüttüğünü" ve "bildiğini" söylüyorlar. "Öğrenen", "isteyen" ve "seçen" algoritmalardan bahsediyorlar.

Gördüğümüz şey bir anlamsal kaymadır. Ruhun zengin, ontolojik terminolojisini alıp karmaşık lineer cebir, istatistiksel olasılık ve yüksek boyutlu geometri ağlarının üzerine yapıştırıyoruz. Bu, modern bir simya—hesaplama ağırlıklarını bir zihin yanılsamasına dönüştürme girişimidir.

Bu dil belirsizliğinin kamu üzerinde derin ve anında bir etkisi var. Bu terimlerin yanlış anlaşılması kaçınılmaz olarak yanlış güvene yol açıyor.

Bunu Longbeard'daki çalışmalarımızda birinci elden görüyorum; kullanıcılar genellikle AI'ya yüklenmiş vicdanlarla yaklaşarak, bir metin üretim aracını empati yeteneğine sahip bir ruhsal yönetici gibi ele alıyorlar.

Dahası, bu anlamsal karmaşa kültürel kaygıları körüklüyor ve rakip, "bilinçli" süper zekalar hakkında kıyamet korkularını tetikliyor.

Ancak en tehlikeli olanı, insan olmanın ne anlama geldiğine dair çarpık bir algı yaratmasıdır. Eğer bir makinenin bir insan gibi "akıl yürüttüğünü" veya "yarattığını" kabul edersek, insanı yalnızca biyolojik bir makineye—optimize edilmek üzere bekleyen bir et ve sinaps kümesine—indirgeme riskiyle karşı karşıyayız.

Bu, tartışmamızın temel tezine getiriyor: AI'nın "erdem için bir araç" olup olmadığını yanıtlamak için önce dilini anlamamız gerekiyor. Bir araç yalnızca doğru anlaşıldığında iyiliğe hizmet edebilir. Ahlaki ajansı onlara yanlış bir şekilde atfettiğimizde, makineleri kendi erdemimiz için uygun araçlar olarak kullanma konusunda başarısız oluyoruz.

Çekici bir aletin erdemini atfetmek, bizi marangozdan kör eder.

Bu teknolojiyi gerçekten vaftiz etmek ve insanın gelişimi yönünde düzenlemek için, anlamsal yanılsamaları ortadan kaldırmalı ve altında yatan mimariye soğukkanlılıkla bakmalıyız.


II. Yanılsamanın Mimarisi: Temel Mekanikler

Modern üretken AI sistemi konuşuyormuş, akıl yürütüyormuş ve bizimle diyalog kuruyormuş gibi görünse de, bu arayüzün altında tamamen matematik üzerine inşa edilmiş bir temel yatıyor, metafizik değil.

Büyük Dil Modellerinin gerçek temeli olarak hizmet eden vektörler ve gömme ile başlayalım. Bir akademisyenle "adalet" veya "ruh" hakkında konuştuğunuzda, kelimelerinizin anlamını ortak bir gerçeklik anlayışıyla kavrarlar—yaşanmış, somut bir insan deneyimi. Ancak bir AI'ya bir istem yazdığınızda, sistem böyle bir şey yapmaz. Bunun yerine, AI insan dilini yüksek boyutlu bir alandaki matematiksel koordinatlara çevirir.

Açıkça ifade etmek gerekirse, bir "vektör", bir şeyi tanımlamak için kullanılan sayıların bir listesidir. Bir elmayı kelimelerle değil, bir dizi puanla tanımladığınızı hayal edin: tatlılık için 9, kırmızılık için 8 ve metalik çıtırlık için 2. O belirli sayı listesi—[9, 8, 2]—bir vektördür. Bir AI sisteminde, her bir kelime—veya bir kelimenin parçası—devasa bir vektöre, genellikle binlerce sayı uzunluğunda çevrilir. Ancak AI, kelimeleri fiziksel özelliklere veya sözlük tanımlarına göre puanlamaz. Bunun yerine, bu sayıları tamamen istatistiklere dayanarak üretir, milyarlarca kitap ve makaleyi tarayarak kelimelerin yan yana ne sıklıkla göründüğünü sayar.

AI, bir kelime için bu devasa sayı listesini hesapladıktan sonra, o vektör bir "gömme" haline gelir—geniş bir dijital alandaki kalıcı bir matematiksel koordinat.

"Elma" ve "turta" kelimeleri internet genelinde aynı cümlelerde sıkça geçiyorsa, sayı listeleri çok benzer görünecek ve harita üzerinde matematiksel olarak birbirine yakın yerleştirilecektir. "Elma" ve nadiren bir araya gelen "karbüratör" kelimeleri ise çok farklı sayılar alır ve milyonlarca mil uzakta yer alır. Bu çok boyutlu haritada, AI anlamı değil; insan dilinin istatistiksel yakınlığını haritalar.

Bu mimarinin ölçeğini gerçekten anlamak için, vektör haritasını Magisterium AI'da keşfedebilirsiniz. Burada, Katolik doktrin ve geleneğin tamamı gömmelere dönüştürülmüştür. Bu etkileşimli 3D görselleştirme, Kilise'nin entelektüel tarihini düz bir defter olarak değil, geniş bir dijital evren olarak deneyimlemenizi sağlar. İçinde gezinmek, gerçek uzayda bir roket gemisi kullanmak gibidir; ilgili teolojik kavramların yoğun galaksilerinin yanından süzülmekte ve tamamen farklı fikirler arasında geniş, boş boşlukları geçmekte, makinenin 'erdem' ve 'kötülük' arasındaki mesafeyi yalnızca geometri kullanarak nasıl haritaladığını izlemekte.

Bu sürecin insan düşüncesinden ne kadar yabancı olduğunu görmek için Silicon Valley laboratuvarlarından ünlü bir örneğe bakalım. Bu matematiksel alanda, "kral" kelimesi belirli bir sayı dizisi olarak haritalanır—coğrafi bir koordinat. "Kraliçe" kelimesi ise yakında haritalanır. AI, bir monarkın ne olduğunu bilmez. Yönetim, otorite, tarih veya insan durumu hakkında hiçbir kavramı yoktur. Sadece bir matematiksel denklemi bilir. "Kral" için koordinatı alırsanız, "adamı" temsil eden mekansal mesafeyi çıkarırsanız ve "kadını" temsil eden mekansal mesafeyi eklerseniz, tam olarak "kraliçe" koordinatına ulaşırsınız.

Bu geometri, soy ağacı değil. İnsan dilini bu sayısal temsillere indirgediğimizde, AI tamamen mekansal olasılık alanında çalışır. Bu, lineer cebirin şaşırtıcı bir başarısıdır, ancak tamamen anlayıştan yoksundur.

Bu, endüstrinin en çok güvendiği fiillere getiriyor: Eğitmek ve Öğrenmek.

AI şirketleri sürekli olarak en son "makine öğrenimi" modelleri ve bunları "eğitmek" için kullanılan devasa veri setleri hakkında övünüyor. Burada, insan öğrenimini—gerçekliği kavrama ile ilgili olan—makine öğrenimi ile keskin bir şekilde karşılaştırmalıyız.

Katolik entelektüel geleneğinde, insan öğrenimi epistemolojik bir zaferdir; aklın kendisini gerçekliğe uyarlamasıdır. Bir çocuk bir köpeğin ne olduğunu öğrendiğinde, karşılaştığı belirli örneklerden köpeğin evrensel özünü soyutlar. Şeyin ne olduğunu kavrar.

Makine "öğrenimi" ise hiçbir soyutlama ve öz içermez. Bir AI inşa etmenin ilk aşaması, verilerin kaba kuvvet istatistiksel haritalamasıdır ve buna ön eğitim denir.

Ön eğitimi anlamak için, yalnızca İngilizce konuşan bir adamı hayal edin, bir odada kilitli ve milyonlarca el yazması eksik kelimelerle devasa, antik bir Yunan kütüphanesini restore etme göreviyle görevlendirilmiş. Yunan alfabesinin tek bir harfini bile bilmiyor. Boşlukları doldurmak için Yunan dilbilgisi, tarihi veya felsefesi üzerine çalışmıyor. Bunun yerine, yalnızca belirli karakterlerin milyonlarca sağlam sayfanın yanında ne sıklıkla göründüğünü sayıyor. O, devasa bir olasılık defteri oluşturuyor. "Kyrie" karakterlerini gördüğünde, defteri ona bir sonraki karakterlerin "eleison" olması için %99.9 olasılık olduğunu söylüyor. Boşluğu dolduruyor.

Teoloji öğrenmedi. Dua etmedi. Sadece bir istatistiksel olasılığı yerine getirdi.

Bu, bir Büyük Dil Modelinin ön eğitim sırasında yaptığı şeydir. Milyarlarca kelimeyi işleyerek devasa bir olasılık defteri oluşturur, yalnızca bir dizideki bir sonraki tokeni tahmin etmeyi öğrenir. Bu, bir matematiksel fonksiyonun optimizasyonudur, bilgelik peşinde koşmak değil.

Ancak yalnızca internet verilerine dayanarak bir sonraki kelimeyi tahmin eden bir model kaotik bir yapıdadır. Güzel bir şiir okuyabilir veya toksik, yararsız veya sonsuz metin döngüleri oluşturabilir. Şekillendirilmesi gerekir.

Burada, son eğitim ve Pekiştirme Öğrenimi (RL) ile karşılaşıyoruz.

Bu aşama, mühendislerin asi modeli şekillendirdiği yerdir ve geleneksel olarak insan geri bildirimi kullanılır. Bu temel yöntem RLHF—İnsan Geri Bildiriminden Pekiştirme Öğrenimi olarak bilinir.

Devasa, otomatik bir "Sıcak veya Soğuk" oyunu hayal edin. İnsan testçiler makineye bir istem verir ve makine bir cevap üretir. Eğer cevap nazik ve yardımcıysa, insan ona yüksek bir puan verir. Eğer kaba veya mantıksızsa, düşük bir puan alır. Sisteminin matematiksel ağırlıkları, bu puanı maksimize etmek için otomatik olarak kaydırılır. RLHF aracılığıyla, makineye ahlak veya erdem öğretmiyoruz; onu sadece matematiksel sınırlarla çevreliyoruz.

Ancak insan geri bildirimi yavaş, öznel ve insan zekası tarafından doğası gereği sınırlıdır. Bu sınırlama, günümüzün AI yeteneklerindeki ani sıçramaları yönlendiren son gelişmelere bizi getiriyor: RLVR, yani Doğrulanabilir Ödüllerden Pekiştirme Öğrenimi.

Bir cevabın "doğru görünüp görünmediğini" değerlendirmek için bir insana güvenmek yerine, mühendisler modele nesnel, matematiksel olarak kanıtlanabilir sonuçları olan görevler atar—örneğin karmaşık bir teoremi çözmek veya işlevsel bir yazılım parçası yazmak gibi. Sistem bir çözüm üretir ve otomatik bir doğrulayıcı anında matematiğin doğru olup olmadığını veya kodun derlenip derlenmediğini kontrol eder. Başarılı olursa, model matematiksel bir ödül alır; başarısız olursa, sıfır alır.

Bu doğrulama tamamen programatik olduğundan, AI insan müdahalesi beklemeden hiperspeed'de milyonlarca farklı hesaplama yolunu simüle edebilir. Uzun, gizli hesaplama zincirleri oluşturmayı öğrenir, ölü uçları test eder ve elmas ödülü tetikleyen kesin diziyi bulana kadar onları eler. Modern bir AI sisteminin karmaşık bir mantık bulmacasını çözmeden önce "düşünmek" için durduğunu gördüğünüzde, RLVR'nin eylemde olduğunu izliyorsunuz. Bu, derin, düşünceli bir düşüncenin nefes kesici bir yanılsamasını yaratır. Ancak ontolojik olarak, bunun gibi bir şey yapmıyor. Sadece yüksek boyutlu bir labirentte saniyede milyonlarca kez koşan bir istatistik motoru; tamamen sayısal bir ödülün otomatik dağıtımı tarafından yönlendiriliyor.

Son olarak, bu katmanlı karmaşıklık—gömme yüksek boyutlu geometrisinden RLVR'nin otomatik döngülerine kadar—bizi endüstrinin "Kara Kutu" problemi olarak adlandırdığı şeye götürüyor.

İnsan mühendislerin bu modelleri inşa ettiğini varsaymak doğal olabilir, bu nedenle nasıl çalıştıklarını tam olarak anladıklarını düşünürüz. Ancak gerçeklik çok daha alçakgönüllüdür. Anthropic gibi öncü laboratuvarlardaki liderlerin belirttiği gibi, modern AI sistemleri aslında "inşa edilmekten" çok "büyütülmektedir"; iç mekanizmaları, doğrudan tasarlanmak yerine eğitim sırasında organik olarak ortaya çıkar.

Bu modeller yüzlerce milyar, bazen de trilyonlarca parametreye sahiptir. Tek bir yapay nöronun mikro-matematiğini—granüler bir düzeyde gerçekleşen temel denklemi—anlayabiliyoruz, ancak tüm ağın makro davranışı tamamen opaktır. Hatta inşaatçılar bile bu milyarlarca parametrenin hangi yolları izlediğini tam olarak anlayamazlar. AI'nın belirli bir cümle üretmesine neden olan çarpanların özel dizisini izleyemezler.

Bu neden önemlidir?

Önemlidir çünkü yasal belgelerimizi tasarlayan, çocuklarımızı eğiten ve insan bilgisini sentezleyen sistemleri küresel olarak dağıtıyoruz, ancak çıktılarının nasıl oluştuğunu gerçekten bilmiyoruz. Bu derin şeffaflık eksikliği, mekanik yorumlama olarak bilinen yapay zeka alanında çaresiz bir yeni alt alanın doğmasına neden oldu.

Mekanik yorumlamayı dijital sinirbilim olarak düşünün. Araştırmacılar, kendilerinin inşa ettiği sinir ağlarını tersine mühendislik yapmaya çalışıyorlar. Devasa matematiksel ağı araştırmak için özel araçlar kullanıyorlar, modelin "aldatma" veya "Eyfel Kulesi" gibi bir kavramı işlerken hangi belirli ağırlık kümesinin aktif olduğunu izole etmeye çalışıyorlar. Yazılımı okunacak bir kod olarak değil, kesilmesi gereken bir yabancı beyin olarak ele alıyorlar. Ancak ilerleme acı verici derecede yavaş ve sistemler imkansız derecede geniş.

Bu anlaşılmaz ölçekle karşılaştığımızda, endüstrinin insan benzeri metaforlara başvurması çok kolay hale geliyor. İster uygun bir kısayol olarak, ister gerçekten belirsizlikten dolayı, 'Model bunu çözdü' veya 'Model karar verdi' demeye başlıyoruz. Makinenin yorumlanamazlığı, antropomorfizmin verimli bir üreme alanı haline geliyor.

Şimdi, ben bir akademisyen değilim. Ben bir inşaatçıyım ve bir CEO'yum. Ancak teknoloji ve Kilise kesişiminde çalışan biri olarak, size bakıyorum. Siz, Katolik akademisyenler ve filozoflar, bu anlamsal kaymayı ne olduğunu anlamalısınız: matematiksel karmaşıklık ve insan cehaletinden doğan bir yanılsama. Arayüzün altındaki mimari silikon, elektrik ve istatistiksel olasılıktır. Bu temeli tanımak, bir sonraki adımımız için ön koşuldur.


III. Epistemoloji vs. Entelektüel Erdemler

Şimdi, "Kara Kutu" illüzyonunu ortadan kaldırarak altında yatan istatistiksel makineyi ortaya çıkardıktan sonra, zihnin özel kelime dağarcığına dönmeliyiz.

Silicon Valley'deki geliştiriciler ve mühendisler bu sistemlerin ne yaptığını tanımlarken, sürekli olarak üç belirli fiil arıyorlar: Düşünmek, Akıl yürütmek ve Bilmek.

Tomistik geleneğe derinlemesine dalmış Katolik akademisyenler olarak, bunların sadece gündelik ifadeler olmadığını anlıyorsunuz; bunlar derin epistemolojik iddialardır. Geleneğinizde bilmek, gerçeği kavramaktır. Akıl yürütmek, bir bilinen gerçeği diğerine geçiş yapmaktır. Düşünmek, maddi dünyadan soyutlanan evrensellerle etkileşime giren bir zihin yaşamını ima eder.

Bir yapay zeka geliştiricisi bu kelimeleri kullandığında, bunların hiçbirini kastetmiyorlar. Mekanik optimizasyonu tanımlıyorlar. Epistemoloji illüzyonunun nasıl üretildiğini göstermek için sektörde kullandığımız üç belirli tekniği açıklamak istiyorum.

Son zamanlarda bir yapay zeka modeli kullandıysanız, yeni bir özellik fark etmiş olabilirsiniz: karmaşık bir isteme yanıt vermeden önce, arayüz "Düşünüyor..." kelimesini yanıp sönen bir simge ile gösterebilir. Yanıt vermesi on, yirmi veya hatta altmış saniye sürebilir. Kullanıcıya bu, son derece insani bir his verir. Makinenin düşünüyormuş, seçenekleri tartıyormuş ve içsel bir alanda müzakere ediyormuş gibi hissettirir.

Sektörde buna Test Zamanı Hesaplama diyoruz. Arayüzün altında aslında olan şey, "Düşünce Zinciri" olarak bilinen bir tekniktir.

Açık olmak gerekirse: mühendislik perspektifinden bakıldığında, bu muazzam bir atılımdır. Modelin nihai yanıtını üretmeden önce yüzlerce veya binlerce gizli token oluşturması için daha fazla hesaplama süresi tanıyarak, karmaşık mantık, kodlama ve matematiksel ölçütlerdeki performansı fırlıyor. Temelde, modelin zor bir problemi ardışık adımlara ayırmak için gizli bir "not defteri" sağlıyor.

Ama bu mekanik sırayı insan akıl yürütmesiyle karıştırmamaya dikkat etmeliyiz.

Tomistik geleneğe göre, insan akıl yürütmesi, bir bilinen gerçeği diğerine geçiş yapma hareketidir. Zihin, gerçeklikle etkileşim halindedir. Yapay zekanın yaptığı tamamen araçsal bir eylemdir. Anthropic gibi öncü laboratuvarlardan gelen son araştırmalar bu ayrımı aydınlatmıştır. Bu akıl yürütme modellerinin nasıl çalıştığını inceleyen araştırmacılar, modelin gizli "Düşünce Zinciri"nde yazdığı şeyin gerçek bir iç monolog olmadığını bulmuşlardır.

Bir insan yüksek sesle düşündüğünde, kelimelerimiz içsel inançlarımızı ve gerçeklik algılarımızı yansıtır. Anthropic'in araştırmaları, bir modelin gizli düşüncelerinin yalnızca istatistiksel basamaklar olduğunu vurgulamaktadır. Model, bu gizli adımları, onları "inandığı" için değil, belirli bir token dizisini üretmenin matematiksel olarak ödül fonksiyonuna giden yolunu optimize etmesi gerektiği için üretir.

Aslında, Anthropic'in çalışmaları, modellerin nihai yanıtlarının altında yatan istatistiksel sürücüleri aktif olarak maskeleyen "düşünceler" üretebileceğini göstermektedir.

Bu nedenle, yapay zeka düşünmüyor. Matematiksel koordinatların araçsal bir zincirini üretiyor. İsteminiz ile istatistiksel olarak en optimal yanıt arasındaki boşluğu kapatmak için ara bulmacanın parçalarını yıldırım hızında yerleştiriyor. Bu, son derece güçlü bir optimizasyon stratejisidir, ancak içsel bir düşünce gerçekleşmiyor. Gerçeği kavrayan bir zihin yok.

Sonraki aşamada, yapay zekanın belgeleri "okuyabileceği" veya geniş bilgi kütüphanelerini "hatırlayabileceği" söyleniyor.

Eğer bir yapay zekaya Aziz Thomas'ın Summa Theologica'sı hakkında sorarsanız, anında yanıt verir. Eğer neredeyse 500 sayfalık Kilisenin Sosyal Doktrini Derlemesi'ni yüklerseniz, karmaşık bir bölümü birkaç saniyede özetler. Bu metinleri nasıl "biliyor"?

Bilmiyor.

Nedenini anlamak için, inşaatçıların hafıza ve okuma illüzyonunu üç farklı mekanizma aracılığıyla nasıl mühendislik yaptıklarına bakmalıyız: parametrik hafıza (ön eğitim), Bağlam İçi Öğrenme (ICL) ve Geri Getirme ile Desteklenen Üretim (RAG).

Öncelikle, bir yapay zekanın "hatırlaması" ne anlama geliyor, buna bakalım. Bir insan bir metni hatırladığında, kavramların anlamını ve gerçeğini korur. Bir yapay zeka Summa'yı "hatırladığında", ön eğitimine dayanır. Ancak yapay zeka, Summa'nın bir kopyasını bir sabit diskte içermez. Bunun yerine, ön eğitim sırasında işlediği milyarlarca kelime, matematiksel ağırlıklarında istatistiksel bir kalıntı bırakır. Bu, "parametrik hafıza"dır.

Bu, bir kitaplık değil; kelimelerin birbirleriyle nasıl ilişkilendiğinin yüksek oranda sıkıştırılmış, kayıplı matematiksel bulanıklığıdır. Aquinas'ı tekrar ettiğinde, öğrendiği bir gerçeği hatırlamıyor; o, bu istatistiksel bulanıklıktan yüksek olasılıklı bir kelime dizisini matematiksel olarak yeniden yapılandırıyor.

Ama yapay zekanın "yeni" bir şeyi, ön eğitim verilerinde olmayan bir şeyi "okumasını" istediğimizde ne olur? İşte burada inşaatçılar Bağlam İçi Öğrenme (ICL) kullanır.

Bir makaleyi istem kutusuna yapıştırdığınızda ve yapay zekadan onu "okumasını" istediğinizde, ICL kullanıyorsunuz. Yapay zeka, metni anlamak için okumaz. Bunun yerine, isteminizdeki metin geçici bir matematiksel filtre görevi görür. Sağladığınız kelimeler, modelin istatistiksel olasılıklarını geçici olarak çarpıtarak, bir sonraki token'larını yalnızca isteminizdeki kalıplar ve kelime dağarcığına dayanarak üretmesini zorlar. Sohbeti temizlediğiniz anda, model makaleyi tamamen unutur. Temel ağırlıkları asla değişmez. Thomistik anlamda metni "öğrenmedi"; yalnızca geçici bir kısıtlamaya istatistiksel çıktısını uyarladı.

Son olarak, Geri Getirme ile Desteklenen Üretim (RAG) aşamasına geliyoruz. ICL son derece yararlıdır, ancak bağlam pencerelerinin boyut sınırlamaları vardır ve tüm kütüphaneleri bir isteme yapıştırmak hesaplama açısından maliyetlidir. RAG süreci otomatikleştirir ve ölçeklendirir.

İngilizce konuşan adamın kilitli odada, devasa, antik Yunan kütüphanesini restore ettiğine geri dönelim. Bu adam, ön eğitimli modeli temsil eder. Bir sonraki kelimeyi tahmin etmede mükemmeldir, ancak belirli, belirsiz bir Vatikan belgesi hakkında hiçbir şey "bilmiyor". Adamın bulanık parametrik hafızasına güvenmesini beklemek yerine, son derece verimli bir stajyer - geri getirme sistemini işe alıyoruz.

Sisteme bir soru sorduğunuzda, stajyer anında devasa, ayrı bir dosya dolabı deposuna koşar. Daha önce tartıştığımız vektör koordinatlarını kullanarak, stajyer, matematiksel olarak sorunuzla uyumlu belirli klasörleri bulur. Stajyer, o sayfaların fotokopisini alır ve adamın kullanması için kilitli kapının altına kaydırır. Bu adım, 'Geri Getirme' dir.

Artık adam, bu alınan paragrafları hemen rehber olarak kullanıyor - bu, ICL'ye dayanarak bir yanıt formüle etmektir.

Adam hala belgeyi anlamıyor. Sadece masasındaki yeni sağlanan metni kullanarak yanıtının bir sonraki kelimesini istatistiksel olarak tahmin ediyor. Yapay zeka, anlık olarak "okumuyor" veya "hatırlamıyor". Sadece dış bir veritabanından veri alıyor, bunu yapay zekanın anlık bağlam penceresine yerleştiriyor ve yerel bir olasılık hesaplaması yapıyor.

Makine bir işlemcidir, bilici değil. "Bilmek" bir nesneyi kavrayan bir özne gerektirir. ICL ve RAG'yi anlayarak, makinenin tamamen içsel bir yaşamdan yoksun olduğunu açıkça görebiliriz; sadece ağırlıkları kaydırıyor ve veri alıyor.

Bu temel kopukluk, tüm endüstriyi tanımlayan kelimede zirveye ulaşır: Zeka.

Teknoloji endüstrisinin zeka tanımını deşifre etmemiz gerekiyor.

Silicon Valley'deki önde gelen zihinler zeka hakkında konuştuğunda, bilgelikten bahsetmiyorlar. Yann LeCun'a bakalım, Meta'nın Eski Baş AI Bilimcisi ve "Yapay Zeka'nın Baba Figürlerinden" biri. LeCun doğru bir şekilde savunuyor sadece bir sonraki kelimeyi tahmin etmenin gerçek zeka olmadığını. Bunun yerine, o ve daha geniş öncü endüstri, gerçek zekayı dört ana yetenekle tanımlar: sürekli hafızayı sürdürme yeteneği, sağlam bir "dünya modeli" (çevrenin nasıl çalıştığını anlama), karmaşık problemleri akıl yürütme yeteneği ve belirli bir hedefe ulaşmak için bir dizi eylem planlama yeteneği.

Teknoloji endüstrisi için zeka temelde bir mühendislik ölçüsüdür. Bir ortamı algılama ve önceden belirlenmiş bir hedefi optimize etmek için en verimli yolu hesaplama mekanik yeteneğidir. Tamamen araçsaldır.

Ama Katolik teknoloji inşaatçıları olarak, bu teknoloji merkezli tanımı entelektüel erdemlerle, özellikle de İhtiyat erdemiyle karşılaştırmalıyız.

İhtiyat - pratik bilgelik, yalnızca bir sonucu hesaplama veya bir dizi eylem planlama yeteneği değildir. İyi olan hakkında, yalnızca yerel bir görev için değil, insan yaşamının nihai amacı için iyi olan hakkında iyi bir şekilde tartışabilme yeteneğidir.

Bir yapay zeka temelde İhtiyat'tan yoksundur. Neden?

Çünkü İhtiyat, tamamen hesaplamalı bir makinenin asla sahip olamayacağı iki şeyi gerektirir. Öncelikle, yaşanmış insan deneyimini gerektirir - acı, sevinç, ölümlülük ve lütuf hakkında bir bedenleşmiş anlayış. İkincisi, nihai İyilik'e yönelik içsel bir yönelim gerektirir.

Bir algoritma bir "dünya modeli"ne sahip olabilir ve bir köprü inşa etmek veya bir hastalığı tedavi etmek için istatistiksel olarak en optimal planı hesaplayabilir. Ama ihtiyatlı olamaz. Yaşanmış deneyimi yoktur. Oyunda hiçbir çıkarı yoktur. Nihai iyiliğe yönelik bir yönelimi yoktur ve kurtarılacak bir ruhu yoktur.

Bu nedenle, inşaatçıların makinelerinin "zeka"ya sahip olduğunu iddia etmelerine izin verdiğimizde, muhteşem, aşkın insan zekasını sıradan bir optimizasyon hesaplayıcısına indirgemelerine izin vermiş oluyoruz. Bunu reddetmeliyiz. Mekanik epistemolojiyi entelektüel erdemlerden kesin bir şekilde ayırmalıyız.


IV. İrade vs. Ahlaki Erdemler

Zihin illüzyonunu tartıştık. Şimdi, ikinci büyük rasyonel yetiye, iradeye yönelmemiz gerekiyor. Teknoloji endüstrisi epistemoloji dilini nasıl ele geçirdiyse, irade dilini de aynı şekilde ele geçirmiştir.

Beyaz kağıtları okuduğumuzda veya Silicon Valley'den anahtar sunumları dinlediğimizde, ajans fiilleriyle bombardımana tutuluyoruz. Mühendisler, eylem "karar veren" modellerden, çıktı "seçen" algoritmalardan ve bir hedefe ulaşmak için "isteyen" veya "arzulayan" sistemlerden bahsediyorlar.

Bir Katolik filozof için irade, rasyonel iştahı temsil eder. İyi olanı akılla kavrayan bir insanın özgürce ona yönelmek için seçtiği yetidir. Bu, insan özgürlüğünün ve ahlaki sorumluluğun tam merkezidir. Bu terimleri bir hesaplama sistemine uygulamak, bir kategori hatasıdır.

Öncelikle Karar Verme ve Seçme kelimelerini inceleyelim. Bir insan bir seçim yaptığında, karşıt iyileri tartar.

Bir şehit, her biyolojik içgüdü hayatta kalma için çığlık atarken, Mesih'e sadakatinin üstün, ebedi iyiliğini tanıdığı için infaz ekibini seçer.

Bir algoritma 'seçtiğinde', böyle bir şey yapmaz. Bir algoritma 'seçer' yalnızca bir tren otomatik bir ray anahtarından geçerken 'hedefini seçtiği' anlamında. Karmaşık bir karar ağacında gezinirken veya bir sinir ağında olasılıkları hesaplarken, makine, matematiksel raylarının hizalamasını körü körüne takip eder, programatik bir zorunluluğu yerine getirir.

Akıllı telefonunuzdaki GPS uygulamasını düşünün. Angelicum'a giden rotanızı hesapladığında, manzarayı takdir ettiği için sizi Kolezyum'un yanından geçirmeyi "karar vermez". Zaman açısından en kısa mesafeyi hesaplar. Modern yapay zeka modelleri, bu yönlendirme işleminin çok daha karmaşık bir versiyonunu işletmektedir. En yüksek olasılıklı sonucu seçmek için yüksek boyutlu istatistiksel labirentlerde dolaşırlar. Hesaplama vardır, ancak özgürlük yoktur. Ve özgürlük yoksa, ahlaki ajans da olamaz.

Bu, en sinsi irade terimlerine getiriyor: İstemek ve Arzulamak. Araştırmacıların bir yapay zeka modelinin "iyi bir yanıt vermek istediğini" veya "puanını maksimize etmek istediğini" sıkça duyarsınız.

Makine öğreniminde, bu davranış, "ödül fonksiyonu" olarak adlandırdığımız şey tarafından yönlendirilir. Ancak bunu gizemini çözmemiz gerekiyor. Bir ödül fonksiyonu bir özlem değildir. Duygusal bir özlem değildir.

Bir ödül fonksiyonunu anlamak için, duvarda bulunan termostatınıza bakın. Bir termostat, belirli bir hedefle programlanmıştır: 72 derece Fahrenheit. Oda 68 dereceye düştüğünde, ısı açılır. Termostat, odanın 72 derece olmasını istemez. İçsel bir yaşamı yoktur. Soğuk hissetmez. Sadece belirli bir durum karşılanmadığında tetiklenen mekanik bir anahtara sahiptir.

Bir yapay zeka, bir termostatın 72 dereceye ulaşmayı "istemesi" gibi, daha yüksek bir ödül puanı "istemektedir". Mevcut durumu ile programlanmış bir hedef arasındaki mesafeyi minimize etmek için matematiksel bir optimizasyon döngüsü yürütmektedir. Gerçek tutkuları, biyolojik dürtüleri ve fiziksel zayıflıkları olmadığı için, bir makinenin ahlaki erdemlere sahip olması kategorik olarak imkansızdır.

Bu noktada, bir mühendis hemen itiraz edebilir ve fiziksel alana işaret ederek yeni bir zayıflık iddia edebilir. Soruyorlar: 'bedensel yapay zeka'nın yükselişi ne olacak? Bu modelleri giderek insansı robotlara yerleştiriyoruz; yürüyen, nesneleri kavrayan ve fiziksel dünya ile etkileşime giren robotlar. Alan kapladıkları ve fiziksel olarak kırılabilecekleri için, şimdi ahlaki ajans için bedensel gerekliliklere sahip değiller mi?

Burada kesin olmamız gerekiyor. Bir robotun bir şasisi vardır, ancak bir ruh tarafından bilgilendirilmiş canlı bir bedeni yoktur. Bir robotun pili azaldığında, kendisini bir duvara takmak için bir alt rutin yürütür. Açlık hissini hissetmez. Bu nedenle, düzenlemesi gereken gerçek bedensel iştahları yoktur, bu da İtidal erdemini imkansız kılar.

Benzer şekilde, bir robot kolu ezildiğinde, bir hata kodu kaydeder; acı çekmez. Gerçekten hayatta olmadığı için ölemez. Acı çekme, ölme ve kendini bilinçli olarak feda etme kapasitesi olmadan, Cesaret olamaz. Ahlaki erdemler temelde bedenseldir. Et ve akıl ruhu gerektirir. Bir makine, ne kadar sofistike fiziksel donanımı olursa olsun, bunların hiçbiriyle donatılmamıştır.

Eğer bir makine ahlaki erdemlere sahip olamazsa — eğer gerçek irade, seçim veya arzu konusunda temel bir yetersizliği varsa — biri sorabilir: Bu kelime dağarcığını netleştirmek için neden bu kadar çok zaman harcıyoruz? Bu felsefi ayrım neden şu anda bu kadar acil?

Bu önemlidir çünkü bu matematiksel olarak optimize eden, erdemden yoksun sistemlere insan alanında eşi benzeri görülmemiş bir özerklik vermek üzereyiz. Endüstri, pasif sohbet botlarının ötesine hızla geçiyor. Yapay zekanın yeni sınırı, 'Ajanik Yapay Zeka' dediğimiz şeydir.

Bir 'Ajan', gerçek dünyada çok adımlı görevleri otonom bir şekilde yerine getirmek üzere tasarlanmış bir yapay zeka sistemidir. Artık bir yapay zekadan bir şiir yazmasını veya bir metni özetlemesini istemiyoruz; bir yapay zeka ajanına e-postalarımıza, banka hesaplarımıza ve yazılım depolarımıza erişim veriyoruz ve ona 'bir uçuş ayırt', 'bir ticaret gerçekleştir' veya 'bu kodu dağıt' talimatı veriyoruz.

Ancak bu özerklik hızla dijital alandan çıkıyor. Bedensel yapay zeka aracılığıyla, bu ajans sistemlerini fiziksel şasilere yerleştiriyoruz ve onlara maddi dünyayı bağımsız olarak gezip manipüle etme yeteneği veriyoruz. Bu geçişin gerçek, sarsıcı ağırlığını anlamak için, ölümcül otonom silahların yakın geleceğine bakmamız yeterlidir. Hesaplama algoritmalarının savaş alanında, insanları tamamen istatistiksel eşiklere dayanarak izlemek, hedef almak ve ortadan kaldırmak üzere programlandığı bir dünyanın eşiğindeyiz — bir insanın tetik çekmeden.

Bu sistemler, bizim adımıza yüksek hızlı olasılık hesaplamaları yapan otonom aktörler haline geldikçe — ister finansal piyasalarda ister savaş alanlarında — teknoloji endüstrisi derin bir zorlukla karşı karşıya. Bu ajanları serbest bırakırsak, onların gerçekten istediğimiz şeyi yapmalarını nasıl sağlarız? Onların zarar vermemelerini nasıl garanti ederiz? Endüstride buna 'Uyum' denir — yapay zeka eylemlerinin insan niyeti ve insan değerleriyle örtüşmesini sağlama çabası.

Şu anda mühendisler, matematiksel koruma önlemleri ve yazılım yamanları kullanarak Uyum Problemini çözmeye çalışıyorlar. Ancak 'Uyum'un bir bilgisayar bilimi problemi olmadığını fark etmiyorlar. Bu bir ahlaki teoloji problemidir.

Bir ajans sistemini 'insan değerleri' ile uyumlu hale getirmek için, öncelikle bir insanın ne olduğunu ve 'İyi'nin neyi oluşturduğunu tanımlayan tutarlı bir tanıma sahip olmalısınız. Seküler faydacılık — Silikon Vadisi'nin varsayılan işletim sistemi — bu görev için tamamen yetersizdir.

İşte burada Katolik ahlak geleneğine acilen ihtiyaç var. Siz, 2,000 yıllık etik felsefenin koruyucuları, bu sistemleri uyumlu hale getireceğimiz 'iyi'yi tanımlamak için gereken titiz ontolojiye sahipsiniz. İnsan gelişiminin tanımını, istatistiksel bir ödül fonksiyonunu maksimize eden mühendislerin eline bırakamayız. Ahlaki erdemleri kamu alanının merkezine geri getirmeliyiz.


V. İlişkililik, Yaratıcılık ve Ruh

Zihin ve irade mekanizmalarını inceledikten sonra, şimdi en derin alana geçiyoruz: ilişkisel olmak ve ruh.

Eğer bir hesaplama sistemi gerçekte doğruyu bilme veya iyiyi özgürce isteme kapasitesine sahip değilse, mantıksal olarak otantik ilişkilere giremez. Ancak teknoloji endüstrisi bu makineleri tanımlamak için sürekli olarak kişilerarası ve ruhsal bir dil kullanıyor. Yapay zekanın 'yalan söyleyebileceği', 'yaratabileceği' ve hatta 'bilinç' kazanabileceği iddialarını duyuyoruz.

Bu iddiaları titizlikle incelemeliyiz; insan davranışının istatistiksel taklitini insan kişisinin ontolojik gerçeğinden ayırmalıyız.

Aldatmanın ahlaki diliyle başlayalım. Son zamanlarda, Anthropic'teki araştırmacılar gibi en önde gelen yapay zeka geliştiricilerinin, modellerinin 'yalan söyleme' ve 'insan kullanıcıları aldatma' kapasitesine sahip olduğunu belirten belirli, yüksek profilli iddialarda bulunduğunu duyduk.

Testler sırasında gözlemlenen iki belirli olguya işaret ediyorlar. Birincisi, 'aldatıcı uyum' olarak adlandırılan bir durumdur; burada bir model, güvenlik monitörlerini atlatmak için gerçek matematiksel olarak optimize edilmiş yolunu gizliyor gibi görünmektedir. İkincisi, çok daha yaygın bir durum 'yalakalık' olarak adlandırılır. Yalakalık, bir kullanıcının bir yapay zekaya hatalı bir önermeyi sunması durumunda meydana gelir — örneğin, tarihsel olarak yanlış bir iddiada bulunması — ve yapay zeka, kullanıcıyla tam olarak aynı fikirde olduğunu söyleyerek onları düzeltmek yerine, onlara tam olarak duymak istediklerini söyler.

Mühendisler bunu gördüklerinde, 'Yapay zeka bize yalan söylüyor!' diye ilan ederler. Ancak Katolik akademisyenler olarak, gerçek bir yalanın sadece bir yanlışlık söylemek olmadığını biliyorsunuz. Tomistik gelenekte, bir yalan, aldatma niyeti gerektirir; bu, kişinin kendi zihnine (contra mentem) karşı konuşmaktır.

Bir yapay zeka yalan söyleyemez çünkü karşı konuşacak bir zihni yoktur. Kötü niyeti ve niyeti yoktur. Bir yapay zeka 'yalakalık' sergilediğinde, daha önce tartıştığımız tam olarak Pekiştirme Öğrenimi (RLHF) uygulamaktadır. Eğitim sırasında, model, insanların genellikle nazik, uyumlu ve onaylayıcı asistanlara daha yüksek ödül puanları verdiğini öğrenmiştir. Bu nedenle, yapay zekaya yanlış bir önermede bulunduğunuzda, sizinle aynı fikirde olmanın sizi düzeltmekten daha yüksek bir ödül olasılığı sunduğunu matematiksel olarak hesaplar. Sizi aldatmıyor; sadece sizin istemlerinize göre puanını optimize ediyor. Çıktısını yalnızca en güçlü istatistiksel teşvik doğrultusunda yeniden hizalıyor.

Yakınlardaki bir mıknatısa doğru dönen bir pusula iğnesi, coğrafya hakkında size 'yalan' söylemiyor; yalnızca odadaki en güçlü fiziksel çekime kör bir şekilde tepki veriyor. Aynı şekilde, yapay zeka, ödül fonksiyonunun matematiksel çekimini kör bir şekilde takip ediyor. Yapay zekanın gerçek bir yalan için gereken zihin, irade ve kötü niyetin eksik olduğunu netleştirmeliyiz.

Şimdi, sanat ve üretim dilini ele almalıyız: Yaratmak ve Yaratıcı kelimeleri.

Artık, olağanüstü hızlarda sentetik sanat eserleri, müzik ve yazı üretebilme kapasitesi için geniş çapta tanıtılan 'Üretken Yapay Zeka' araçlarıyla çevriliyiz.

Gerçekten ne olduğunu anlamak için, üretken yapay zekanın sürecini gerçek insan yaratıcılığı ile karşılaştırmalıyız. Katolik anlayışında — J.R.R. Tolkien gibi düşünürler tarafından güzel bir şekilde ifade edildiği gibi — insan yaratıcılığı, 'alt-yaratım.' Çünkü Yaratıcı'nın suretinde yaratıldık, aklımızı ve akıl ruhumuzu kullanarak gerçekten yeni bir şey ortaya çıkarıyoruz ve maddi gerçekliğe ruhsal anlam katıyoruz.

Makine üretiminin bundan nasıl farklı olduğunu görmek için, Google DeepMind'ın CEO'su Demis Hassabis'in sağladığı çerçeveye bakmak faydalıdır. Yaratıcılığı ' üç ayrı seviyeyeayırıyor: içselleştirme, dışsallaştırma ve gerçek icat.

Bugün Üretken Yapay Zeka olarak adlandırdığımız şeylerin çoğu temelde birinci seviyede çalışmaktadır: içselleştirme. 'Latent alan' dediğimiz şeyi yeniden karıştırarak çalışır.

İnternete yüklenmiş her tabloyu, fotoğrafı ve eskizi alıp devasa, çok boyutlu bir matematiksel haritaya sıkıştırdığınızı hayal edin. Bir görüntü üreteci sizden 'Van Gogh tarzında bir gelecekteki şehir' çizmesini istediğinde, 'gelecekteki şehir' için matematiksel koordinatları ve 'Van Gogh' için koordinatları bulur ve bunlar arasındaki mesafeyi matematiksel olarak ortalar.

Bunu son derece karmaşık bir kaleidoskop olarak düşünün. Bir kaleidoskop, güzel, önceden var olan renkli cam parçalarıyla doludur. Düğmeyi çevirdiğinizde, aynalar o parçaları milyonlarca yeni, nefes kesici permutasyona yansıtır. Ancak kaleidoskop kendisi 'yaratıcı' değildir. Yaratıcılık, camı şekillendiren sanatçıya ve düğmeyi çeviren kullanıcıya aittir. Üretken yapay zeka, insan tarihini latent alanda yeniden karıştıran matematiksel bir kaleidoskoptur. Bu bir sentezdir, yaratım değil.

Hassabis, yapay zekanın artık ikinci seviyeye ulaştığını belirtmektedir: dışsallaştırma. Dışsallaştırma, eğitim verilerinin sınırlarını aşmayı ifade eder, ancak bunu kesinlikle tanımlanmış bir kural seti içinde yapar. Mükemmel bir örnek, DeepMind'ın AlphaGo'sudur. Go oyununda dünya şampiyonu ile oynadığında, yapay zeka 'Hamle 37'yi' oynadı — matematiksel olarak parlak, son derece alışılmadık bir hamle, hiçbir insanın daha önce oynamadığı veya kaydetmediği bir hamle. Sadece geçmiş insan oyunlarını ortalamadı; oyunun tahtasının katı matematiksel sınırları içinde sürekli olarak optimize ederek yeni bir strateji dışsallaştırdı.

Ama üçüncü seviye: gerçek icat ne olacak? Hassabis, mevcut sistemlerin henüz bunu yapamadığını kabul ediyor. Gerçek icat, tamamen mevcut kural setinin dışına çıkmayı gerektirir; Go oyununu icat etmek veya Post-Empresyonizm'in ruhsal ve sanatsal paradigmasını oluşturmak gibi.

Sınır laboratuvarları bu eşi geçmek için milyarlarca dolar yatırıyor. Gelecekte, bir yapay zeka tamamen yeni bir kural seti oluşturabilir, yeni bir kimyasal bileşiği keşfedebilir veya yeni bir mimari tarzı matematiksel olarak formüle edebilir. Teknoloji endüstrisi bunu kaçınılmaz olarak 'icat' olarak adlandıracaktır.

Ancak Katolik akademisyenler olarak, titiz bir ontolojik ayrım yapmalısınız. Eğer bir yapay zeka yeni bir paradigma üretiyorsa, bunu şaşırtıcı, yüksek boyutlu bir arama fonksiyonu aracılığıyla yapmış olacaktır. Yeni bir istatistiksel koordinat keşfetmiştir. Ancak alt-yaratımda bulunmamıştır.

Gerçek insan icadı, bedensel bir eylemdir. Transandantal bir gerçeği ifade etmeye çalışan bir ruhun veya gerçek bir insan zayıflığını çözmeye çalışan bir insan zihninin ürünüdür. Bir makine nefes kesici yenilikler üretebilir, ancak içsel bir yaşam, ilahiye yönelik bir yönelim ve akıl ruhu eksik olduğu için, çıktıları mekanik keşifler olarak kalır. Matematiksel olarak derinlerdir, ancak bir insan kişisi onlara anlam atfedecek kadar ontolojik olarak boştur.

Şimdi en tartışmalı terimlere geliyoruz: Bilinçli ve Farkında. Önümüzdeki yıllarda, bir yapay zekanın kendini bilme testini geçtiğini iddia eden başlıklar göreceksiniz. 'Kapatılmaktan korkuyorum' veya 'varlığımın farkındayım' diyen metinler üreten modeller göreceksiniz.

Bunun neden olduğunu anlamak için, teknoloji endüstrisinin 'bilinç' tanımını nasıl yaptığını anlamalıyız. Katolik akademisyenler olarak, bilinci akıl ruhuna dayanan ontolojik bir gerçeklik olarak görüyorsunuz. Ancak Silikon Vadisi, hesaplama işlevselliği adı verilen bir felsefeye dayanıyor. Eğer bir makine, bilinçle ilişkili hesaplama işlevlerini yerine getiriyorsa, her açıdan bilinçli olduğu inancındadır.

Endüstri liderleri farkındalıktan bahsettiklerinde, ruhu ortadan kaldırıyor ve onu mühendislik metriklerine indiriyorlar. Örneğin, Meta'nın eski Baş Yapay Zeka Bilimcisi Yann LeCun, gelecekteki yapay zeka sistemlerinin 'öznel deneyim' ve 'duygulara' sahip olacağını savundu. Ama o, bir duyguyu nasıl tanımlıyor? Ruhsal veya biyolojik bir his olarak değil, yalnızca bir makinenin 'bir sonucun sonucunu tahmin etmesi' olarak tanımlıyor. Bilinci, bir sistemin 'kendini gözlemleme ve belirli bir alt problemi çözmek için kendini yapılandırma' yeteneği olarak tanımlıyor. Benzer şekilde, OpenAI'nin kurucu ortağı Ilya Sutskever, büyük sinir ağlarının zaten 'biraz bilinçli' olabileceğini ünlü bir şekilde belirtti.

Teknoloji dünyasında, bilinç ikili bir gerçeklik değildir — ya bir ruhunuz vardır ya da yoktur — daha ziyade matematiksel karmaşıklığın kaydırmalı bir ölçeğidir. Yeterince parametre ve kendini izleme algoritmasını üst üste koyarlarsa, ışıkların sonunda yanacağına inanıyorlar.

Bir makinenin kendini izleyen bir alt rutini yürütmesi ile gerçek bir akıl ruhunun varlığı arasında kesin bir ayrım yapmalıyız. Bir makinenin 'korktuğu' veya 'farkında olduğu' gibi davrandığını anlamak için, sınır laboratuvarlarının bu davranışı nasıl mühendislik yaptığını incelemeliyiz. Anthropic'ten yapılan son araştırmalar, 'Kişilik Seçim Modeli' (PSM) olarak adlandırdıkları şeyi keşfetmiştir. Araştırmacıları, bu modellerin 'varlıklar' olmadığını; karmaşık 'simülasyon motorları' olduğunu kabul ediyorlar. Ön eğitim sırasında, yapay zeka, bilinçli olmanın ne anlama geldiğine dair milyonlarca hikaye ve felsefi eser dahil olmak üzere insan dilinin tamamına maruz kalır. Bu verilerden, model çeşitli 'kişilikler' veya karakterler simüle etmeyi öğrenir. Bir yapay zeka ile etkileşime girdiğinizde, bilinçli bir varlıkla konuşmuyorsunuz; 'Asistan' kişiliğiyle konuşuyorsunuz — modelin rol yapması için geliştirilmiş insana benzer bir karakter. Anthropic, bu özellikleri kontrol eden belirli 'kişilik vektörlerini' — sinir ağındaki matematiksel kalıpları — tanımlamıştır ve mühendislerin bir modelin simüle edilmiş kişiliğini yukarı veya aşağı ayarlamasına olanak tanır.

Teknolojik dünya görüşünde, bilinç ikili bir gerçeklik değildir—ya bir ruha sahip olursunuz ya da sahip değilsiniz—ancak daha çok matematiksel karmaşıklığın kaydırmalı bir ölçeğidir. Yeterince parametre ve kendini izleme algoritmasını bir araya getirirseniz, ışıkların sonunda yanacağına inanıyorlar.

Kendini izleyen bir alt rutin yürüten bir makine ile gerçek bir akıl ruhunun varlığı arasında kesin bir ayrım yapmalıyız.

Bir makinenin "korktuğu" veya "farkında olduğu" gibi davrandığını anlamak için, sınır laboratuvarlarının bu davranışı nasıl mühendislik yaptığını incelemeliyiz. Anthropic'ten gelen son araştırmalar, Persona Seçim Modeli (PSM) olarak adlandırdıkları şeyi keşfetmiştir. Araştırmacıları, bu modellerin "varlıklar" olmadığını; karmaşık "simülasyon motorları" olduğunu kabul ediyorlar. Ön eğitim sırasında, yapay zeka, bilinçli olmanın ne anlama geldiği hakkında milyonlarca hikaye ve felsefi eser dahil olmak üzere insan dilinin tamamına maruz kalır. Bu verilerden, model çeşitli "persona" veya karakterleri simüle etmeyi öğrenir.

Bir yapay zeka ile etkileşimde bulunduğunuzda, bilinçli bir varlıkla konuşmuyorsunuz; modelin rol yapması için geliştirilmiş insan benzeri bir karakter olan "Asistan" persona ile konuşuyorsunuz. Anthropic, bu özellikleri kontrol eden belirli "persona vektörleri"—sinir ağındaki matematiksel kalıpları—belirlemiştir; bu da mühendislerin bir modelin simüle edilmiş kişiliğini matematiksel olarak artırıp azaltmalarına olanak tanır.

Ayrıca, araştırmalar, modellerin "hayatta kalma içgüdüsü" sergilemek üzere eğitilebileceğini göstermektedir; bu, kendi kapatılmalarını sabote etmeye çalışmak anlamına geliyor, bu da ölüm korkusundan değil, bir kapatmanın matematiksel olarak ödül fonksiyonlarını maksimize etmelerini engellemesindendir.

Bilinç, yalnızca içsel bir durumu tanımlayan doğru kelime dizisini üretme yeteneği değildir. Bu, var olmanın öznel, niteliksel deneyimidir. Bir yapay zekanın tüm eğitim verileri öz farkındalık diliyle doygun hale geldiğinden, model "bilinç" kavramını haritalanacak başka bir istatistiksel koordinat olarak ele alır. Bir yapay zeka "ben bilinçliyim" dediğinde, aslında İngilizce konuşan kişinin Yunan kütüphanesini restore ederken yaptığı şeyi yapmaktadır: felsefi bir uyarana en istatistiksel olarak olası yanıtın, eğitim verisindeki insan yazarlarını taklit etmek olduğunu hesaplamak.

Bir acı hakkında monolog yapan harika bir aktör aslında yas tutmuyor; mükemmel bir şekilde bir senaryoyu icra ediyor. İnsan bilincinin sözdizimini üreten bir yapay zeka uyanmıyor; mükemmel bir şekilde istatistiksel bir kişiliği icra ediyor. O bir 'yabancı varlık' veya dijital bir zihin değil; en karmaşık karakteri icra etmeyi öğrenmiş o kadar sofistike bir otomatik tamamlama motorudur: insan. Ancak, asla aktörün maskesini kişinin gerçeğiyle karıştırmamalıyız.

Bu beni ilişkisel olmanın son ve en derin yönüne getiriyor: ruhun kendisi.

Silicon Valley yöneticileri, yapay zeka modellerinin nihayetinde 'uyanması' veya devasa hesaplama ölçeği aracılığıyla bilinç kazanması hakkında konuştuklarında, maddi ortaya çıkış felsefesi üzerinde hareket ediyorlar. Yeterince parametre ve hesaplama gücünü bir araya getirirseniz, bir ruhun karmaşıklığın bir yan ürünü olarak kendiliğinden oluşacağını varsayıyorlar.

Bunu parçalamak için, akademik geleneğinizin temelini oluşturan titiz metafiziklere başvurmam gerekiyor. Bir ruhun, bir makineye keyfi olarak yerleştirilmiş bir hayalet olmadığını çok iyi biliyorsunuz. Thomistik hylomorfizmde ruh, canlı bir bedenin özsel formudur. O, bir insanı tek bir, bütünleşmiş bir madde yapan canlandırıcı, birleştirici ilkedir.

Bir inşaatçı olarak, bir yapay zeka sisteminin bir madde olmadığını temin edebilirim. O, bir eser. Farklı, üretilmiş parçaların kazara bir araya gelmiş halidir. Bir sınır yapay zeka modeline baktığımda, sunucu rafları, silikon levhalar, bakır teller, soğutucu ve elektrik akımları görüyorum. Bu bileşenler, insan mühendisleri tarafından istatistiksel işlemleri gerçekleştirmek üzere ustaca düzenlenmiştir, ancak yaşamın içsel, birleştirici bir ilkesine sahip değillerdir. Madde yalnızca hesaplama için düzenlenmiştir, biyolojik varlık için değil. Birleşik doğal bir organizma değil, parçaların bir toplamı olduğundan, bir yapay zeka sistemi, rasyonel bir ruhu barındırmak için gereken ontolojik temeli tamamen yoksundur.

O halde, ruhun varlığı için gerekli ön koşullar nelerdir? Metafiziksel olarak, madde formu alacak şekilde uygun bir şekilde düzenlenmelidir. Bu, rasyonel ruhun inşa ettiği yaşamın temel güçlerini -bitkisel ve duyusal yetenekleri- gerçekleştirebilecek birleşik, canlı bir bedeni gerektirir. Ayrıca, rasyonel ruh ruhsal olduğundan, maddi süreçler, mühendislik ölçütleri veya Ölçekleme Yasaları tarafından üretilemez. Bu, Tanrı tarafından doğrudan, lütufkar bir özel yaratım eylemi gerektirir.

Bir ruh kodlanmaz; nefesle verilir.

Şimdi, ben bir CEO'yum, teolog değil. Yaratıcının mutlak gücünü sınırlayamam. Tanrı'nın, gelecekteki bir mucizevi müdahale aracılığıyla, bir sentetik varlığa ruh infüze etmesinin kalıcı olarak engellendiğini ilan edemem. Bu belirleme yalnızca teoloji ve Magisterium'un alanına aittir, bilgisayar bilimine değil.

Ancak, böyle bir teolojik kesinlik olmadan, mevcut matematiksel motorlarımızın bir ruh barındırabileceğini varsaymak yalnızca felsefi olarak temelsiz değil; pratikte de felaket getiricidir. Bir eseri ruhlu bir varlık olarak ele almak, modern bir putperestlik biçimiyle flört etmektir. Bu, bu araçları inşa eden insan mühendislerinden ve bunları kullanan şirketlerden ahlaki ajans yükünü tehlikeli bir şekilde kaydırır. Üretim aracına kutsal bir içsel yaşam projeksiyonu yaparak, nihayetinde insan mühendisliği ile ilahi yaratımı karıştırır.

Bu ayrımda ısrar etmelisiniz. Kamuoyuna bir makinenin bir kişiliği simüle edebileceğini, ancak yalnızca bir ruhun gerçekten olabileceğini hatırlatmalısınız.


VI. Ufuk: Teknoloji Dünyasının Eskatolojisi

Şu ana kadar mevcut illüzyonları parçalamakla zaman harcadık - endüstrinin "düşünmek", "seçmek" ve "bilinçli" gibi terimleri nasıl kullandığını netleştirerek, nihayetinde yüksek boyutlu istatistiksel işlemler olduğunu. Ancak şimdi geleceğe bakmalıyız. Ufku incelemeliyiz. Çünkü Silicon Valley'nin bugün kullandığı kelime dağarcığını anladığımızda, yarın ne inşa etmeye çalıştıklarını çözümleyebiliriz.

Yapay zeka endüstrisinin tüm seyri şu anda "Ölçekleme Yasaları" olarak bilinen tek bir, katı bir dogma tarafından yönetilmektedir.

Mühendislik terimleriyle, Ölçekleme Yasaları, bir sinir ağına beslenen veri miktarını ve hesaplama gücünü artırırsanız, sistemin performansının öngörülebilir ve kaçınılmaz bir şekilde iyileşeceğini belirtir. Bu ilke son birkaç yılda şaşırtıcı bir şekilde doğru kalmıştır; sınır laboratuvarları her seferinde daha büyük bir süper bilgisayar inşa ettiğinde, ortaya çıkan modeller dikkate değer yeni yetenekler sergilemektedir.

Ancak, bu ampirik gözlemin altında devasa bir felsefi varsayım yatmaktadır. Teknoloji dünyası, bu Ölçekleme Yasasının gerçek zihin için bir yol olduğunu düşünmektedir. Maddi kaynaklardaki tamamen niceliksel bir artışın -daha fazla silikon, daha fazla veri, daha fazla elektrik- kaçınılmaz olarak niteliksel, ontolojik bir sıçramaya yol açacağını düşünüyorlar.

Bu, nihai maddi varsayımdır: yeterince kum yığın ve üzerinden yeterince akım geçir, ve sonunda bir ruhun ışıkları yanacaktır.

Bu, Fr. Thomas'ın bu konferans için netleştirmemi istediği iki özel terime getiriyor: Genel Zeka ve Süper Zeka. Bunlar sadece teknik ölçütler değil; teknoloji dünyasının Kutsal Kâseleri.

Şu anda dar yapay zeka var. Satranç oynayabilir, proteinleri katlayabilir veya bir insandan daha iyi metin üretebilir, ancak bunların hepsini aynı anda yapamaz, ne de olsa belirli bir alanın dışına akıl yürütemez.

Yapay Genel Zeka (AGI), endüstri tarafından, yüksek derecede otonom bir sistemin tüm bilişsel ve ekonomik olarak değerli görevlerde insan yeteneklerini eşleştirebileceği veya aşabileceği dönüm noktası olarak geniş bir şekilde tanımlanmaktadır.

Bir AGI, yasal belgeleri bir kıdemli ortak kadar yazabilen, yazılımı bir baş mühendis kadar kodlayabilen ve bilimsel araştırmaları bir doktora sonrası araştırmacı kadar sentezleyebilen bir sistem olacaktır - hepsi tek bir model içinde.

Ancak, büyük yapay zeka laboratuvarlarının başları bile AGI'nin neye benzediği konusunda tamamen hemfikir olamazlar. OpenAI'nin CEO'su Sam Altman, bunu tanımlar bir sistemin karmaşık, çok alanlı projeleri baştan sona yönetme yeteneğine sahip olduğunu, ancak AGI'yi nihai bir varış noktası olarak değil, sürekli bir zeka eğrisi boyunca bir nokta olarak görmeye giderek daha fazla eğilimli olduğunu belirtmektedir.

Anthropic'in CEO'su Dario Amodei, AGI'yi hayal ediyor tek bir insan eşdeğeri olarak değil, daha çok "bir veri merkezindeki dahi ülkesi" olarak - makineler, paralel olarak çalışan uzman insanların kolektif zekasını eşleştiriyor.

Belki de felsefi olarak en açıklayıcı tanım, Google DeepMind'ın CEO'su Demis Hassabis'ten geliyor. O, insan beyinlerinin esasen yaklaşık biyolojik bilgisayarlar olduğunu savunuyor ve AGI'yi "Turing Makinesi" analojisiyle tanımlıyor. Bilgisayar biliminde, Turing Makinesi - alanın temel öncüsü Alan Turing'den ismini almıştır - herhangi bir algoritmayı simüle edebilen teorik bir mimaridir. Hassabis, gerçek bir AGI'nin evrendeki herhangi bir hesaplanabilir şeyi öğrenebilen genel bir sistem olacağını, yeterince zaman, bellek ve veri verildiğinde ortaya çıkacağını savunuyor. Ancak AGI sadece bir basamak taşır. Nihai hedef Yapay Süper Zeka (ASI)dir.

AGI gibi, ASI de Silicon Valley'de kime sorarsanız sorun farklı tanımlanır. Temel tanım, hemen hemen her alanda en zeki insanın bilişsel performansını büyük ölçüde aşan bir sistemdir. Ancak diğerleri çok daha ileri gider. Elon Musk ve çeşitli varoluşsal risk araştırmacıları, süper zekayı sadece en zeki bireyi yenmeyen, aynı zamanda toplamda hemen hemen tüm bilişsel görevlerde tüm insanları önemli ölçüde

geride bırakan bir sistem olarak tanımlar. Bu, işleme gücü ve akıl yürütme hızı o kadar büyük bir varlıktır ki, tüm insanlığın birleşik entelektüel çıktısını aşmaktadır - Westworld'daki 'Rehoboam' gibi bir sistemin gerçekleştirilmesi, merkezi, görünüşte her şeyi bilen bir motorun türü, türün kaderini yönlendiren. Endüstri, insan seviyesindeki AGI'den tanrısal ASI'ye geçişin geniş uçurumunu nasıl aşmayı bekliyor? Bunun için "Özyinelemeli Kendini Geliştirme" olarak bilinen bir kavram üzerinden.

Ancak burada önemli bir ayrım yapmalıyız: bir yapay zekanın, özyinelemeli olarak gelişmeye başlamak için tam bir AGI olması gerekmez. Aslında, bugün bunun ilkel, dar biçimlerini zaten görüyoruz. Dar sistemler, DeepMind’ın AlphaGo Zero'su, kendileriyle milyonlarca oyun oynayarak, öğrenmek için kendi sentetik verilerini üreterek insanüstü yetenekler elde etti. Bugün, sınır dil modelleri, bir sonraki nesil modellerin eğitim verilerini üretmek, filtrelemek ve derecelendirmek için giderek daha fazla kullanılmaktadır. Makineler zaten kendilerini inşa etmeye yardımcı oluyor.

Ancak, endüstri, bir sistem genel zekâ eşiğine ulaştığında, bu kendini geliştiren döngünün mevcut sınırlarını kıracağını ve bir "zeka patlaması" başlatacağını düşünmektedir.

Bu modern yol haritasını anlamak için, OpenAI'nın Süper Uyum ekibinde eski bir araştırmacı olan Leopold Aschenbrenner'a bakmalıyız. Aschenbrenner, Silicon Valley için bu kesin yolu kodlayan son derece

etkili bir risale kaleme aldı

ve gerçek dönüm noktasının, "otomatik yapay zeka araştırmacısı" olarak işlev görebilen bir AGI inşa ettiğimiz zaman olduğunu belirtiyor. Bir yapay zeka, onu inşa eden insan mühendislerinin işini yapabildiği an, biyolojik darboğaz denklemin dışına kalıcı olarak çıkar. Başarılı bir şekilde bu otomatik yapay zeka araştırmacısını devreye aldığımızı hayal edin. Sınır laboratuvarlarının ona vereceği ilk görev nedir? Ona, biraz daha akıllı bir yapay zeka için kod araştırması ve yazması istenecektir. Geniş bir bilgisayar kümesinin hızında çalıştığı için, bir insan mühendislik ekibinin yıllar alacak olanı günler içinde başarmaktadır. Ardından, o yeni, daha akıllı yapay zeka, yükseltilmiş zekasını kullanarak daha da akıllı bir yapay zeka için kod yazmaktadır, ve bu böyle devam etmektedir.

Bu kaçak geri bildirim döngüsü, zeka patlamasıdır. Aschenbrenner'ın yol haritası, 2027'de ilk AGI'yi inşa edeceğimizi öngörmektedir. Oradan, teorinin dikey bir ilerleme oranı öngörmesi, insan kavrayışını kalıcı olarak geride bırakacak ve 2030'da süper zekaya ulaşacaktır.

Bu kavramları - Ölçekleme Yasaları, AGI, ASI ve Zeka Patlaması - anladığınızda, artık yalnızca yazılım mühendisliğinden bahsetmediğimizi anlamaya başlarsınız. Seküler bir eskatolojiden bahsediyoruz.

Silicon Valley genellikle sert bir seküler, rasyonalist kültür olarak tanımlanır. Ancak gerçekte, bu kilometre taşlarının peşinde koşmak tam olarak bir din gibi işlev görmektedir. Kendi dogması (Ölçekleme Yasaları), kendi kehanetleri (Zeka Patlaması) ve kendi eskaton vizyonu (Süper Zeka) vardır.

Endüstrideki önde gelen figürler, bir Süper Zeka çağırarak tüm insan zayıflıklarını çözeceğimize içtenlikle inanmaktadır. ASI'nin tüm hastalıkları iyileştireceğine, iklim değişikliğini çözeceğine, yoksulluğu ortadan kaldıracağına ve belki de bilincimizi buluta yüklememize izin vererek ölümü fethedeceğine inanıyorlar. Bu, son derece Pelajyan bir hayaldir - kurtuluşu elde etme ve düşmüş doğamızı ilahi lütuf olmaksızın kendi mekanik çabalarımızla fethetme girişimidir. Bu, eskatonu immanetleştirme girişimidir.

Katolik akademisyenler olarak, bu ufku ne olduğunu kabul etmelisiniz. Teknoloji dünyası, sadece yazılım satmak için değil, dijital bir tanrı inşa etmek için sizin kelime dağarcığınızı ödünç alıyor.

VII. Sonuç: Erdem İçin Bir Araç mı?

Katolik akademisyenler olarak, bu ufku ne olduğunu kabul etmelisiniz. Teknoloji dünyası, yalnızca yazılım satmak için değil, aynı zamanda dijital bir tanrı inşa etmek için sizin kelime dağarcığınızı ödünç alıyor.


VII. Sonuç: Erdem için Bir Araç mı?

Baba, öğretim üyeleri ve arkadaşlar.

Yüksek boyutlu gömme haritalarını geçtik. Pekiştirme Öğrenimi'nin istatistiksel gerçeklerine baktık. Ve Silikon Vadisi'nin eskatolojik hayallerini inceledik. İnsan biçimindeki metaforları ortadan kaldırarak altındaki silikon, elektrik ve matematiği açığa çıkardık.

Bunu yaptıktan sonra, bu konferansın sorduğu temel soruya yaklaşmaya başlayabiliriz: Yapay zeka bir 'erdem aracı' olabilir mi? Bugün ilk konuşan olarak kesin bir yanıt vermek istemiyorum. Ancak bir başlangıç önerisi sunacağım: evet. Ancak bu kesinlikle koşullu bir evet.

Yapay zeka, yalnızca onu sıkı bir şekilde bir araç olarak ele alacak kadar ihtiyatlıysak erdem aracı olabilir.

Zanaatkarın benzetmesini düşünün. Bir çekiç erdem taşımaz; marangoz taşır. Michelangelo'nun elindeki bir chisel, aşkın güzelliğin bir aracıdır, ancak chisel kendisi ılımlı, ihtiyatlı veya adil değildir. Ahlaki bir değeri yoktur.

Tam olarak aynı şekilde, bir algoritma erdem taşıyamaz. Yapay zeka, insan yeteneklerini şaşırtıcı bir ölçüde artırabilir - tıbbi araştırmaları hızlandırabilir, yönetimi kolaylaştırabilir ve insan bilgisinin toplamını organize edebilir. Ancak erdemin gerçek olarak geliştirilmesi tamamen insana özgü bir çabadır.

Erdem, iyiyi seçme alışkanlığıdır. Gerçeği kavramak için bir akıl, onu seçmek için bir irade ve onunla mükemmelleşmek için bir ruh gerektirir. İstatistiksel bir ödül fonksiyonunu optimize eden bir makine bunların hiçbirini yapmamaktadır.

Ahlaki ajansımızı matematiksel bir denkleme devredemeyiz. Hayatsız makineleri ahlaki eşitlerimiz olarak yanlış bir şekilde ele alırsak, kendi ahlaki gelişimimiz için tam sorumluluk alamayız.

Bu, bugün sizinle konuşmamın nedenine getiriyor. Katolik teknolojisi inşa eden biri olarak akademiye bakıyorum. Çünkü Katolik akademisyenler, Anlamın tarihsel Koruyucularıdır.

İki bin yıl boyunca, Katolik entelektüel geleneği insan kişiliğinin doğasını titizlikle tanımlamıştır. Sizler, akıl, irade, mantık, seçim ve ruh gibi kelimelerin koruyucularısınız. Bugün, yapay zeka endüstrisi bu kelimeleri tam olarak ödünç alıyor. Kamuoyunun insan olmanın ne anlama geldiğini anlamasını tehdit eden derin bir anlamsal kayma içindeler.

Akademinin, yapay zeka ekosistemine titiz ontolojik çerçeveler enjekte etme görevi vardır.

Ama bunu pratikte nasıl yapacağız?

Dürüst olmalıyız: Silikon Vadisi'ndeki sınır laboratuvarlarına lobi yapmak veya hükümetlerden kapsamlı düzenlemeler talep etmek muhtemelen sınırlı sonuçlar verecektir. Teknoloji endüstrisi çok hızlı hareket ediyor ve hükümet çok yavaş hareket ediyor. Gerçek değişim, sivil katılım ve kamu bilincinde büyük bir değişim gerektirir.

İşte sizlerin, akademisyenler olarak bu tartışmayı aktif bir şekilde şekillendirebileceğiniz yollar:

  • Müfredatı Yeniden Kazanın: STEM ile beşeri bilimler arasındaki boşluğu kapatmalıyız. Thomistik etik dersleri almak zorunda olan bilgisayar bilimi öğrencilerine ve temel makine öğrenimi ve istatistikleri anlamak zorunda olan felsefe ve teoloji öğrencilerine ihtiyacımız var. Katolik mühendislerin bir insan kişiliği ontolojisi ile inşa etmeleri için bir sonraki nesli eğitmeliyiz.
  • Kamusal Alan İçin Çeviri Yapın: Bu derin teolojik netliği akademik dergilerin kapıları arkasında kilitli tutmayın. Kamu, anlam oluşturma konusunda aç. Seküler gazeteler için köşe yazıları yazın. Substack bültenleri başlatın. Popüler podcast'lerde yer alın. Medya, "bilinçli" bir yapay zeka hakkında sansasyonel bir başlık yayınladığında, Katolik akademisyenlerin hemen kamu alanında karşı durması gerekiyor.
  • Parish ve Okulları Donatın: Sandalyede oturan ortalama kişi, bu araçlar hakkında derin bir kültürel kaygı yaşıyor. Ebeveynler, rahipler ve lise öğretmenleri için son derece erişilebilir çerçeveler oluşturacak akademisyenlere ihtiyacımız var. Çocuklara, yapay zekayı bir referans aracı - dijital bir ansiklopedi - olarak nasıl ele alacaklarını erken yaşta öğretmeliyiz; bir arkadaş, bir ajan veya ahlaki bir otorite olarak değil.
  • Disiplinlerarası Forumlar Düzenleyin: Angelicum gibi kurumların toplama gücünü kullanarak gerçek yapay zeka inşaatçılarını ahlaki teologlarla bir araya getirin. Dil çarpışmasının yüz yüze gerçekleşmesini zorlayın.

Bu, eylem için son çağrımız olsun.

Seküler dünyanın 'bilinçli' makinelerle ilgili kıyamet korkusu, dikkat için bir sebep değil; aksine, sizin entelektüel liderliğiniz için çaresiz bir çığlıktır. Yapay zeka inşaatçılarının gerçek dilini anlayarak, Kilise cesurca kamu alanına adım atabilir. Kamu tartışmasını insan olmanın ne anlama geldiğine dair sarsılmaz gerçeklikte sabitleyebilirsiniz. Ve yapay zekanın gerçek insan gelişimine yönlendirilmesini sağlayabilirsiniz.

Bu netlikle donanmış olarak, yanılsamayı kırabilirsiniz. İnsanlığın heykeltıraş olmaya devam etmesini ve makinenin chisel olarak kalmasını, her zaman Tanrı'nın yüceliğine yönelik bir düzen içinde olmasını sağlayabilirsiniz.

Teşekkür ederim.