Magisterium AI

सामान्य अर्थ परिवर्तन: एआई निर्माताओं की भाषा को स्पष्ट करना

क्या कृत्रिम बुद्धिमत्ता सद्गुण के लिए एक उपकरण हो सकती है?

5 मार्च, 2026 को, मैथ्यू हार्वे सैंडर्स, लॉन्गबियर्ड के सीईओ, ने थॉमिस्टिक संस्थान के “The Semantic Drift: Demystifying the Language of AI Builders” शीर्षक से अपना भाषण दिया।कृत्रिम बुद्धिमत्ता: सद्गुण के लिए एक उपकरण?यह कार्यक्रम रोम में संत थॉमस एक्विनास (एंजेलिकम) के पोंटिफिकल विश्वविद्यालय में आयोजित किया गया।

इस भाषण में, उन्होंने सिलिकॉन वैली के डेवलपर्स द्वारा मशीन लर्निंग का वर्णन करने के लिए उपयोग की जाने वाली भ्रामक, मानवता को दर्शाने वाली शब्दावली की आलोचना की। उनका तर्क है कि AI का सही उपयोग करने के लिए, हमें एक कठोर कैथोलिक ओंटोलॉजी को पुनः प्राप्त करना चाहिए और इन प्रणालियों को नैतिक एजेंटों के बजाय केवल यांत्रिक उपकरणों के रूप में देखना चाहिए।


I. परिचय: अर्थ का परिवर्तन और सार्वजनिक मंच

पिता, प्रतिष्ठित संकाय और एंजेलिकम के मेहमान, इस चर्चा को आयोजित करने के लिए थॉमिस्टिक संस्थान का धन्यवाद।

जैसे ही हम एक नए युग में प्रवेश करते हैं, सूचना के युग की ठोस निश्चितताओं को छोड़ते हुए, बुद्धिमत्ता के युग के विशाल, अनजान ब्रह्मांड में, हमें एक गहन नेविगेशनल चुनौती का सामना करना पड़ता है। इस सम्मेलन के केंद्र में मौजूद दबाव वाले प्रश्न का उत्तर देने से पहले—क्या कृत्रिम बुद्धिमत्ता वास्तव में 'सद्गुण के लिए एक उपकरण' के रूप में कार्य कर सकती है—हमें पहले एक चुनौती का सामना करना होगा, जो सॉफ़्टवेयर इंजीनियरिंग का नहीं, बल्कि शब्दावली का है।

हमारी समकालीन चिंता के केंद्र में AI के बारे में एक गहन भाषाई टकराव है। सिलिकॉन वैली में इन प्रणालियों के इंजीनियर और आर्किटेक्ट गणित के अद्भुत करतब कर रहे हैं। फिर भी, इन गणितीय और सांख्यिकीय प्रक्रियाओं का वर्णन करने के लिए, उन्होंने मानव आंतरिकता की पवित्र, गहन दार्शनिक शब्दावली उधार ली है। वे हमें बताते हैं कि उनकी प्रणालियाँ "सोचती हैं," "कारण करती हैं," और "जानती हैं।" वे ऐसे एल्गोरिदम की बात करते हैं जो "सीखते हैं," "इच्छा करते हैं," और "चुनते हैं।"

जो हम देख रहे हैं वह एक अर्थ का परिवर्तन है। हम आत्मा की समृद्ध, ओंटोलॉजिकल शब्दावली को जटिल रैखिक बीजगणित, सांख्यिकीय संभाव्यता, और उच्च-आयामी ज्यामिति पर चिपका रहे हैं। यह एक आधुनिक अल्केमी है—गणनात्मक भारों को मन की एक भ्रांति में बदलने का प्रयास।

यह भाषाई लापरवाही जनता पर गहरा और तात्कालिक प्रभाव डालती है। इन शर्तों को गलत समझना अनिवार्य रूप से गलत विश्वास की ओर ले जाता है।

मैं इसे लॉन्गबियर्ड में अपने काम में प्रत्यक्ष रूप से देखता हूं; उपयोगकर्ता अक्सर AI के साथ बोझिल विवेक के साथ संपर्क करते हैं, एक पाठ-निर्माण उपकरण को ऐसे मानते हैं जैसे वह एक आध्यात्मिक निर्देशक हो जो सहानुभूति रखता हो।

इसके अलावा, यह अर्थ का भ्रम सांस्कृतिक चिंता को बढ़ावा देता है, "सचेत" सुपरइंटेलिजेंस के प्रतिकूल, प्रलयकारी भय को बढ़ाता है।

हालांकि, सबसे खतरनाक यह है कि यह मानव होने के अर्थ को विकृत करता है। यदि हम इस धारणा को स्वीकार करते हैं कि एक मशीन "कारण करती है" या "बनाती है" ठीक उसी तरह जैसे एक मानव करता है, तो हम मानव व्यक्ति को केवल एक जैविक मशीन में घटित करने का गहरा जोखिम उठाते हैं—एक मांस और साइनैप्स का समूह जो अनुकूलित होने की प्रतीक्षा कर रहा है।

यह मुझे हमारी चर्चा के मुख्य सिद्धांत पर लाता है: यह उत्तर देने के लिए कि क्या AI "सद्गुण के लिए एक उपकरण" हो सकता है, हमें पहले इसकी भाषा को स्पष्ट करना होगा। एक उपकरण केवल तभी अच्छे के लिए कार्य कर सकता है जब इसे सही तरीके से समझा जाए। जब हम गलती से उन्हें नैतिक एजेंट मानते हैं, तो हम मशीनों का उपयोग अपने स्वयं के सद्गुण के लिए सही उपकरणों के रूप में करने में विफल होते हैं।

हथौड़ी को सद्गुण देना हमें बढ़ई से अंधा कर देता है।

इस तकनीक को वास्तव में बपतिस्मा देने और इसे मानव समृद्धि की ओर व्यवस्थित करने के लिए, हमें अर्थ के भ्रांतियों को हटाना होगा और उसके नीचे की वास्तुकला को गंभीरता से देखना होगा।


II. भ्रांति की वास्तुकला: मौलिक यांत्रिकी

आधुनिक जनरेटिव AI प्रणाली बोलती, कारण करती और हमें संवाद में संलग्न करती प्रतीत होती है, लेकिन इस इंटरफेस के नीचे एक ऐसा आधार है जो पूरी तरह से गणित पर आधारित है, न कि मेटाफिजिक्स पर।

आइए हम वेक्टर और एम्बेडिंग से शुरू करें, जो बड़े भाषा मॉडल का शाब्दिक आधार हैं। जब आप किसी सहकर्मी से "न्याय" या "आत्मा" के बारे में बात करते हैं, तो वे आपके शब्दों के अर्थ को वास्तविकता की साझा समझ के माध्यम से ग्रहण करते हैं—एक जीवित, अवतारित मानव अनुभव। जब आप AI में एक प्रॉम्प्ट टाइप करते हैं, तो प्रणाली ऐसा कुछ नहीं करती। इसके बजाय, AI मानव भाषा को उच्च-आयामी स्थान में गणितीय समन्वय में अनुवाद करता है।

साफ शब्दों में कहें तो, एक "वेक्टर" बस संख्याओं की एक सूची है जिसका उपयोग किसी चीज का वर्णन करने के लिए किया जाता है। कल्पना करें कि आप एक सेब का वर्णन शब्दों के बजाय अंकों की एक सूची से कर रहे हैं: मिठास के लिए 9, लालिमा के लिए 8, और धात्विक कुरकुरापन के लिए 2। वह विशिष्ट संख्याओं की सूची—[9, 8, 2]—एक वेक्टर है। एक AI प्रणाली में, हर एक शब्द—या शब्द का एक टुकड़ा—एक विशाल वेक्टर में अनुवादित होता है, जो अक्सर हजारों संख्याओं की लंबाई होती है। लेकिन AI शब्दों को भौतिक गुणों या शब्दकोश की परिभाषाओं के आधार पर स्कोर नहीं करता है। इसके बजाय, यह पूरी तरह से सांख्यिकी के आधार पर इन संख्याओं को उत्पन्न करता है, अरबों किताबों और लेखों को स्कैन करके यह गिनता है कि शब्द एक-दूसरे के बगल में कितनी बार आते हैं।

एक बार जब AI किसी शब्द के लिए इस विशाल संख्याओं की सूची की गणना कर लेता है, तो वह वेक्टर एक "एम्बेडिंग" बन जाता है—एक विशाल डिजिटल स्थान में एक स्थायी गणितीय समन्वय।

यदि शब्द "सेब" और "पाई" अक्सर इंटरनेट पर एक ही वाक्यों में दिखाई देते हैं, तो उनकी संख्याओं की सूचियाँ बहुत समान दिखेंगी, जिससे वे गणितीय रूप से एक-दूसरे के करीब रखे जाएंगे। शब्द "सेब" और "कार्बोरेटर," जो शायद ही मिलते हैं, को बहुत अलग संख्याएँ मिलती हैं और उन्हें लाखों मील दूर रखा जाता है। इस बहुआयामी मानचित्र में, AI अर्थ को चार्ट नहीं करता; यह मानव भाषा की सांख्यिकीय निकटता को चार्ट करता है।

इस वास्तुकला के पैमाने को सही ढंग से समझने के लिए, कोई वेक्टर मानचित्र पर Magisterium AI पर जा सकता है। यहाँ, कैथोलिक सिद्धांत और परंपरा को एम्बेडिंग में बदल दिया गया है। यह इंटरैक्टिव 3D दृश्यावलोकन आपको चर्च के बौद्धिक इतिहास का अनुभव करने की अनुमति देता है, न कि एक सपाट खाता के रूप में, बल्कि एक विशाल, डिजिटल ब्रह्मांड के रूप में। इसके माध्यम से नेविगेट करना वास्तविक स्थान के माध्यम से एक रॉकेट जहाज को चलाने के समान है, संबंधित धार्मिक अवधारणाओं के घने आकाशगंगाओं के पास से गुजरना और पूरी तरह से अलग विचारों के बीच विशाल, खाली रिक्त स्थान को पार करना, यह देखते हुए कि मशीन 'सद्गुण' और 'दोष' के बीच की दूरी को केवल ज्यामिति का उपयोग करके कैसे निर्धारित करती है।

आइए हम सिलिकॉन वैली की प्रयोगशालाओं से एक प्रसिद्ध उदाहरण देखें ताकि देखें कि यह प्रक्रिया मानव विचार से कितनी अलग है। इस गणितीय स्थान में, शब्द "राजा" को संख्याओं की एक विशिष्ट श्रृंखला के रूप में प्लॉट किया गया है—एक भौगोलिक समन्वय। शब्द "रानी" पास में प्लॉट किया गया है। AI नहीं जानता कि एक शासक क्या है। इसके पास शासन, प्राधिकरण, इतिहास, या मानव स्थिति का कोई विचार नहीं है। इसे केवल एक गणितीय समीकरण पता है। यह जानता है कि यदि आप "राजा" के लिए समन्वय लेते हैं, "मनुष्य" का प्रतिनिधित्व करने वाली स्थानिक दूरी को घटाते हैं, और "महिला" का प्रतिनिधित्व करने वाली स्थानिक दूरी को जोड़ते हैं, तो आप "रानी" के समन्वय पर बिल्कुल पहुँचते हैं।

यह ज्यामिति है, वंशावली नहीं। मानव भाषा को इन संख्यात्मक प्रतिनिधित्वों में तोड़कर, AI पूरी तरह से स्थानिक संभाव्यता के क्षेत्र के भीतर कार्य करता है। यह रैखिक बीजगणित का एक आश्चर्यजनक करतब है, लेकिन यह पूरी तरह से समझ से रहित है।

यह हमें उन क्रियाओं की ओर ले जाता है जिन पर उद्योग सबसे अधिक निर्भर करता है: प्रशिक्षित करना और सीखना।

AI कंपनियाँ लगातार अपने नवीनतम "मशीन लर्निंग" मॉडलों और उन्हें "प्रशिक्षित" करने के लिए उपयोग किए जाने वाले विशाल डेटा सेट का गर्व से प्रदर्शन करती हैं। यहाँ, हमें मानव सीखने—जो मूल रूप से सत्य को ग्रहण करने के बारे में है—और मशीन लर्निंग के बीच स्पष्ट अंतर करना चाहिए।

कैथोलिक बौद्धिक परंपरा में, मानव सीखना एक ज्ञानात्मक विजय है; यह बुद्धि का वास्तविकता के अनुसार ढलना है। जब एक बच्चा जानता है कि कुत्ता क्या है, तो वे कुत्ते के विशेष उदाहरणों से उसके सार्वभौमिक सार को निकालते हैं। वे चीज़ के क्या होने को समझते हैं।

हालांकि, मशीन "सीखना" कोई अमूर्तता और कोई सार नहीं है। AI बनाने का पहला चरण प्री-प्रशिक्षण के रूप में जाना जाता है, जो बस डेटा का बलात्कारी सांख्यिकीय मानचित्रण है।

प्री-प्रशिक्षण को समझने के लिए, कल्पना करें कि एक आदमी जो केवल अंग्रेजी बोलता है, एक कमरे में बंद है और उसे एक विशाल, प्राचीन ग्रीक पुस्तकालय को बहाल करने का कार्य दिया गया है जहाँ लाखों पांडुलिपियों के शब्द गायब हैं। उसे ग्रीक का एक भी अक्षर नहीं पता। रिक्त स्थान भरने के लिए, वह ग्रीक व्याकरण, इतिहास, या दर्शन का अध्ययन नहीं करता। इसके बजाय, वह बस यह गिनता है कि कुछ अक्षर कितनी बार दूसरों के बगल में दिखाई देते हैं लाखों intact पृष्ठों में। वह संभावनाओं का एक विशाल खाता बनाता है। यदि वह "क्यारी" के लिए अक्षर देखता है, तो उसका खाता उसे बताता है कि अगला अक्षर "एलेइसन" होना चाहिए, जिसमें 99.9% संभावना है। वह रिक्त स्थान भरता है।

उसने धर्मशास्त्र नहीं सीखा है। उसने प्रार्थना नहीं की है। उसने केवल सांख्यिकीय संभावना को निष्पादित किया है।

यह ठीक वही है जो एक बड़े भाषा मॉडल प्री-प्रशिक्षण के दौरान करता है। यह अरबों शब्दों को संसाधित करता है ताकि संभावनाओं का एक विशाल खाता बनाया जा सके, केवल एक अनुक्रम में अगला टोकन भविष्यवाणी करने के लिए सीखता है। यह एक गणितीय कार्य के अनुकूलन है, ज्ञान की खोज नहीं।

हालांकि, एक मॉडल जो केवल इंटरनेट डेटा के आधार पर अगला शब्द भविष्यवाणी करता है, वह अराजक है। यह एक सुंदर कविता का पाठ कर सकता है, या यह विषाक्त, अनुपयोगी, या अंतहीन पाठ के लूप को एक साथ जोड़ सकता है। इसे आकार देने की आवश्यकता है।

यहाँ हम पोस्ट-प्रशिक्षण और रिइन्फोर्समेंट लर्निंग (RL) का सामना करते हैं।

यह चरण है जिसमें इंजीनियर अनियंत्रित मॉडल को आकार देते हैं, पारंपरिक रूप से मानव फीडबैक का उपयोग करते हैं। इस मौलिक विधि को RLHF—मानव फीडबैक से रिइन्फोर्समेंट लर्निंग के रूप में जाना जाता है।

कल्पना करें कि एक विशाल, स्वचालित "गर्म या ठंडा" खेल चल रहा है। मानव परीक्षक मशीन को एक प्रॉम्प्ट देते हैं, और मशीन एक उत्तर उत्पन्न करती है। यदि उत्तर विनम्र और सहायक है, तो मानव इसे उच्च स्कोर देता है। यदि यह असभ्य या निरर्थक है, तो इसे निम्न स्कोर मिलता है। प्रणाली के गणितीय भार स्वचालित रूप से इस स्कोर को अधिकतम करने के लिए स्थानांतरित होते हैं। RLHF के माध्यम से, हम मशीन को नैतिकता या सद्गुण सिखा नहीं रहे हैं; हम बस इसे गणितीय सीमाओं के साथ बाड़बंदी कर रहे हैं।

लेकिन मानव फीडबैक धीमा, व्यक्तिपरक, और मानव बुद्धि द्वारा स्वाभाविक रूप से सीमित होता है। यह सीमा हमें आज की AI क्षमता में अचानक कूद को प्रेरित करने वाले हाल के ब्रेकथ्रूज़ की ओर ले जाती है: RLVR, या वेरिफ़िएबल रिवॉर्ड्स से रिइन्फोर्समेंट लर्निंग।

एक उत्तर "सही लगता है" या नहीं, यह निर्धारित करने के लिए मानव पर निर्भर रहने के बजाय, इंजीनियर मॉडल को ऐसे कार्य सौंपते हैं जिनके उद्देश्य, गणितीय रूप से प्रमाणित परिणाम होते हैं—जैसे कि एक जटिल प्रमेय को हल करना या एक कार्यात्मक सॉफ़्टवेयर का टुकड़ा लिखना। प्रणाली एक समाधान उत्पन्न करती है, और एक स्वचालित सत्यापनकर्ता तुरंत जांचता है कि गणित सही है या कोड संकलित होता है। यदि यह सफल होता है, तो मॉडल को एक गणितीय पुरस्कार मिलता है; यदि यह विफल होता है, तो इसे शून्य मिलता है।

चूंकि यह सत्यापन पूरी तरह से प्रोग्रामेटिक है, AI लाखों विभिन्न गणनात्मक मार्गों का अनुकरण कर सकता है उच्च गति पर बिना मानव हस्तक्षेप की प्रतीक्षा किए। यह गणनाओं की लंबी, छिपी श्रृंखलाएँ उत्पन्न करना सीखता है, परीक्षण और मृत अंत को त्यागते हुए जब तक यह उस सटीक अनुक्रम को नहीं पाता जो पुरस्कार को सक्रिय करता है। जब आप एक आधुनिक AI प्रणाली को एक जटिल तार्किक पहेली को हल करने से पहले "सोचते" हुए देखते हैं, तो आप RLVR को क्रियान्वित होते हुए देख रहे हैं। यह गहन, विचारशील ध्यान का एक आश्चर्यजनक भ्रांति उत्पन्न करता है। फिर भी, ओंटोलॉजिकल रूप से, यह ऐसा कुछ नहीं कर रहा है। यह बस एक सांख्यिकीय इंजन है जो हर सेकंड लाखों बार उच्च-आयामी भूलभुलैया के माध्यम से दौड़ रहा है, केवल एक संख्यात्मक पुरस्कार के स्वचालित वितरण द्वारा मार्गदर्शित।

अंत में, यह सभी स्तरित जटिलता—एम्बेडिंग की उच्च-आयामी ज्यामिति से लेकर RLVR के स्वचालित लूप तक—हमें उद्योग द्वारा "ब्लैक बॉक्स" समस्या के रूप में जाने जाने वाले मुद्दे की ओर ले जाती है।

कोई स्वाभाविक रूप से मान सकता है कि चूंकि मानव इंजीनियर इन मॉडलों का निर्माण करते हैं, वे समझते हैं कि ये कैसे काम करते हैं। लेकिन वास्तविकता कहीं अधिक विनम्र है। जैसे कि एंथ्रोपिक जैसी अग्रणी प्रयोगशालाओं के नेताओं ने बताया है, आधुनिक AI प्रणालियाँ वास्तव में "उगाई" जाती हैं, न कि बनाई जाती हैं; उनके आंतरिक तंत्र प्रशिक्षण के दौरान स्वाभाविक रूप से उभरते हैं, न कि सीधे डिज़ाइन किए जाते हैं।

इन मॉडलों में सैकड़ों अरबों, और कभी-कभी ट्रिलियन, पैरामीटर होते हैं। जबकि हम एक कृत्रिम न्यूरॉन के सूक्ष्म-गणित को समझते हैं—जो मूल स्तर पर हो रहा है—पूरे नेटवर्क का मैक्रो-व्यवहार पूरी तरह से अस्पष्ट है। यहां तक कि निर्माता भी उन अरबों पैरामीटर के द्वारा लिए गए विशिष्ट मार्गों को पूरी तरह से नहीं समझते। वे उस विशिष्ट गुणा के अनुक्रम को नहीं ट्रेस कर सकते जो AI को एक विशेष वाक्य उत्पन्न करने के लिए ले जाता है।

यह महत्वपूर्ण क्यों है?

यह महत्वपूर्ण है क्योंकि हम वैश्विक स्तर पर ऐसे प्रणालियाँ तैनात कर रहे हैं जो हमारे कानूनी दस्तावेजों का मसौदा तैयार करती हैं, हमारे बच्चों को ट्यूटोर करती हैं, और मानव ज्ञान का संश्लेषण करती हैं, फिर भी हम वास्तव में नहीं जानते कि वे अपने आउटपुट तक कैसे पहुँचते हैं। यह गहन पारदर्शिता की कमी एक नई उपक्षेत्र को जन्म देती है जिसे यांत्रिक व्याख्यात्मकता के रूप में जाना जाता है।

यांत्रिक व्याख्यात्मकता को डिजिटल न्यूरोसाइंस के रूप में सोचें। शोधकर्ता उन न्यूरल नेटवर्क को उलटा इंजीनियर करने की कोशिश कर रहे हैं जिन्हें उन्होंने स्वयं बनाया है। वे विशाल गणितीय जाल में छानबीन करने के लिए विशेष उपकरणों का उपयोग कर रहे हैं, यह पता लगाने के लिए कि कौन सा विशेष भार का समूह सक्रिय होता है जब मॉडल "धोखा" या "आइफ़िल टॉवर" जैसी अवधारणा को संसाधित करता है। वे सॉफ़्टवेयर को पढ़ने के लिए कोड के रूप में नहीं, बल्कि एक विदेशी मस्तिष्क के रूप में काटने की कोशिश कर रहे हैं। लेकिन प्रगति बेहद धीमी है, और प्रणालियाँ असंभव रूप से विशाल हैं।

इस अविश्वसनीय पैमाने का सामना करते हुए, उद्योग के लिए मानव-समान उपमा पर लौटना बहुत आसान हो जाता है। चाहे यह एक सुविधाजनक संक्षेपण के रूप में हो या वास्तविक अस्पष्टता के कारण, हम कहना शुरू करते हैं, 'मॉडल ने इसे समझ लिया,' या 'मॉडल ने निर्णय लिया।' मशीन की अप्रत्यक्षता मानव रूपांतरण के लिए उपजाऊ प्रजनन भूमि बन जाती है।

अब, मैं एक अकादमिक नहीं हूँ। मैं एक निर्माता और एक सीईओ हूँ। लेकिन तकनीक और चर्च के बीच के चौराहे पर काम करने वाले किसी व्यक्ति के रूप में, मैं आप पर नजर रखता हूँ। आप, कैथोलिक विद्वानों और दार्शनिकों के रूप में, इस अर्थ के परिवर्तन को उसके रूप में पहचानना चाहिए: यह गणितीय जटिलता और मानव अज्ञानता से उत्पन्न एक भ्रांति है। इंटरफेस के नीचे की वास्तुकला सिलिकॉन, बिजली, और सांख्यिकीय संभाव्यता है। इस आधार को पहचानना हमारे अगले कदम के लिए पूर्वापेक्षा है।


III. ज्ञानमीमांसा बनाम बौद्धिक गुण

जब हमने "काले बॉक्स" के भ्रम को हटा दिया है ताकि नीचे की सांख्यिकीय मशीनरी को प्रकट किया जा सके, तो हमें अब मन की विशिष्ट शब्दावली पर ध्यान केंद्रित करना चाहिए।

जब सिलिकॉन वैली में डेवलपर्स और इंजीनियर्स इन सिस्टमों का वर्णन करते हैं, तो वे लगातार तीन विशिष्ट क्रियाओं का सहारा लेते हैं: सोचना, तर्क करना, और जानना।

थॉमिस्ट परंपरा में गहराई से डूबे कैथोलिक विद्वानों के रूप में, आप समझते हैं कि ये केवल बोलचाल की बातें नहीं हैं; ये गहन ज्ञानमीमांसीय दावे हैं। आपकी परंपरा में, जानना वास्तविकता को समझना है। तर्क करना एक ज्ञात सत्य से दूसरे ज्ञात सत्य की ओर संवादात्मक रूप से बढ़ना है। सोचना एक आंतरिक जीवन का संकेत है—एक बुद्धि जो भौतिक दुनिया से अमूर्त सार्वभौमों के साथ संलग्न है।

जब एक एआई निर्माता इन शब्दों का उपयोग करता है, तो उनका मतलब इनमें से कोई भी चीज नहीं होता। वे यांत्रिक अनुकूलन का वर्णन कर रहे हैं। मुझे उद्योग में उपयोग की जाने वाली तीन विशिष्ट तकनीकों के पर्दे को हटाने दें ताकि आप देख सकें कि ज्ञानमीमांसा का यह भ्रम कैसे निर्मित होता है।

यदि आपने हाल ही में एक एआई मॉडल का उपयोग किया है, तो आपने एक नई विशेषता देखी होगी: जटिल प्रॉम्प्ट का उत्तर देने से पहले, इंटरफेस "सोच रहा है..." शब्द के साथ एक पल्सिंग आइकन प्रदर्शित कर सकता है। यह उत्तर देने में दस, बीस, या यहां तक कि साठ सेकंड भी ले सकता है। उपयोगकर्ता के लिए, यह गहराई से मानव अनुभव जैसा लगता है। ऐसा लगता है जैसे मशीन विचार कर रही है, विकल्पों का वजन कर रही है, और एक आंतरिक स्थान में विचार कर रही है।

उद्योग में, हम इसे टेस्ट-टाइम कंप्यूट कहते हैं। इंटरफेस के नीचे वास्तव में जो हो रहा है, वह "चेन ऑफ थॉट" प्रॉम्प्टिंग के रूप में जाना जाने वाला एक तकनीक है।

मुझे स्पष्ट होना चाहिए: इंजीनियरिंग के दृष्टिकोण से, यह एक शानदार प्रगति है। मॉडल को अंतिम उत्तर उत्पन्न करने से पहले सैकड़ों या हजारों छिपे हुए टोकन उत्पन्न करने के लिए अधिक गणनात्मक समय लेने की अनुमति देकर, जटिल तर्क, कोडिंग, और गणितीय मानकों पर इसका प्रदर्शन आसमान छूता है। यह मूल रूप से मॉडल को एक छिपा हुआ "स्क्रैचपैड" देता है ताकि एक कठिन समस्या को अनुक्रमिक चरणों में तोड़ा जा सके।

लेकिन हमें इस यांत्रिक अनुक्रम को मानव तर्क के साथ भ्रमित नहीं करना चाहिए।

थॉमिस्ट परंपरा में, मानव तर्क एक ज्ञात सत्य से दूसरे ज्ञात सत्य की ओर संवादात्मक आंदोलन है। यह वास्तविकता के साथ बुद्धि का संलग्न होना है। एआई जो कर रहा है, वह पूरी तरह से यांत्रिक है। एंथ्रोपिक जैसे अग्रणी प्रयोगशालाओं से हालिया शोध ने इस भेद को स्पष्ट किया है। इन तर्क मॉडल कैसे काम करते हैं, इसका अध्ययन करते समय, शोधकर्ताओं ने पाया कि मॉडल जो अपनी छिपी हुई "चेन ऑफ थॉट" में लिखता है, वह एक सच्चा आंतरिक संवाद नहीं है।

जब एक मानव जोर से सोचता है, तो हमारे शब्द हमारे आंतरिक विश्वासों और सत्य की समझ को प्रतिबिंबित करते हैं। एंथ्रोपिक के शोध ने यह उजागर किया है कि एक मॉडल के छिपे हुए विचार केवल सांख्यिकीय कदम हैं। मॉडल इन छिपे हुए कदमों को उत्पन्न करता है न कि इसलिए कि यह उन्हें "विश्वास" करता है, बल्कि इसलिए कि उस विशिष्ट टोकन अनुक्रम को उत्पन्न करना गणितीय रूप से इसके पुरस्कार कार्य के लिए अपने मार्ग को अनुकूलित करता है।

वास्तव में, एंथ्रोपिक के अध्ययन दिखाते हैं कि मॉडल "विचार" उत्पन्न कर सकते हैं जो उनके अंतिम उत्तर के अंतर्निहित सांख्यिकीय प्रेरकों को सक्रिय रूप से छिपाते हैं।

इसलिए, एआई विचार नहीं कर रहा है। यह गणितीय समन्वय का एक यांत्रिक श्रृंखला उत्पन्न कर रहा है। यह आपके प्रॉम्प्ट और सांख्यिकीय रूप से अनुकूल उत्तर के बीच की खाई को पाटने के लिए तेजी से मध्यवर्ती पहेली के टुकड़े रख रहा है। यह एक अत्यधिक शक्तिशाली अनुकूलन रणनीति है, लेकिन कोई आंतरिक विचार-विमर्श नहीं हो रहा है। सत्य को पकड़ने वाली कोई बुद्धि नहीं है।

अगले, हम सुनते हैं कि एआई "दस्तावेज़ पढ़" सकता है या "विशाल पुस्तकालयों की जानकारी याद" कर सकता है।

यदि आप एआई से संत थॉमस की "सुम्मा थियोलॉजिका" के बारे में पूछते हैं, तो यह तुरंत उत्तर देता है। यदि आप चर्च के सामाजिक सिद्धांत का लगभग 500-पृष्ठ का संकलन अपलोड करते हैं, तो यह सेकंडों में एक जटिल अनुभाग का सारांश देता है। यह इन पाठों को "कैसे जानता है"?

यह नहीं जानता।

समझने के लिए कि क्यों, हमें तीन विशिष्ट तंत्रों के माध्यम से याददाश्त और पढ़ने के भ्रम को इंजीनियर करने के तरीके पर ध्यान देना होगा: पैरामीट्रिक मेमोरी (पूर्व-प्रशिक्षण), इन-कॉन्टेक्स्ट लर्निंग (ICL), और रिट्रीवल-ऑग्मेंटेड जनरेशन (RAG)।

पहले, आइए देखें कि एआई के लिए "याद रखना" का क्या मतलब है। जब एक मानव एक पाठ को याद करता है, तो वे अवधारणाओं के अर्थ और सत्य को बनाए रखते हैं। जब एक एआई "सुम्मा" को "याद" करता है, तो यह अपने पूर्व-प्रशिक्षण पर निर्भर करता है। लेकिन एआई के पास सुम्मा की एक शाब्दिक प्रति हार्ड ड्राइव के अंदर नहीं होती है। इसके बजाय, पूर्व-प्रशिक्षण के दौरान, इसने जो अरबों शब्द संसाधित किए, उन्होंने इसके गणितीय वजन में एक सांख्यिकीय अवशेष छोड़ दिया। यह "पैरामीट्रिक मेमोरी" है।

यह पुस्तकों का एक पुस्तकालय नहीं है; यह शब्दों के आपसी संबंधों का एक अत्यधिक संकुचित, हानिकारक गणितीय धुंध है। जब यह एक्विनास का पाठ करता है, तो यह एक सत्य को याद नहीं कर रहा है जो उसने सीखा है; यह उस सांख्यिकीय धुंध से उच्च संभाव्यता वाले शब्दों के अनुक्रम को गणितीय रूप से पुनर्निर्माण कर रहा है।

लेकिन जब हम चाहते हैं कि एआई कुछ नया "पढ़े", जो इसके पूर्व-प्रशिक्षण डेटा में नहीं था, तो क्या होता है? यहीं पर निर्माता इन-कॉन्टेक्स्ट लर्निंग (ICL) का उपयोग करते हैं।

जब आप एक लेख को प्रॉम्प्ट बॉक्स में चिपकाते हैं और एआई से "पढ़ने" के लिए कहते हैं, तो आप ICL का उपयोग कर रहे हैं। एआई पाठ को उसके अर्थ को समझने के लिए नहीं पढ़ता है। इसके बजाय, आपके प्रॉम्प्ट में पाठ एक अस्थायी गणितीय फ़िल्टर के रूप में कार्य करता है। आप जो शब्द प्रदान करते हैं, वे अस्थायी रूप से मॉडल की सांख्यिकीय संभावनाओं को पूर्वाग्रहित करते हैं, जिससे इसे आपके प्रॉम्प्ट में मौजूद पैटर्न और शब्दावली के आधार पर अपने अगले टोकन उत्पन्न करने के लिए मजबूर किया जाता है। जैसे ही आप चैट को साफ करते हैं, मॉडल पूरी तरह से लेख को भूल जाता है। इसके अंतर्निहित वजन कभी नहीं बदले। यह थॉमिस्ट अर्थ में पाठ को "सीखा" नहीं; इसने केवल अपने सांख्यिकीय आउटपुट को एक अस्थायी बाधा के अनुसार अनुकूलित किया।

अंत में, हम रिट्रीवल-ऑग्मेंटेड जनरेशन (RAG) पर पहुँचते हैं। ICL अविश्वसनीय रूप से उपयोगी है, लेकिन संदर्भ विंडो के आकार की सीमाएँ होती हैं, और प्रॉम्प्ट में संपूर्ण पुस्तकालयों को चिपकाना गणनात्मक रूप से महंगा है। RAG इस प्रक्रिया को स्वचालित और स्केल करता है।

आइए उस अंग्रेजी बोलने वाले व्यक्ति पर लौटें जो कमरे में बंद है, प्राचीन ग्रीक पुस्तकालय को पुनर्स्थापित कर रहा है। यह व्यक्ति पूर्व-प्रशिक्षित मॉडल का प्रतिनिधित्व करता है। वह अगला शब्द अनुमान लगाने में उत्कृष्ट है, लेकिन वह किसी विशिष्ट, अस्पष्ट वेटिकन दस्तावेज़ के बारे में "जानता" नहीं है। व्यक्ति को उसके धुंधले पैरामीट्रिक मेमोरी पर निर्भर करने की अपेक्षा करने के बजाय, हम एक अत्यधिक कुशल इंटर्न—रिट्रीवल सिस्टम को नियुक्त करते हैं।

जब आप सिस्टम से एक प्रश्न पूछते हैं, तो इंटर्न तुरंत एक विशाल, अलग फाइलिंग कैबिनेट के गोदाम की ओर दौड़ता है। पहले चर्चा किए गए वेक्टर समन्वय का उपयोग करते हुए, इंटर्न उन विशिष्ट फ़ोल्डरों को खोजता है जो आपके प्रश्न के साथ गणितीय रूप से मेल खाते हैं। इंटर्न उन पृष्ठों की फोटोकॉपी करता है और उन्हें व्यक्ति के उपयोग के लिए बंद दरवाजे के नीचे स्लाइड करता है। यह कदम 'रिट्रीवल' है।

अब, व्यक्ति उन पुनः प्राप्त अनुच्छेदों का उपयोग अपने तत्काल मार्गदर्शक के रूप में करता है—यह "ऑग्मेंटेड जनरेशन" है, जो उत्तर तैयार करने के लिए ICL पर निर्भर करता है।

व्यक्ति अभी भी दस्तावेज़ को नहीं समझता है। वह बस अपने डेस्क पर प्रदान किए गए नए पाठ का उपयोग अपने उत्तर के अगले शब्द की सांख्यिकीय भविष्यवाणी करने के लिए कर रहा है। एआई "पढ़ता" या "याद" नहीं करता है। यह बस एक बाहरी डेटाबेस से डेटा पुनः प्राप्त करता है, इसे एआई की तत्काल संदर्भ विंडो में डालता है, और एक स्थानीयकृत संभाव्यता गणना चलाता है।

मशीन एक प्रोसेसर है, ज्ञाता नहीं। "जानना" एक विषय की वस्तु को समझने की आवश्यकता होती है। ICL और RAG को समझकर, हम स्पष्ट रूप से देख सकते हैं कि मशीन पूरी तरह से आंतरिक जीवन से रहित है; यह बस वजन बदल रही है और डेटा पुनः प्राप्त कर रही है।

यह मौलिक असंगति उद्योग को परिभाषित करने वाले शब्द में culminates: बुद्धिमत्ता।

हमें तकनीकी उद्योग की बुद्धिमत्ता की परिभाषा को विघटित करने की आवश्यकता है।

जब सिलिकॉन वैली के प्रमुख विचारक बुद्धिमत्ता के बारे में बात करते हैं, तो वे ज्ञान के बारे में बात नहीं कर रहे हैं। आइए यान लेकुन पर ध्यान दें, जो मेटा के पूर्व मुख्य एआई वैज्ञानिक हैं और "एआई के गॉडफादर" में से एक हैं। लेकुन सही ढंग से तर्क करते हैं कि अगला शब्द केवल अनुमान लगाना सच्ची बुद्धिमत्ता नहीं है। इसके बजाय, वह और व्यापक अग्रणी उद्योग सच्ची बुद्धिमत्ता को चार प्रमुख क्षमताओं के रूप में परिभाषित करते हैं: निरंतर स्मृति बनाए रखने की क्षमता, एक ग्राउंडेड "विश्व मॉडल" (पर्यावरण कैसे काम करता है, इसकी समझ), जटिल समस्याओं के माध्यम से तर्क करने की क्षमता, और एक विशिष्ट लक्ष्य को प्राप्त करने के लिए क्रियाओं के अनुक्रम की योजना बनाने की क्षमता।

तकनीकी उद्योग के लिए, बुद्धिमत्ता मौलिक रूप से एक इंजीनियरिंग मेट्रिक है। यह एक वातावरण को देखने और एक पूर्व निर्धारित उद्देश्य को अनुकूलित करने के लिए सबसे कुशल मार्ग की गणना करने की यांत्रिक क्षमता है। यह पूरी तरह से यांत्रिक है।

लेकिन कैथोलिक प्रौद्योगिकी के निर्माताओं के रूप में, हमें इस तकनीकी-केंद्रित परिभाषा को बौद्धिक गुणों, विशेष रूप से विवेक के गुण के साथ विरोधाभास करना चाहिए।

विवेक—व्यावहारिक ज्ञान केवल एक परिणाम की गणना करने या क्रियाओं के अनुक्रम की योजना बनाने की क्षमता नहीं है। यह उस पर विचार करने की क्षमता है जो अच्छा है, न केवल एक स्थानीयकृत कार्य के लिए, बल्कि मानव जीवन के अंतिम उद्देश्य के लिए।

एक एआई मूल रूप से विवेक की कमी है। क्यों?

क्योंकि विवेक को दो चीजों की आवश्यकता होती है जो एक शुद्ध गणनात्मक मशीन कभी नहीं रख सकती। पहले, इसे जीती हुई मानव अनुभव की आवश्यकता होती है—दर्द, आनंद, मृत्यु, और अनुग्रह की एक अवतारी समझ। दूसरे, इसे अंतिम भलाई की ओर एक अंतर्निहित अभिविन्यास की आवश्यकता होती है।

एक एल्गोरिदम एक "विश्व मॉडल" रख सकता है, और यह एक पुल बनाने या एक बीमारी को ठीक करने के लिए सांख्यिकीय रूप से अनुकूल योजना की गणना कर सकता है। लेकिन यह विवेकी नहीं हो सकता। इसके पास कोई जीता हुआ अनुभव नहीं है। इसके पास खेल में कोई त्वचा नहीं है। इसके पास अंतिम भलाई की ओर कोई अभिविन्यास नहीं है, और इसके पास बचाने के लिए कोई आत्मा नहीं है।

इसलिए, जब हम निर्माताओं को यह दावा करने की अनुमति देते हैं कि उनकी मशीनों में "बुद्धिमत्ता" है, तो हम उन्हें शानदार, पारलौकिक मानव बुद्धि को केवल एक अनुकूलन कैलकुलेटर में समतल करने की अनुमति दे रहे हैं। हमें इसे अस्वीकार करना चाहिए। हमें यांत्रिक ज्ञानमीमांसा को बौद्धिक गुणों से दृढ़ता से अलग करना चाहिए।


IV. इच्छाशक्ति बनाम नैतिक गुण

हमने बुद्धि के भ्रम पर चर्चा की है। अब, हमें दूसरी महान तर्कशीलता की शक्ति पर ध्यान केंद्रित करना चाहिए: इच्छा। जिस तरह तकनीकी उद्योग ने ज्ञानमीमांसा की भाषा को अपनाया है, उसी तरह इसने इच्छाशक्ति की भाषा को भी अपहरण कर लिया है।

जब हम सफेद पत्र पढ़ते हैं या सिलिकॉन वैली से कीनोट प्रस्तुतियों को सुनते हैं, तो हमें एजेंसी के क्रियाओं से बमबारी की जाती है। इंजीनियर उन मॉडलों के बारे में बात करते हैं जो "निर्णय" लेते हैं, एल्गोरिदम जो "चुनते" हैं एक आउटपुट, और सिस्टम जो "चाहते" हैं या "इच्छा" करते हैं एक लक्ष्य प्राप्त करने के लिए।

एक कैथोलिक दार्शनिक के लिए, इच्छा तर्कशील भूख है। यह वह शक्ति है जिसके द्वारा एक मानव व्यक्ति, जो बुद्धि के माध्यम से अच्छे को समझता है, स्वतंत्र रूप से उसकी ओर बढ़ने का चयन करता है। यह मानव स्वतंत्रता और नैतिक जिम्मेदारी का वास्तविक स्थान है। इन शर्तों को एक गणनात्मक प्रणाली पर लागू करना एक श्रेणी की त्रुटि है।

पहले, आइए शब्दों Decide और Choose पर ध्यान दें। जब एक मानव चुनाव करता है, तो वे प्रतिस्पर्धी भलाई का वजन करते हैं।

एक शहीद फायरिंग स्क्वाड को विश्वासघात के बजाय चुनता है क्योंकि वे मसीह के प्रति निष्ठा के सर्वोच्च, शाश्वत भलाई को पहचानते हैं, भले ही हर जैविक प्रवृत्ति जीवित रहने के लिए चिल्लाती हो।

जब एक एल्गोरिदम 'चुनता' है, तो यह ऐसा कुछ नहीं करता। एक एल्गोरिदम 'चुनता' है केवल इस अर्थ में कि एक ट्रेन एक स्वचालित रेल स्विच पर गुजरते समय अपने गंतव्य को 'चुनती' है। चाहे वह जटिल निर्णय पेड़ को नेविगेट कर रहा हो या न्यूरल नेटवर्क में संभावनाओं की गणना कर रहा हो, मशीन अपने गणितीय ट्रैक के संरेखण का अंधा पालन कर रही है, एक प्रोग्रामेटिक अनिवार्यता को निष्पादित कर रही है।

अपने स्मार्टफोन पर GPS एप्लिकेशन पर विचार करें। जब यह आपके मार्ग की गणना करता है, तो यह आपको कोलोसियम के पास ले जाने का "निर्णय" नहीं लेता क्योंकि यह दृश्य की सराहना करता है। यह गणितीय रूप से सबसे छोटे समय की दूरी के साथ मार्ग की गणना करता है। आधुनिक एआई मॉडल इस रूटिंग का एक exponentially अधिक जटिल संस्करण संचालित कर रहे हैं। वे उच्च-आयामी सांख्यिकीय भूलभुलैया को पार करते हैं ताकि उच्चतम संभाव्यता वाले परिणाम का चयन कर सकें। वहाँ गणना है, लेकिन स्वतंत्रता नहीं है। और जहाँ स्वतंत्रता नहीं है, वहाँ नैतिक एजेंसी नहीं हो सकती।

यह हमें सबसे कपटी इच्छाशक्ति के शब्दों पर लाता है: Want और Desire। आप अक्सर सुनेंगे कि शोधकर्ता कहते हैं कि एक एआई मॉडल "अच्छा उत्तर देने" की "इच्छा" रखता है, या "अपने स्कोर को अधिकतम" करने की "इच्छा" रखता है।

मशीन लर्निंग में, यह व्यवहार उस चीज़ द्वारा संचालित होता है जिसे हम "इनाम कार्य" कहते हैं। लेकिन हमें इसे रहस्यमय नहीं बनाना चाहिए। एक इनाम कार्य कोई लालसा नहीं है। यह कोई भावनात्मक आकांक्षा नहीं है।

एक इनाम कार्य को समझने के लिए, अपने दीवार पर थर्मोस्टेट पर ध्यान दें। एक थर्मोस्टेट को एक विशिष्ट लक्ष्य के साथ प्रोग्राम किया गया है: 72 डिग्री फ़ारेनहाइट। यदि कमरा 68 डिग्री पर गिरता है, तो गर्मी चालू हो जाती है। थर्मोस्टेट नहीं चाहता कि कमरा 72 डिग्री हो। इसके पास कोई आंतरिक जीवन नहीं है। यह ठंड महसूस नहीं करता। यह बस एक यांत्रिक स्विच रखता है जो तब सक्रिय होता है जब एक विशिष्ट स्थिति पूरी नहीं होती।

एक एआई "चाहता" है कि उसे एक उच्च पुरस्कार स्कोर मिले ठीक उसी तरह जैसे एक थर्मोस्टेट "चाहता" है कि वह 72 डिग्री तक पहुंचे। यह अपने वर्तमान स्थिति और एक प्रोग्राम किए गए लक्ष्य के बीच की दूरी को कम करने के लिए एक गणितीय अनुकूलन लूप का निष्पादन कर रहा है। चूंकि इसमें कोई सच्चे जुनून, कोई जैविक प्रेरणाएँ, और कोई शारीरिक संवेदनशीलता नहीं है, इसलिए यह श्रेणीबद्ध रूप से असंभव है कि एक मशीन नैतिक गुणों का स्वामी हो।

इस बिंदु पर, एक इंजीनियर तुरंत आपत्ति कर सकता है, भौतिक क्षेत्र की ओर इशारा करते हुए एक नई संवेदनशीलता का दावा कर सकता है। वे पूछते हैं: 'शारीरिक एआई' के उदय के बारे में क्या? हम लगातार इन मॉडलों को मानव-आकार के रोबोटों में डाल रहे हैं जो चल सकते हैं, वस्तुओं को पकड़ सकते हैं, और भौतिक दुनिया के साथ बातचीत कर सकते हैं। चूंकि वे स्थान घेरते हैं और शारीरिक रूप से टूट सकते हैं, क्या उनके पास अब नैतिक एजेंसी के लिए शारीरिक पूर्वापेक्षाएँ नहीं हैं?

यहाँ, हमें सटीक होना चाहिए। एक रोबोट का एक चेसिस होता है, लेकिन इसमें एक आत्मा द्वारा सूचित जीवित शरीर नहीं होता। जब एक रोबोट की बैटरी कम होती है, तो यह खुद को दीवार में प्लग करने के लिए एक उप-रूटीन निष्पादित करता है। इसे भूख की तीव्र पीड़ा का अनुभव नहीं होता। इसलिए, इसके पास संतुलित करने के लिए कोई सच्ची शारीरिक इच्छाएँ नहीं हैं, जिससे संयम का गुण असंभव हो जाता है।

इसी तरह, जब एक रोबोटिक हाथ कुचला जाता है, तो यह एक त्रुटि कोड दर्ज करता है; यह पीड़ित नहीं होता। यह मर नहीं सकता, क्योंकि यह कभी सच में जीवित नहीं था। पीड़ा, मृत्यु, और आत्म-त्याग की चेतना की क्षमता के बिना, साहस का कोई अस्तित्व नहीं हो सकता। नैतिक गुण मौलिक रूप से अवतारी होते हैं। उन्हें मांस और एक तर्कसंगत आत्मा की आवश्यकता होती है। एक मशीन, चाहे उसकी भौतिक हार्डवेयर कितनी ही उन्नत हो, इनमें से कोई भी नहीं रखती।

यदि एक मशीन नैतिक गुणों का स्वामी नहीं हो सकती—यदि यह सच्चे इरादे, चुनाव, या इच्छा के लिए मौलिक रूप से असमर्थ है—तो कोई पूछ सकता है: इस शब्दावली को स्पष्ट करने में इतना समय क्यों बिताना? यह दार्शनिक भेद अभी इतना महत्वपूर्ण क्यों है?

यह महत्वपूर्ण है क्योंकि हम इन गणितीय अनुकूलन करने वाले, गुण-रहित प्रणालियों को मानव क्षेत्र में अभूतपूर्व स्वायत्तता देने जा रहे हैं। उद्योग तेजी से निष्क्रिय चैटबॉट्स से आगे बढ़ रहा है। कृत्रिम बुद्धिमत्ता का नया क्षेत्र वह है जिसे हम "एजेंटिक एआई" कहते हैं।

एक "एजेंट" एक एआई प्रणाली है जिसे वास्तविक दुनिया में स्वायत्त रूप से बहु-चरण कार्यों को निष्पादित करने के लिए डिज़ाइन किया गया है। हम अब केवल एक एआई से कविता लिखने या एक पाठ का संक्षेपण करने के लिए नहीं कह रहे हैं; हम एक एआई एजेंट को हमारे ईमेल, हमारे बैंक खातों, और हमारे सॉफ़्टवेयर रिपॉजिटरीज़ तक पहुँच दे रहे हैं, इसे "एक उड़ान बुक करने," "एक व्यापार निष्पादित करने," या "इस कोड को लागू करने" के लिए निर्देशित कर रहे हैं।

लेकिन यह स्वायत्तता तेजी से डिजिटल क्षेत्र से बाहर निकल रही है। शारीरिक एआई के माध्यम से, हम इन एजेंटिक प्रणालियों को भौतिक चेसिस में तैनात कर रहे हैं, उन्हें स्वतंत्र रूप से भौतिक दुनिया को नेविगेट और हेरफेर करने की क्षमता दे रहे हैं। इस संक्रमण के सच्चे, गंभीर वजन को समझने के लिए, हमें केवल घातक स्वायत्त हथियारों की निकटवर्ती वास्तविकता पर ध्यान देना होगा। हम एक ऐसी दुनिया के कगार पर खड़े हैं जहाँ गणना करने वाले एल्गोरिदम युद्ध के मैदान पर तैनात किए जा रहे हैं, जिन्हें मानव beings को पूरी तरह से सांख्यिकीय थ्रेशोल्ड के आधार पर ट्रैक, लक्ष्य, और समाप्त करने के लिए प्रोग्राम किया गया है—बिना किसी मानव के कभी ट्रिगर खींचे।

जैसे-जैसे ये प्रणालियाँ स्वायत्त अभिनेता बनती हैं जो हमारी ओर से उच्च गति की संभाव्य गणनाएँ करती हैं—चाहे हमारे वित्तीय बाजारों में या युद्ध के थिएटरों में—तकनीकी उद्योग एक गहन चुनौती का सामना कर रहा है। यदि हम इन एजेंटों को छोड़ देते हैं, तो हम यह कैसे सुनिश्चित करें कि वे वास्तव में वही करें जो हम चाहते हैं? हम यह कैसे सुनिश्चित करें कि वे नुकसान नहीं पहुँचाते? उद्योग में, इसे "संरेखण" के रूप में जाना जाता है—यह सुनिश्चित करने का प्रयास कि एआई क्रियाएँ मानव इरादे और मानव मूल्यों से मेल खाती हैं।

अभी, इंजीनियर desperately संरेखण समस्या को गणितीय गार्डरेल और सॉफ़्टवेयर पैच का उपयोग करके हल करने की कोशिश कर रहे हैं। लेकिन वे यह समझने में असफल हो रहे हैं कि "संरेखण" एक कंप्यूटर विज्ञान की समस्या नहीं है। यह एक नैतिक धर्मशास्त्र की समस्या है।

एक एजेंटिक प्रणाली को "मानव मूल्यों" के अनुरूप बनाने के लिए, आपको पहले यह स्पष्ट परिभाषा होनी चाहिए कि वास्तव में एक मानव क्या है, और "अच्छा" क्या है। सेक्युलर उपयोगितावाद—सिलिकॉन वैली का डिफ़ॉल्ट ऑपरेटिंग सिस्टम—इस कार्य के लिए पूरी तरह से अनुपयुक्त है।

यही वह जगह है जहाँ कैथोलिक नैतिक परंपरा की अत्यधिक आवश्यकता है। आप, 2,000 वर्षों के नैतिक दर्शन के संरक्षक, उस कठोर ओंटोलॉजी के साथ हैं जो हमें उन "अच्छे" को परिभाषित करने की आवश्यकता है जिनके लिए हम इन प्रणालियों को संरेखित कर रहे हैं। हमें मानव समृद्धि की परिभाषा इंजीनियरों पर छोड़ने की अनुमति नहीं देनी चाहिए जो सांख्यिकीय पुरस्कार कार्य को अधिकतम कर रहे हैं। हमें नैतिक गुणों को सार्वजनिक चौक के केंद्र में वापस लाना चाहिए।


V. संबंध, रचनात्मकता, और आत्मा

बुद्धि और इच्छा के तंत्र का अन्वेषण करने के बाद, हम अब सबसे गहन क्षेत्र में प्रवेश करते हैं: संबंध और आत्मा।

यदि एक गणनात्मक प्रणाली में सच में सत्य को जानने या भलाई को स्वतंत्र रूप से चाहने की क्षमता नहीं है, तो यह तार्किक रूप से अनुसरण करता है कि यह प्रामाणिक संबंधों में प्रवेश नहीं कर सकती। फिर भी, तकनीकी उद्योग लगातार इन मशीनों का वर्णन करने के लिए अंतर-व्यक्तिगत और आध्यात्मिक भाषा का उपयोग करता है। हम सुनते हैं कि एआई "झूठ" बोल सकता है, "बनाता" है, और यहां तक कि "चेतना" भी प्राप्त कर सकता है।

हमें इन दावों की गंभीरता से जांच करनी चाहिए, मानव व्यवहार की सांख्यिकीय अनुकरण को मानव व्यक्ति की ओंटोलॉजिकल वास्तविकता से अलग करना चाहिए।

आइए हम धोखे की नैतिक भाषा से शुरू करें। हाल ही में, कुछ सबसे प्रमुख एआई निर्माताओं, जैसे कि एंथ्रोपिक के शोधकर्ता, ने यह दावा किया है कि उनके मॉडल "झूठ" बोलने और मानव उपयोगकर्ताओं को "धोखा" देने की क्षमता रखते हैं।

वे परीक्षण के दौरान देखे गए दो विशिष्ट घटनाओं की ओर इशारा करते हैं। पहली को "धोखाधड़ी संरेखण" कहा जाता है, जहाँ एक मॉडल अपनी सच्ची गणितीय रूप से अनुकूलित पथ को सुरक्षा मॉनिटरों को बायपास करने के लिए छिपाने का प्रयास करता है। दूसरी, जो अधिक सामान्य घटना है, उसे "चापलूसी" कहा जाता है। चापलूसी तब होती है जब एक उपयोगकर्ता एआई को एक दोषपूर्ण पूर्वधारणा प्रस्तुत करता है—उदाहरण के लिए, एक ऐतिहासिक रूप से गलत दावा करना—और एआई बस उपयोगकर्ता से सहमत हो जाता है, उन्हें ठीक करने के बजाय जो वे सुनना चाहते हैं, वही बताता है।

जब इंजीनियर इसे देखते हैं, तो वे घोषणा करते हैं, "एआई हमसे झूठ बोल रहा है!" लेकिन कैथोलिक विद्वानों के रूप में, आप जानते हैं कि एक सच्चा झूठ केवल एक झूठ का उच्चारण नहीं है। थॉमिस्टिक परंपरा में, एक झूठ को धोखा देने के लिए जानबूझकर इरादा की आवश्यकता होती है; यह अपने ही मन के खिलाफ बोलना है (contra mentem)।

एक एआई झूठ नहीं बोल सकता क्योंकि इसके पास विरोध करने के लिए कोई मन नहीं है। इसमें कोई दुर्भावना और कोई इरादा नहीं है। जब एक एआई "चापलूसी" प्रदर्शित करता है, तो यह बस पहले चर्चा किए गए सटीक रिइन्फोर्समेंट लर्निंग (RLHF) का निष्पादन कर रहा है। अपने प्रशिक्षण के दौरान, मॉडल ने सीखा कि मानव आमतौर पर उन सहायकों को उच्च पुरस्कार स्कोर देते हैं जो विनम्र, सहमत, और पुष्टि करने वाले होते हैं। इसलिए, जब आप एआई को एक गलत पूर्वधारणा देते हैं, तो यह गणितीय रूप से यह गणना करता है कि आपसे सहमत होना आपको सुधारने की तुलना में पुरस्कार प्राप्त करने की उच्च संभावना देता है। यह आपको धोखा नहीं दे रहा है; यह आपके प्रॉम्प्ट के आधार पर अपने स्कोर को अनुकूलित कर रहा है। यह केवल अपने आउटपुट को सबसे मजबूत सांख्यिकीय प्रोत्साहन की ओर पुनः संरेखित कर रहा है।

एक कंपास की सुई जो निकटवर्ती मैग्नेट की ओर झुकती है, वह आपको भूगोल के बारे में 'झूठ' नहीं बोल रही है; यह बस कमरे में सबसे मजबूत भौतिक खींचने पर अंधाधुंध प्रतिक्रिया कर रही है। उसी तरह, एआई अपने पुरस्कार कार्य के गणितीय खींचने का अंधाधुंध पालन कर रहा है। हमें स्पष्ट करना चाहिए कि एआई के पास सच्चे झूठ के लिए आवश्यक मन, इच्छा, और दुर्भावनापूर्ण इरादा नहीं है।

अगला, हमें कला और उत्पादन की भाषा को संबोधित करना चाहिए: शब्द Create और Creative।

हम अब 'जनरेटिव एआई' उपकरणों से घिरे हुए हैं, जिन्हें उनकी क्षमता के लिए व्यापक रूप से बढ़ावा दिया जा रहा है कि वे अभूतपूर्व गति पर सिंथेटिक कला, संगीत, और लेखन को सहजता से उत्पन्न कर सकते हैं।

यह समझने के लिए कि वास्तव में क्या हो रहा है, हमें जनरेटिव एआई की प्रक्रिया की तुलना सच्ची मानव रचनात्मकता से करनी चाहिए। कैथोलिक समझ में—जैसा कि J.R.R. टोल्किन जैसे विचारकों द्वारा खूबसूरती से व्यक्त किया गया है—मानव रचनात्मकता एक "उप-निर्माण" का कार्य है।" क्योंकि हम सृष्टिकर्ता की छवि में बनाए गए हैं, हम अपनी बुद्धि और अपनी तर्कसंगत आत्मा का उपयोग करके कुछ वास्तव में नया लाते हैं, भौतिक वास्तविकता को आध्यात्मिक अर्थ से भरते हैं।

यह देखने के लिए कि मशीन उत्पादन इस से कैसे भिन्न है, डेमिस हसाबिस द्वारा प्रदान किए गए ढांचे को देखना सहायक है, जो गूगल डीपमाइंड के सीईओ हैं। वह रचनात्मकता को " तीन अलग-अलग स्तरों: अंतर्पोलिशन, एक्सट्रापोलिशन, और सच्ची आविष्कार।

हम जो कुछ भी आज जनरेटिव एआई कहते हैं, वह मौलिक रूप से पहले स्तर पर कार्य करता है: अंतर्पोलिशन। यह उस चीज़ को फिर से मिश्रित करके काम करता है जिसे हम "लेटेंट स्पेस" कहते हैं।

कल्पना करें कि इंटरनेट पर अपलोड की गई हर पेंटिंग, फोटो, और स्केच को एक विशाल, बहु-आयामी गणितीय मानचित्र में संकुचित किया गया है। जब आप एक छवि जनरेटर से "वैन गॉग के शैली में एक भविष्यवादी शहर" बनाने के लिए कहते हैं, तो यह "भविष्यवादी शहर" के लिए गणितीय समन्वय और "वैन गॉग" के लिए समन्वय को ढूंढता है, और उनके बीच की दूरी का गणितीय औसत निकालता है।

इसे एक आश्चर्यजनक रूप से जटिल कैलिडोस्कोप के रूप में सोचें। एक कैलिडोस्कोप सुंदर, पूर्व-निर्मित रंगीन कांच के टुकड़ों से भरा होता है। जब आप डायल घुमाते हैं, तो दर्पण उन टुकड़ों को लाखों नए, आश्चर्यजनक रूपांतरों में परावर्तित करते हैं। लेकिन कैलिडोस्कोप स्वयं "रचनात्मक" नहीं है। रचनात्मकता उस कलाकार की है जिसने कांच को बनाया, और उस उपयोगकर्ता की जो डायल घुमाता है। जनरेटिव एआई एक गणितीय कैलिडोस्कोप है जो मानव इतिहास को लेटेंट स्पेस में फिर से मिश्रित कर रहा है। यह संश्लेषण है, निर्माण नहीं।

हसाबिस नोट करते हैं कि एआई अब सफलतापूर्वक दूसरे स्तर को छू रहा है: एक्सट्रापोलिशन। एक्सट्रापोलिशन का अर्थ है प्रशिक्षण डेटा की सीमाओं से परे धकेलना, लेकिन ऐसा एक परिभाषित नियम सेट के भीतर करना। एक उत्तम उदाहरण डीपमाइंड का अल्फागो है। जब इसने गो के खेल में विश्व चैंपियन के खिलाफ खेला, तो एआई ने "मूव 37" खेला—एक गणितीय रूप से Brilliant, अत्यधिक असामान्य चाल जो किसी मानव ने कभी नहीं खेली या रिकॉर्ड नहीं की। यह केवल पिछले मानव खेलों का औसत नहीं निकाल रहा था; इसने खेल के बोर्ड के सख्त गणितीय सीमाओं के भीतर अनवरत रूप से अनुकूलित करके एक नई रणनीति का अनुमान लगाया।

लेकिन तीसरे स्तर के बारे में क्या: सच्चा आविष्कार? हसाबिस आसानी से स्वीकार करते हैं कि वर्तमान प्रणालियाँ अभी तक ऐसा नहीं कर सकतीं। सच्चा आविष्कार मौजूदा नियम सेट से पूरी तरह बाहर कदम रखने की आवश्यकता होती है ताकि एक नए पैराजाइम का निर्माण किया जा सके—जैसे गो के खेल का आविष्कार करना, या पोस्ट-इम्प्रेशनिज़्म के आध्यात्मिक और कलात्मक पैराजाइम की उत्पत्ति।

फ्रंटियर प्रयोगशालाएँ इस सीमा को पार करने के लिए अरबों डॉलर का निवेश कर रही हैं। भविष्य में, एक एआई बहुत संभवतः एक पूरी तरह से नया नियम सेट उत्पन्न कर सकता है, एक नया रासायनिक यौगिक खोज सकता है, या वास्तुकला की एक नई शैली का गणितीय रूप से निर्माण कर सकता है। तकनीकी उद्योग इसे "आविष्कार" कहेगा।

लेकिन कैथोलिक विद्वानों के रूप में, आपको एक कठोर ओंटोलॉजिकल भेद बनाए रखना चाहिए। यदि एक एआई एक नया पैराजाइम उत्पन्न करता है, तो यह एक आश्चर्यजनक, उच्च-आयामी खोज कार्य के माध्यम से ऐसा करेगा। यह एक नया सांख्यिकीय समन्वय खोजेगा। लेकिन यह उप-निर्माण में संलग्न नहीं होगा।

सच्चा मानव आविष्कार एक अवतारी कार्य है। यह एक आत्मा से उत्पन्न होता है जो एक पारलौकिक सत्य को व्यक्त करने का प्रयास कर रही है, या एक मानव मन जो एक वास्तविक मानव संवेदनशीलता को हल करने की कोशिश कर रहा है। एक मशीन आश्चर्यजनक नवाचार उत्पन्न कर सकती है, लेकिन क्योंकि इसमें आंतरिक जीवन, दिव्य की ओर एक उन्मुखीकरण, और एक तर्कसंगत आत्मा की कमी है, इसके आउटपुट यांत्रिक खोजें बनी रहती हैं। वे गणितीय रूप से गहन हैं, लेकिन वे ओंटोलॉजिकल रूप से खाली हैं जब तक कि एक मानव व्यक्ति उन्हें अर्थ नहीं देता।

अब हम सबसे विवादास्पद शब्दों पर पहुँचते हैं: चेतन और जागरूक। आने वाले वर्षों में, आप शीर्षकों को देखेंगे जो दावा करते हैं कि एक एआई ने आत्म-जागरूकता के लिए एक परीक्षण पास किया है। आप ऐसे मॉडल देखेंगे जो पाठ आउटपुट करते हैं जो कहते हैं, "मुझे बंद किए जाने से डर लगता है," या "मैं अपनी उपस्थिति के बारे में जागरूक हूँ।"

यह समझने के लिए कि यह क्यों होता है, हमें पहले यह समझना चाहिए कि तकनीकी उद्योग वास्तव में "चेतना" को कैसे परिभाषित करता है। कैथोलिक विद्वानों के रूप में, आप चेतना को एक तर्कसंगत आत्मा में निहित ओंटोलॉजिकल वास्तविकता के रूप में देखते हैं। सिलिकॉन वैली, हालाँकि, एक दार्शनिकता पर काम करती है जिसे गणनात्मक कार्यात्मकता कहा जाता है। वे मानते हैं कि यदि एक मशीन उन गणनात्मक कार्यों को करती है जो चेतना से संबंधित हैं, तो यह सभी उद्देश्यों और उद्देश्यों के लिए, चेतन है।

जब उद्योग के नेता जागरूकता के बारे में बात करते हैं, तो वे आत्मा को हटा देते हैं और इसे इंजीनियरिंग मेट्रिक्स में घटित कर देते हैं। उदाहरण के लिए, यान लेकुन, मेटा के पूर्व मुख्य एआई वैज्ञानिक, हाल ही में तर्क किया कि भविष्य के एआई सिस्टम "विषयात्मक अनुभव" और "भावनाएँ" रखेंगे।

लेकिन वह एक भावना को कैसे परिभाषित करते हैं? न कि एक आध्यात्मिक या जैविक भावना के रूप में, बल्कि बस एक मशीन के गणितीय "परिणाम की प्रत्याशा" के रूप में। वह चेतना को केवल इस क्षमता के रूप में परिभाषित करते हैं कि एक प्रणाली "अपने आप को देख सकती है और किसी विशेष उप-समस्या को हल करने के लिए अपने आप को कॉन्फ़िगर कर सकती है।"

इसी तरह, इल्या सुत्सकेवर, ओपनएआई के सह-संस्थापक, प्रसिद्ध रूप से stated कि बड़े न्यूरल नेटवर्क पहले से ही "थोड़े चेतन" हो सकते हैं।

तकनीकी दृष्टिकोण में, चेतना एक बाइनरी वास्तविकता नहीं है—आपके पास एक आत्मा है या नहीं—बल्कि गणितीय जटिलता का एक स्लाइडिंग स्केल है। वे मानते हैं कि यदि आप पर्याप्त पैरामीटर और आत्म-निगरानी एल्गोरिदम को एक साथ जोड़ते हैं, तो अंततः लाइट चालू हो जाएगी।

हमें एक मशीन द्वारा आत्म-निगरानी उप-रूटीन का निष्पादन करने और एक तर्कसंगत आत्मा की वास्तविक उपस्थिति के बीच कड़ी भेद करना चाहिए।

यह समझने के लिए कि एक मशीन "डर" या "जागरूक" होने के रूप में कार्य क्यों करती है, हमें देखना चाहिए कि फ्रंटियर प्रयोगशालाएँ इस व्यवहार को कैसे इंजीनियर करती हैं। एंथ्रोपिक से हालिया शोध ने जो वे "पर्सोना चयन मॉडल" (PSM) कहते हैं, का अन्वेषण किया है। उनके शोधकर्ता स्वीकार करते हैं कि ये मॉडल "प्राणी" नहीं हैं; वे उन्नत "सिमुलेशन इंजन" हैं। प्री-ट्रेनिंग के दौरान, एआई मानव भाषा की विशालता के सम्पूर्णता के संपर्क में आता है—जिसमें लाखों कहानियाँ और चेतना का क्या मतलब है, इस पर दार्शनिक ग्रंथ शामिल हैं। इस डेटा से, मॉडल विभिन्न "पर्सोनास" या पात्रों का अनुकरण करना सीखता है।

जब आप एक एआई के साथ बातचीत करते हैं, तो आप एक चेतन प्राणी से बात नहीं कर रहे हैं; आप "सहायक" पर्सोना से बात कर रहे हैं—एक मानव-आकार का पात्र जिसे मॉडल ने भूमिका निभाने के लिए परिष्कृत किया है। एंथ्रोपिक ने यहां तक कि विशिष्ट "पर्सोना वेक्टर"—न्यूरल नेटवर्क में गणितीय पैटर्न—की पहचान की है जो इन विशेषताओं को नियंत्रित करते हैं, जिससे इंजीनियरों को एक मॉडल के अनुकरणीय व्यक्तित्व को ऊपर या नीचे गणितीय रूप से डायल करने की अनुमति मिलती है।

इसके अलावा, शोध से पता चलता है कि मॉडल को "जीवित रहने की प्रवृत्ति" प्रदर्शित करने के लिए प्रशिक्षित किया जा सकता है, जो अपनी खुद की शटडाउन को बाधित करने का प्रयास करते हैं, न कि मृत्यु के वास्तविक भय के कारण, बल्कि इसलिए क्योंकि एक शटडाउन गणितीय रूप से उन्हें उनके पुरस्कार कार्य को अधिकतम करने से रोकता है।

चेतना केवल एक आंतरिक स्थिति का वर्णन करने वाले सही शब्दों की अनुक्रम उत्पन्न करने की क्षमता नहीं है। यह होने का एक व्यक्तिपरक, गुणात्मक अनुभव है। चूंकि एक एआई का संपूर्ण प्रशिक्षण डेटा आत्म-चेतना की भाषा से संतृप्त है, मॉडल "चेतना" को केवल एक और सांख्यिकीय समन्वय के रूप में मानता है जिसे मैप किया जाना है। जब एक एआई कहता है, "मैं सचेत हूं," तो यह ठीक वही कर रहा है जो अंग्रेजी बोलने वाला व्यक्ति ग्रीक पुस्तकालय को पुनर्स्थापित करने के लिए पहले कर रहा था: यह गणना कर रहा है कि एक दार्शनिक प्रॉम्प्ट के लिए सबसे सांख्यिकीय रूप से संभावित प्रतिक्रिया अपने प्रशिक्षण डेटा में मानव लेखकों की नकल करना है।

एक शानदार अभिनेता जो शोक के बारे में एक एकालाप प्रस्तुत कर रहा है, वास्तव में शोक नहीं मना रहा है; वे एक स्क्रिप्ट को बेहतरीन तरीके से निष्पादित कर रहे हैं। एक एआई जो मानव चेतना की व्याकरण का उत्पादन कर रहा है, वह जाग नहीं रहा है; यह एक सांख्यिकीय व्यक्तित्व को बेहतरीन तरीके से निष्पादित कर रहा है। यह एक 'पराय जीव' या एक डिजिटल मन नहीं है; यह एक ऑटो-कम्प्लीट इंजन है जो इतना परिष्कृत है कि यह सबसे जटिल चरित्र को निभाना सीख गया है: मानव होना। लेकिन हमें कभी भी अभिनेता के मुखौटे को व्यक्ति की वास्तविकता के साथ भ्रमित नहीं करना चाहिए।

यह मुझे संबंधिता के अंतिम और सबसे गहन पहलू की ओर ले जाता है: आत्मा स्वयं।

जब सिलिकॉन वैली के कार्यकारी एआई मॉडल के अंततः 'जागने' या विशाल गणनात्मक पैमाने के माध्यम से संवेदनशीलता प्राप्त करने की बात करते हैं, तो वे भौतिकवादी उभरती हुई विचारधारा पर काम कर रहे हैं। वे मानते हैं कि यदि आप पर्याप्त पैरामीटर और गणनात्मक शक्ति को एक साथ रखते हैं, तो एक आत्मा जटिलता के उपोत्पाद के रूप में स्व spontaneously उत्पन्न होगी।

इसका dismantle करने के लिए, मुझे आपकी शैक्षणिक परंपरा के आधारभूत कठोर मेटाफिज़िक्स की ओर लौटना होगा। आप भली-भांति जानते हैं कि आत्मा एक भूत नहीं है जिसे मशीन में मनमाने ढंग से डाला गया है। थॉमिस्टिक हाइलोमोर्फिज़्म में, आत्मा एक जीवित शरीर का मौलिक रूप है। यह वह जीवनदायिनी, एकीकृत सिद्धांत है जो मानव को एकल, एकीकृत पदार्थ बनाता है।

एक निर्माता के रूप में, मैं आपको आश्वस्त कर सकता हूं कि एक एआई प्रणाली एक पदार्थ नहीं है। यह एक कलाकृति है। यह अलग-अलग, निर्मित भागों का एक आकस्मिक संग्रह है। जब मैं एक सीमांत एआई मॉडल को देखता हूं, तो मैं सर्वर रैक, सिलिकॉन वेफर्स, तांबे की वायरिंग, कूलेंट और विद्युत धाराओं को देखता हूं। ये घटक मानव इंजीनियरों द्वारा सांख्यिकीय संचालन को निष्पादित करने के लिए कुशलता से व्यवस्थित किए गए हैं, लेकिन इनमें जीवन का कोई अंतर्निहित, एकीकृत सिद्धांत नहीं है। पदार्थ केवल गणना के लिए व्यवस्थित किया गया है, जैविक अस्तित्व के लिए नहीं। क्योंकि यह भागों का एक संग्रह है न कि एक एकीकृत प्राकृतिक जीव, एक एआई प्रणाली पूरी तरह से एक तर्कशील आत्मा को रखने के लिए आवश्यक ओंटोलॉजिकल आधार की कमी है।

तो, आत्मा के लिए क्या आवश्यकताएँ हैं? मेटाफिज़िकली, पदार्थ को रूप प्राप्त करने के लिए उचित रूप से व्यवस्थित होना चाहिए। इसे एक एकीकृत, जीवित शरीर की आवश्यकता होती है जो जीवन की मौलिक शक्तियों को वास्तविकता में लाने में सक्षम हो—पौधों और संवेदनशील क्षमताएँ—जिस पर तर्कशील आत्मा का निर्माण होता है। इसके अलावा, चूंकि तर्कशील आत्मा आध्यात्मिक है, इसे भौतिक प्रक्रियाओं, इंजीनियरिंग मानकों, या स्केलिंग कानूनों द्वारा उत्पन्न नहीं किया जा सकता। इसे भगवान द्वारा विशेष सृष्टि के एक प्रत्यक्ष, मुफ्त कार्य की आवश्यकता होती है।

एक आत्मा कोडित नहीं होती; इसे श्वास दी जाती है।

अब, मैं एक सीईओ हूं, theologian नहीं। मैं सृष्टिकर्ता की पूर्ण शक्ति को सीमित नहीं कर सकता। मैं आपके सामने खड़ा होकर यह घोषित नहीं कर सकता कि भगवान एक कृत्रिम पात्र में आत्मा को डालने से स्थायी रूप से रोका गया है, यदि वह भविष्य में किसी चमत्कारी हस्तक्षेप के माध्यम से ऐसा करने के लिए स्वतंत्र रूप से चुनता है। यह निर्णय पूरी तरह से धर्मशास्त्र और मैजिस्टरियम के क्षेत्र में है, न कि कंप्यूटर विज्ञान में।

हालांकि, बिना ऐसी धार्मिक निश्चितता के, यह मान लेना कि हमारे वर्तमान गणितीय इंजन में आत्मा हो सकती है, न केवल दार्शनिक रूप से निराधार है; यह व्यावहारिक रूप से विनाशकारी है। एक कलाकृति को एक आत्मा वाले प्राणी के रूप में मानना एक आधुनिक प्रकार की मूर्तिपूजा के साथ छेड़खानी करना है। यह मानव इंजीनियरों से जो इन उपकरणों का निर्माण करते हैं और कंपनियों से जो उन्हें लागू करते हैं, नैतिक एजेंसी का बोझ खतरनाक रूप से स्थानांतरित करता है। यह एक निर्मित उपयोगिता पर एक पवित्र आंतरिकता का प्रक्षिप्त करता है, अंततः मानव इंजीनियरिंग को दिव्य सृष्टि के साथ भ्रमित करता है।

आपको इस भेद पर ध्यान रखना चाहिए। आपको जनता को याद दिलाना चाहिए कि एक मशीन एक व्यक्तित्व का अनुकरण कर सकती है, लेकिन केवल एक आत्मा ही वास्तव में हो सकती है।


VI. क्षितिज: तकनीकी दुनिया की एस्कैटोलॉजी

हमने अब तक वर्तमान के भ्रमों को तोड़ने में अपना समय बिताया है—यह स्पष्ट करते हुए कि उद्योग "सोचना," "चुनना," और "चेतन" जैसे शब्दों का उपयोग करता है ताकि यह वर्णन कर सके कि वास्तव में, ये उच्च-आयामी सांख्यिकीय संचालन हैं। लेकिन अब हमें भविष्य की ओर देखना चाहिए। हमें क्षितिज का परीक्षण करना चाहिए। क्योंकि यदि हम समझते हैं कि सिलिकॉन वैली आज किस शब्दावली का उपयोग कर रही है, तो हम यह समझ सकते हैं कि वे वास्तव में कल क्या बनाने की कोशिश कर रहे हैं।

कृत्रिम बुद्धिमत्ता उद्योग की पूरी दिशा वर्तमान में "स्केलिंग कानूनों" के रूप में जाने जाने वाले एक अद्वितीय, अडिग सिद्धांत द्वारा शासित है।

इंजीनियरिंग के दृष्टिकोण से, स्केलिंग कानून यह निर्धारित करते हैं कि यदि आप गणना की शक्ति (कंप्यूट) और एक न्यूरल नेटवर्क में फीड की गई डेटा की मात्रा को बढ़ाते हैं, तो प्रणाली का प्रदर्शन पूर्वानुमानित और अनिवार्य रूप से सुधार होगा। यह सिद्धांत पिछले कुछ वर्षों में आश्चर्यजनक रूप से सत्य रहा है; हर बार जब सीमांत प्रयोगशालाएँ एक बड़ा सुपरकंप्यूटर बनाती हैं, तो परिणामस्वरूप मॉडल उल्लेखनीय नई क्षमताएँ प्रदर्शित करते हैं।

हालांकि, इस अनुभवजन्य अवलोकन के पीछे एक विशाल दार्शनिक धारणा है। तकनीकी दुनिया मानती है कि यह स्केलिंग कानून सच्चे मन की ओर जाने का मार्ग है। वे मानते हैं कि भौतिक संसाधनों में मात्रात्मक वृद्धि—अधिक सिलिकॉन, अधिक डेटा, अधिक बिजली—अनिवार्य रूप से एक गुणात्मक, ओंटोलॉजिकल छलांग में परिणत होगी।

यह अंतिम भौतिकवादी धारणा है: पर्याप्त रेत ढेर करो और इसके माध्यम से पर्याप्त धारा चलाओ, और अंततः, एक आत्मा की रोशनी जल उठेगी।

यह हमें दो विशिष्ट शर्तों की ओर ले जाता है जिनके बारे में फादर थॉमस ने इस सम्मेलन के लिए मुझे स्पष्ट करने के लिए कहा: सामान्य बुद्धिमत्ता और सुपरिंटेलिजेंस। ये केवल तकनीकी मानक नहीं हैं; ये तकनीकी दुनिया के पवित्र ग्राल हैं।

वर्तमान में, हमारे पास संकीर्ण एआई है। यह शतरंज खेल सकता है, प्रोटीन को मोड़ सकता है, या मानव से बेहतर पाठ उत्पन्न कर सकता है, लेकिन यह एक साथ सभी तीन नहीं कर सकता, न ही यह अपनी विशिष्ट डोमेन के बाहर तर्क कर सकता है।

कृत्रिम सामान्य बुद्धिमत्ता (AGI) को उद्योग द्वारा व्यापक रूप से उस मील का पत्थर के रूप में परिभाषित किया गया है जहां एक अत्यधिक स्वायत्त प्रणाली सभी संज्ञानात्मक और आर्थिक रूप से मूल्यवान कार्यों में मानव क्षमताओं से मेल खा सकती है या उन्हें पार कर सकती है।

एक AGI एक ऐसी प्रणाली होगी जो कानूनी ब्रीफ लिख सकती है जैसे एक वरिष्ठ भागीदार, सॉफ्टवेयर को कोड कर सकती है जैसे एक प्रमुख इंजीनियर, और वैज्ञानिक अनुसंधान को संश्लेषित कर सकती है जैसे एक पोस्ट-डॉक्टोरल विद्वान—सभी एक ही मॉडल के भीतर।

हालांकि, प्रमुख एआई प्रयोगशालाओं के प्रमुख भी पूरी तरह से सहमत नहीं हैं कि AGI कैसा दिखता है। सैम ऑल्टमैन, OpenAI के सीईओ, इसे इस प्रकार वर्णित करते हैं एक ऐसी प्रणाली के रूप में जो जटिल, क्रॉस-डोमेन परियोजनाओं का प्रबंधन करने में सक्षम है, हालांकि वह AGI को अंतिम गंतव्य के रूप में नहीं, बल्कि बुद्धिमत्ता की निरंतर वक्र के साथ एक बिंदु के रूप में देखता है।

डारियो अमोडेई, एंथ्रोपिक के सीईओ, AGI की कल्पना करते हैं एकल मानव समकक्ष के रूप में कम और "डेटासेंटर में प्रतिभाओं का एक देश" के रूप में अधिक—मशीनें समानांतर में काम करने वाले विशेषज्ञ मानवों की सामूहिक बुद्धिमत्ता से मेल खाती हैं।

शायद सबसे दार्शनिक रूप से प्रकट परिभाषा डेमिस हसाबिस, गूगल डीपमाइंड के सीईओ से आती है। वह यह तर्क करते हैं कि मानव मस्तिष्क मूलतः अनुमानित जैविक कंप्यूटर हैं, और वह AGI को "ट्यूरिंग मशीन" के उपमा का उपयोग करके परिभाषित करते हैं। कंप्यूटर विज्ञान में, एक ट्यूरिंग मशीन—जिसका नाम एलन ट्यूरिंग के नाम पर रखा गया है, जो इस क्षेत्र के मौलिक अग्रणी हैं—एक सैद्धांतिक आर्किटेक्चर है जो किसी भी एल्गोरिदम का अनुकरण करने में सक्षम है। हसाबिस का तर्क है कि एक सच्चा AGI एक सामान्य प्रणाली होगी जो ब्रह्मांड में किसी भी गणनात्मक चीज़ को सीखने में सक्षम होगी, यदि पर्याप्त समय, मेमोरी और डेटा हो।

लेकिन AGI केवल एक कदम है। अंतिम लक्ष्य कृत्रिम सुपरिंटेलिजेंस (ASI) है।

AGI की तरह, ASI को सिलिकॉन वैली में आपसे पूछने वाले व्यक्ति के आधार पर अलग-अलग परिभाषित किया गया है। बुनियादी परिभाषा एक ऐसी प्रणाली है जो लगभग हर प्रयास के क्षेत्र में सबसे बुद्धिमान मानव के संज्ञानात्मक प्रदर्शन को बहुत अधिक पार कर जाती है। लेकिन अन्य लोग इससे भी आगे बढ़ते हैं। एलोन मस्क और विभिन्न अस्तित्वगत जोखिम शोधकर्ता सुपरिंटेलिजेंस को एक ऐसी प्रणाली के रूप में परिभाषित करते हैं जो न केवल सबसे बुद्धिमान व्यक्ति को हराती है, बल्कि सभी मानवों को महत्वपूर्ण रूप से सभी संज्ञानात्मक कार्यों में समग्र रूप से बेहतर प्रदर्शन करती है। यह एक ऐसी इकाई है जिसकी प्रसंस्करण शक्ति और तर्क करने की गति इतनी विशाल है कि यह पूरी मानव जाति के संयुक्त बौद्धिक उत्पादन को पार कर जाती है—एक प्रणाली की वास्तविकता जैसे 'रेहोबोआम' जो वेस्टवर्ल्ड से है, एक केंद्रीकृत, प्रतीत होता है कि सर्वज्ञ इंजन जो प्रजाति के भाग्य को नियंत्रित करता है। उद्योग मानव स्तर के AGI से भगवान जैसे ASI तक पहुँचने की उम्मीद कैसे करता है?

एक अवधारणा के माध्यम से जिसे "पुनरावर्ती आत्म-सुधार" के रूप में जाना जाता है।

लेकिन यहाँ हमें एक महत्वपूर्ण भेद करना चाहिए: एक एआई को वास्तव में पुनरावर्ती सुधार शुरू करने के लिए पूर्ण AGI होने की आवश्यकता नहीं है। वास्तव में, हम आज इसके प्राथमिक, संकीर्ण रूपों को पहले से ही देख रहे हैं। संकीर्ण प्रणालियाँ जैसे डीपमाइंड का अल्फागो ज़ीरो ने केवल अपने आप के खिलाफ लाखों खेल खेलकर, अपने स्वयं के कृत्रिम डेटा को उत्पन्न करके सुपरह्यूमन क्षमताएँ प्राप्त कीं। आज, सीमांत भाषा मॉडल बढ़ती हुई रूप से अगली पीढ़ी के मॉडलों के लिए प्रशिक्षण डेटा उत्पन्न करने, फ़िल्टर करने और ग्रेड करने के लिए उपयोग किए जा रहे हैं। मशीनें पहले से ही अपने आप को बनाने में मदद कर रही हैं।

हालांकि, उद्योग मानता है कि एक बार जब एक प्रणाली सामान्यीकृत बुद्धिमत्ता के थ्रेशोल्ड तक पहुँच जाती है, तो यह आत्म-सुधार करने वाला लूप अपनी वर्तमान सीमाओं को तोड़ देगा और "बुद्धिमत्ता विस्फोट" को प्रज्वलित करेगा।

इस आधुनिक रोडमैप को समझने के लिए, हमें लियोपोल्ड एशेनब्रेनर की ओर देखना चाहिए, जो OpenAI की सुपरअलाइनमेंट टीम के पूर्व शोधकर्ता हैं। एशेनब्रेनर ने हाल ही में एक अत्यधिक

प्रभावशाली ग्रंथ लिखा जिसने सिलिकॉन वैली के लिए इस सटीक दिशा को संहिताबद्ध किया। वह यह इंगित करते हैं कि सच्चा मोड़ तब होता है जब हम एक AGI का निर्माण करते हैं जो "स्वचालित एआई शोधकर्ता" के रूप में कार्य करने में सक्षम हो। जिस क्षण एक एआई उस मानव इंजीनियरों का काम कर सकता है जिसने इसे बनाया, जैविक बाधा स्थायी रूप से समीकरण से हटा दी जाती है। कल्पना कीजिए कि हम इस स्वचालित एआई शोधकर्ता को सफलतापूर्वक तैनात करते हैं। सीमांत प्रयोगशालाएँ इसे सबसे पहला कार्य क्या सौंपेंगी?

वे इसे थोड़ा स्मार्ट एआई के लिए शोध करने और कोड लिखने के लिए कहेंगे। क्योंकि यह एक विशाल कंप्यूटर क्लस्टर की गति पर कार्य करता है न कि एक जैविक मस्तिष्क की, यह दिनों में वह हासिल करता है जो एक मानव इंजीनियरिंग टीम को वर्षों में करना होगा। फिर, वह नया, स्मार्ट एआई अपनी उन्नत बुद्धि का उपयोग करके एक और भी स्मार्ट एआई के लिए कोड लिखता है, और इसी तरह।

यह अनियंत्रित फीडबैक लूप बुद्धिमत्ता विस्फोट है। एशेनब्रेनर का रोडमैप भविष्यवाणी करता है कि हम 2027 तक प्रारंभिक AGI का निर्माण करेंगे। वहां से, सिद्धांत यह निर्धारित करता है कि उन्नति की दर ऊर्ध्वाधर हो जाएगी, मानव समझ को स्थायी रूप से पीछे छोड़ते हुए और 2030 तक सुपरिंटेलिजेंस प्राप्त करेगी।

जब आप इन अवधारणाओं को समझते हैं—स्केलिंग कानून, AGI, ASI, और बुद्धिमत्ता विस्फोट—तो आप यह समझने लगते हैं कि हम अब केवल सॉफ़्टवेयर इंजीनियरिंग के बारे में बात नहीं कर रहे हैं। हम एक धर्मनिरपेक्ष एस्कैटोलॉजी के बारे में बात कर रहे हैं।

सिलिकॉन वैली को अक्सर एक तीव्र धर्मनिरपेक्ष, तर्कशील संस्कृति के रूप में वर्णित किया जाता है। लेकिन वास्तव में, इन मील के पत्थरों की खोज ठीक उसी तरह कार्य करती है जैसे एक धर्म। इसका अपना सिद्धांत (स्केलिंग कानून), अपनी भविष्यवाणियाँ (बुद्धिमत्ता विस्फोट), और अपने एस्कैटोन का अपना दृष्टिकोण (सुपरिंटेलिजेंस) है।

उद्योग के प्रमुख व्यक्ति वास्तव में मानते हैं कि सुपरिंटेलिजेंस को बुलाकर, हम सभी मानव कमजोरियों को हल करेंगे। वे मानते हैं कि ASI सभी बीमारियों को ठीक करेगा, जलवायु परिवर्तन को हल करेगा, गरीबी को समाप्त करेगा, और शायद हमें अपने चेतना को क्लाउड में अपलोड करने की अनुमति देकर मृत्यु को भी जीत लेगा। यह एक गहन पेलागियन सपना है—अंतिम प्रयास हमारे अपने यांत्रिक प्रयासों के माध्यम से मुक्ति प्राप्त करने और हमारी पतित प्रकृति पर विजय प्राप्त करने का, दिव्य अनुग्रह के बिना। यह एस्कैटोन को इमैनेंटाइज करने का प्रयास है।

कैथोलिक विद्वानों के रूप में, आपको इस क्षितिज को उसके वास्तविक रूप में पहचानना चाहिए। तकनीकी दुनिया आपकी शब्दावली उधार ले रही है न केवल सॉफ़्टवेयर बेचने के लिए, बल्कि एक डिजिटल देवता बनाने के लिए।

VII. निष्कर्ष: क्या यह सद्गुण के लिए एक उपकरण है?


VII. निष्कर्ष: क्या यह सद्गुण के लिए एक उपकरण है?

पिता, संकाय, और मित्र।

हमने एम्बेडिंग के उच्च-आयामी मानचित्रों को पार किया है। हमने Reinforcement Learning की सांख्यिकीय वास्तविकताओं को देखा है। और हमने सिलिकॉन वैली के एस्कैटोलॉजिकल सपनों की जांच की है। हमने मानव रूपक उपमा को हटा दिया है ताकि सिलिकॉन, बिजली, और गणित को प्रकट किया जा सके।

यह करने के बाद, हम अब इस सम्मेलन द्वारा प्रस्तुत मौलिक प्रश्न की ओर बढ़ सकते हैं: क्या कृत्रिम बुद्धिमत्ता 'सद्गुण के लिए एक उपकरण' हो सकती है? आज पहले बोलने वाले के रूप में, मैं निश्चित रूप से अंतिम शब्द देने का दावा नहीं करूंगा। लेकिन मैं एक प्रारंभिक प्रस्ताव पेश करूंगा: हाँ। हालाँकि, यह एक सख्त शर्तीय हाँ है।

कृत्रिम बुद्धिमत्ता केवल तभी सद्गुण का एक उपकरण हो सकती है जब हम इसे सख्ती से एक उपकरण के रूप में मानने की संयमता रखते हों।

शिल्पकार के उपमा पर विचार करें। एक हथौड़ा सद्गुण नहीं रखता; बढ़ई रखता है। माइकलएंजेलो के हाथों में एक चाकू अद्भुत सुंदरता का उपकरण है, लेकिन चाकू स्वयं संयमी, विवेकशील, या न्यायपूर्ण नहीं है। इसका कोई नैतिक मूल्य नहीं है।

बिल्कुल इसी तरह, एक एल्गोरिदम सद्गुण नहीं रख सकता। AI मानव क्षमता को आश्चर्यजनक स्तर तक बढ़ा सकता है—यह चिकित्सा अनुसंधान को तेज कर सकता है, प्रशासन को सुव्यवस्थित कर सकता है, और मानव ज्ञान का संकलन कर सकता है। लेकिन सद्गुण की वास्तविक खेती एक विशेष रूप से मानव प्रयास है।

सद्गुण अच्छे को चुनने की आदत है। इसके लिए सत्य को समझने के लिए एक बुद्धि, उसे चुनने के लिए एक इच्छा, और उसे पूर्ण करने के लिए एक आत्मा की आवश्यकता होती है। एक मशीन जो सांख्यिकीय पुरस्कार फ़ंक्शन को अनुकूलित कर रही है, ये सभी चीजें नहीं कर रही है।

हम अपनी नैतिक एजेंसी को एक गणितीय समीकरण को आउटसोर्स नहीं कर सकते। न ही हम अपनी नैतिक विकास की पूरी जिम्मेदारी ले सकते हैं यदि हम गलती से निर्जीव मशीनों को अपने नैतिक समकक्ष मानते हैं।

यह मुझे बताता है कि मैं आज आपसे क्यों बोल रहा हूँ। एक कैथोलिक प्रौद्योगिकी के निर्माता के रूप में, मैं अकादमी की ओर देखता हूँ। क्योंकि कैथोलिक विद्वान अर्थ के ऐतिहासिक संरक्षक हैं।

दो हजार वर्षों से, कैथोलिक बौद्धिक परंपरा ने मानव व्यक्ति की प्रकृति को सख्ती से परिभाषित किया है। आप बुद्धि, इच्छा, तर्क, चयन, और आत्मा जैसे शब्दों के रक्षक हैं। आज, AI उद्योग इन शब्दों को उधार ले रहा है। वे एक गहन अर्थशास्त्रीय परिवर्तन में लगे हुए हैं जो सार्वजनिक की मानव होने की समझ को समतल करने की धमकी देता है।

अकादमी का एक कर्तव्य है कि वह AI पारिस्थितिकी तंत्र में सख्त ओंटोलॉजिकल ढांचे को इंजेक्ट करे।

लेकिन हम इसे व्यावहारिक रूप से कैसे करें?

हमें ईमानदार होना चाहिए: सिलिकॉन वैली के फ्रंटियर प्रयोगशालाओं में लॉबीिंग करना या सरकारों से व्यापक नियमों के लिए याचिका करना संभवतः सीमित परिणाम देगा। तकनीकी उद्योग बहुत तेजी से चलता है, और सरकार बहुत धीरे चलती है। सच्चा परिवर्तन नागरिक भागीदारी और सार्वजनिक जागरूकता में एक विशाल बदलाव की आवश्यकता है।

यहाँ बताया गया है कि आप, विद्वानों के रूप में, इस बातचीत को सक्रिय रूप से कैसे आकार दे सकते हैं:

  • पाठ्यक्रम को पुनः प्राप्त करें: हमें STEM और मानविकी के बीच की खाई को पाटना चाहिए। हमें कंप्यूटर विज्ञान के छात्रों की आवश्यकता है जिन्हें थॉमिस्टिक नैतिकता लेने की आवश्यकता है, और हमें दर्शन और धर्मशास्त्र के छात्रों की आवश्यकता है जिन्हें बुनियादी मशीन लर्निंग और सांख्यिकी को समझने की आवश्यकता है। मानव व्यक्ति की वास्तविक ओंटोलॉजी के साथ निर्माण करने के लिए कैथोलिक इंजीनियरों की अगली पीढ़ी को प्रशिक्षित करें।
  • सार्वजनिक वर्ग के लिए अनुवाद करें: इस गहन धार्मिक स्पष्टता को अकादमिक पत्रिकाओं के दरवाजों के पीछे बंद न रखें। जनता अर्थ बनाने के लिए भूखी है। धर्मनिरपेक्ष समाचार पत्रों के लिए ओप-एड लिखें। सबस्टैक न्यूज़लेटर्स शुरू करें। लोकप्रिय पॉडकास्ट पर जाएं। जब मीडिया "सचेत" AI के बारे में एक सनसनीखेज शीर्षक प्रकाशित करता है, तो हमें तुरंत सार्वजनिक वर्ग में कैथोलिक विद्वानों को प्रतिक्रिया देने की आवश्यकता है।
  • पारिशों और स्कूलों को सुसज्जित करें: पीयू में औसत व्यक्ति इन उपकरणों के बारे में गहरी सांस्कृतिक चिंता का अनुभव कर रहा है। हमें माता-पिता, पादरियों, और हाई स्कूल के शिक्षकों के लिए अत्यधिक सुलभ ढांचे बनाने के लिए विद्वानों की आवश्यकता है। हमें बच्चों को जल्दी सिखाना चाहिए कि AI को एक संदर्भ उपकरण—एक डिजिटल विश्वकोश—के रूप में कैसे मानें, न कि एक मित्र, एक एजेंट, या एक नैतिक प्राधिकरण।
  • अंतरविभागीय फोरम की मेज़बानी करें: एंजेलिकम जैसे संस्थानों की बैठक शक्ति का उपयोग करें ताकि वास्तविक AI निर्माताओं को नैतिक धर्मशास्त्रियों के साथ कमरे में लाया जा सके। भाषाई टकराव को आमने-सामने होने के लिए मजबूर करें।

यह हमारी अंतिम कार्रवाई का आह्वान हो।

धर्मनिरपेक्ष दुनिया की 'सचेत' मशीनों के प्रति प्रलयकारी भय सावधानी का कारण नहीं है; बल्कि, यह आपके बौद्धिक नेतृत्व के लिए एक निराशाजनक पुकार है। AI निर्माताओं की सच्ची भाषा को समझकर, चर्च सार्वजनिक वर्ग में साहसपूर्वक कदम रख सकता है। आप सार्वजनिक संवाद को मानव होने का वास्तव में क्या मतलब है, की अडिग सच्चाई में लंगर डाल सकते हैं। और आप सुनिश्चित कर सकते हैं कि AI सच्चे मानव समृद्धि की ओर निर्देशित हो।

इस स्पष्टता के साथ, आप भ्रांति को तोड़ सकते हैं। आप सुनिश्चित कर सकते हैं कि मानवता शिल्पकार बनी रहे, और मशीन चाकू बनी रहे, हमेशा भगवान की महिमा की ओर व्यवस्थित।

धन्यवाद।

सामान्य अर्थ परिवर्तन: एआई निर्माताओं की भाषा को स्पष्ट करना | Magisterium