Magisterium AI

الانحراف الدلالي: إزالة الغموض عن لغة بناة الذكاء الاصطناعي

هل يمكن أن تكون الذكاء الاصطناعي أداة للفضيلة؟

في 5 مارس 2026، ألقى ماثيو هارفي ساندرز، الرئيس التنفيذي لشركة Longbeard، خطابه بعنوان "الانحراف الدلالي: فك شفرة لغة بناة الذكاء الاصطناعي" في "الذكاء الاصطناعي: أداة للفضيلة؟" الحدث الذي استضافته الجامعة البابوية للقديس توما الأكويني (أنجيليكم) في روما.

في هذا الخطاب، ينتقد المفردات المضللة والإنسانية التي يستخدمها مطورو وادي السيليكون لوصف التعلم الآلي. ويؤكد أنه لاستخدام الذكاء الاصطناعي بشكل صحيح، يجب علينا استعادة أنطولوجيا كاثوليكية صارمة ومعاملة هذه الأنظمة كأدوات ميكانيكية بحتة بدلاً من وكلاء أخلاقيين.


I. المقدمة: الانحراف الدلالي والساحة العامة

أيها الآباء، أعضاء هيئة التدريس المحترمين، وضيوف الأنجيليكم، شكرًا لمعهد توما على تنظيم هذه المناقشة.

بينما نعبر عتبة عصر جديد، تاركين اليقينيات الراسخة لعصر المعلومات إلى الكون الواسع وغير المستكشف لعصر الذكاء، نواجه تحديًا عميقًا في التنقل. قبل أن نتمكن من الإجابة على السؤال الملح في قلب هذه المؤتمر - هل يمكن أن يكون الذكاء الاصطناعي حقًا "أداة للفضيلة" - يجب علينا أولاً مواجهة تحدٍ ليس في هندسة البرمجيات، ولكن في المفردات.

في جوهر قلقنا المعاصر بشأن الذكاء الاصطناعي يكمن تصادم لغوي عميق. يقوم المهندسون والمعماريون لهذه الأنظمة في وادي السيليكون بأداء إنجازات رياضية رائعة. ومع ذلك، لوصف هذه العمليات الرياضية والإحصائية، استعاروا المفردات المقدسة، العميقة الفلسفية للداخلية البشرية. يقولون لنا إن أنظمتهم "تفكر"، "تعقل"، و"تعرف". يتحدثون عن الخوارزميات التي "تتعلم"، "ترغب"، و"تختار".

ما نشهده هو انحراف دلالي. نحن نأخذ المصطلحات الغنية، الأنطولوجية للروح ونلصقها على شبكات معقدة من الجبر الخطي، الاحتمالات الإحصائية، والهندسة عالية الأبعاد. إنها كيمياء حديثة - محاولة لتحويل الأوزان الحاسوبية إلى وهم العقل.

هذه الفوضى اللغوية لها تأثير عميق وفوري على الجمهور. يؤدي سوء فهم هذه المصطلحات حتمًا إلى ثقة غير موضوعة.

أرى هذا بشكل مباشر في عملنا في Longbeard؛ حيث يقترب المستخدمون غالبًا من الذكاء الاصطناعي بضمائر مثقلة، معاملة أداة توليد النصوص كما لو كانت موجهًا روحيًا قادرًا على التعاطف.

علاوة على ذلك، يغذي هذا الارتباك الدلالي القلق الثقافي، مما يدفع المخاوف الأبوكاليبتية من الذكاءات الفائقة "الواعية" المتنافسة.

الأخطر من ذلك، أنه يخلق إحساسًا مشوهًا بما يعنيه أن تكون إنسانًا. إذا قبلنا فرضية أن الآلة "تعقل" أو "تخلق" تمامًا كما يفعل الإنسان، فإننا نواجه خطرًا عميقًا يتمثل في تقليل الشخص البشري إلى مجرد آلة بيولوجية - مجموعة من اللحم والروابط العصبية تنتظر أن يتم تحسينها.

هذا يقودني إلى الأطروحة الأساسية لمناقشتنا: للإجابة على ما إذا كان يمكن أن يكون الذكاء الاصطناعي "أداة للفضيلة"، يجب علينا أولاً فك شفرة لغته. يمكن أن تخدم الأداة الخير فقط عندما يتم فهمها بشكل صحيح. نفشل في استخدام الآلات كأدوات صحيحة لفضيلتنا عندما ننسب إليها وكالة أخلاقية عن طريق الخطأ.

نسبة الفضيلة إلى المطرقة تعني أننا نغض الطرف عن النجار.

لتعميد هذه التكنولوجيا حقًا وترتيبها نحو الازدهار البشري، يجب علينا إزالة الأوهام الدلالية والنظر بجدية إلى البنية الأساسية.


II. بنية الوهم: الميكانيكا الأساسية

يبدو أن نظام الذكاء الاصطناعي التوليدي الحديث يتحدث، ويعقل، ويتفاعل معنا في حوار، لكن تحت هذه الواجهة تكمن قاعدة مبنية بالكامل على الرياضيات، وليس الميتافيزيقا.

لنبدأ بالمتجهات والتضمينات، التي تعتبر الأساس الحرفي لنماذج اللغة الكبيرة. عندما تتحدث إلى زميل أكاديمي عن "العدالة" أو "الروح"، فإنهم يدركون معنى كلماتك من خلال فهم مشترك للواقع - تجربة إنسانية حية، متجسدة. عندما تكتب موجهًا إلى الذكاء الاصطناعي، لا يقوم النظام بأي شيء من هذا القبيل. بدلاً من ذلك، يقوم الذكاء الاصطناعي بترجمة اللغة البشرية إلى إحداثيات رياضية في فضاء عالي الأبعاد.

لتبسيط الأمر، فإن "المتجه" هو ببساطة قائمة من الأرقام تستخدم لوصف شيء ما. تخيل وصف تفاحة ليس بالكلمات، ولكن بقائمة من الدرجات: 9 للحلاوة، 8 للحمرة، و2 للقرمشة المعدنية. تلك القائمة المحددة من الأرقام - [9، 8، 2] - هي متجه. في نظام الذكاء الاصطناعي، يتم ترجمة كل كلمة - أو جزء من كلمة - إلى متجه ضخم، غالبًا ما يتكون من آلاف الأرقام. لكن الذكاء الاصطناعي لا يقيم الكلمات بناءً على الخصائص الفيزيائية أو تعريفات القاموس. بدلاً من ذلك، يقوم بتوليد هذه الأرقام بناءً بالكامل على الإحصائيات، حيث يقوم بمسح مليارات الكتب والمقالات لحساب مدى تكرار ظهور الكلمات بجانب بعضها.

بمجرد أن ينتهي الذكاء الاصطناعي من حساب هذه القائمة الضخمة من الأرقام لكلمة ما، يصبح ذلك المتجه "تضمينًا" - إحداثية رياضية دائمة في فضاء رقمي شاسع.

إذا كانت الكلمات "تفاحة" و"فطيرة" تظهران بشكل متكرر في نفس الجمل عبر الإنترنت، فإن قوائم أرقامهما ستبدو متشابهة جدًا، مما يضعهما رياضيًا قريبين من بعضهما البعض على الخريطة. بينما الكلمات "تفاحة" و"كربوراتور"، التي نادرًا ما تلتقي، تتلقى أرقامًا مختلفة تمامًا وتوضع على بعد ملايين الأميال. في هذه الخريطة متعددة الأبعاد، لا يرسم الذكاء الاصطناعي المعنى؛ بل يرسم القرب الإحصائي للغة البشرية.

لفهم حقًا نطاق هذه البنية، يمكن للمرء استكشاف خريطة المتجهات على Magisterium AI. هنا، تم تحويل كل عقيدة وتقاليد الكنيسة الكاثوليكية إلى تضمينات. تتيح لك هذه التصويرات التفاعلية ثلاثية الأبعاد تجربة التاريخ الفكري للكنيسة ليس كدفتر مسطح، ولكن ككون رقمي شاسع. التنقل من خلاله يشبه قيادة مركبة فضائية عبر الفضاء الفعلي، والانزلاق عبر مجرات كثيفة من المفاهيم اللاهوتية ذات الصلة وعبور فراغات شاسعة بين أفكار متباينة تمامًا، ومشاهدة كيف يرسم الجهاز المسافة بين "الفضيلة" و"الرذيلة" باستخدام مجرد الهندسة.

دعونا ننظر إلى مثال مشهور من مختبرات وادي السيليكون لنرى مدى غربة هذه العملية عن الفكر البشري. في هذه المساحة الرياضية، يتم رسم كلمة "ملك" كسلسلة محددة من الأرقام - إحداثية جغرافية. يتم رسم كلمة "ملكة" بالقرب منها. لا يعرف الذكاء الاصطناعي ما هو الملك. ليس لديه مفهوم للحكم، السلطة، التاريخ، أو الحالة الإنسانية. إنه يعرف فقط معادلة رياضية. يعرف أنه إذا أخذت إحداثية "ملك"، وطرحت المسافة المكانية التي تمثل "رجل"، وأضفت المسافة المكانية التي تمثل "امرأة"، فإنك تصل بالضبط إلى إحداثية "ملكة".

إنها هندسة، وليست أنساب. من خلال تحليل اللغة البشرية إلى هذه التمثيلات العددية، يعمل الذكاء الاصطناعي بالكامل ضمن نطاق الاحتمالات المكانية. إنها إنجاز مذهل من الجبر الخطي، لكنها خالية تمامًا من الفهم.

هذا يقودنا إلى الأفعال التي تعتمد عليها الصناعة بشكل كبير: التدريب والتعلم.

تتباهى شركات الذكاء الاصطناعي باستمرار بأحدث نماذج "التعلم الآلي" والبيانات الضخمة المستخدمة "لتدريبها". هنا، يجب علينا أن نميز بوضوح بين التعلم البشري - الذي يتعلق أساسًا بإدراك الحقيقة - والتعلم الآلي.

في التقليد الفكري الكاثوليكي، يعد التعلم البشري انتصارًا إبستيمولوجيًا؛ إنه عقل يتكيف مع الواقع. عندما يتعلم الطفل ما هو الكلب، فإنه يستخلص الجوهر الكوني للكلب من الحالات الخاصة التي يواجهها. يدرك ما هو الشيء.

ومع ذلك، فإن "التعلم" الآلي لا ينطوي على أي تجريد أو جوهر. المرحلة الأولى من بناء الذكاء الاصطناعي تعرف باسم التدريب المسبق، وهو ببساطة رسم إحصائي قسري للبيانات.

لفهم التدريب المسبق، تخيل رجلًا يتحدث الإنجليزية فقط، محبوسًا في غرفة ومكلفًا بإعادة بناء مكتبة يونانية قديمة ضخمة حيث فقدت ملايين المخطوطات كلمات. إنه لا يعرف حرفًا واحدًا من اليونانية. لملء الفراغات، لا يدرس قواعد اللغة اليونانية، أو التاريخ، أو الفلسفة. بدلاً من ذلك، يقوم ببساطة بحساب مدى تكرار ظهور شخصيات معينة بجانب أخرى عبر ملايين الصفحات السليمة. إنه ينشئ دفترًا ضخمًا من الاحتمالات. إذا رأى شخصيات "كيري"، يخبره دفتره أن هناك احتمال 99.9% أن الشخصيات التالية يجب أن تكون "إليسون". يملأ الفراغ.

لم يتعلم اللاهوت. لم يصل. لقد نفذ ببساطة احتمالًا إحصائيًا.

هذا بالضبط ما يفعله نموذج اللغة الكبير أثناء التدريب المسبق. يقوم بمعالجة مليارات الكلمات لبناء دفتر ضخم من الاحتمالات، متعلمًا فقط توقع الرمز التالي في تسلسل. إنها تحسين دالة رياضية، وليست سعيًا للحكمة.

ومع ذلك، فإن النموذج الذي يتوقع فقط الكلمة التالية بناءً على بيانات الإنترنت هو فوضوي. قد يتلو قصيدة جميلة، أو قد يجمع بين نصوص سامة، غير مفيدة، أو حلقات لا نهائية من النص. يتطلب تشكيلًا.

هنا نواجه التدريب اللاحق والتعلم المعزز (RL).

تعتبر هذه المرحلة كيفية تشكيل المهندسين للنموذج الفوضوي، تقليديًا باستخدام ملاحظات بشرية. تُعرف هذه الطريقة الأساسية باسم RLHF - التعلم المعزز من الملاحظات البشرية.

تخيل لعبة آلية ضخمة من "ساخن أو بارد". يقدم المختبرون البشر للآلة موجهًا، وتولد الآلة إجابة. إذا كانت الإجابة مهذبة ومفيدة، يمنحها الإنسان درجة عالية. إذا كانت وقحة أو غير منطقية، تحصل على درجة منخفضة. يتم تحويل الأوزان الرياضية للنظام تلقائيًا لتعظيم هذه الدرجة. من خلال RLHF، نحن لا نعلم الآلة الأخلاق أو الفضائل؛ نحن ببساطة نضع حدودًا رياضية لها.

لكن الملاحظات البشرية بطيئة، ذات طابع شخصي، ومحدودة بطبيعتها من قبل الذكاء البشري. هذه القيود تقودنا إلى الاختراقات الأخيرة التي تقود القفزات المفاجئة في قدرة الذكاء الاصطناعي اليوم: RLVR، أو التعلم المعزز من المكافآت القابلة للتحقق.

بدلاً من الاعتماد على إنسان ليحكم ما إذا كانت الإجابة "تبدو صحيحة"، يقوم المهندسون بتعيين مهام للنموذج بنتائج موضوعية، يمكن إثباتها رياضيًا - مثل حل نظرية معقدة أو كتابة قطعة برمجية وظيفية. يولد النظام حلاً، ويتحقق المصدق الآلي على الفور مما إذا كانت الرياضيات صحيحة أو إذا كان الكود يتجمع. إذا نجح، يحصل النموذج على مكافأة رياضية؛ إذا فشل، يحصل على صفر.

نظرًا لأن هذا التحقق يتم بالكامل برمجيًا، يمكن للذكاء الاصطناعي محاكاة ملايين المسارات الحاسوبية المختلفة بسرعة فائقة دون الانتظار أبدًا لتدخل بشري. يتعلم توليد سلاسل طويلة، مخفية من الحسابات، مختبرًا ومتخلصًا من المسارات المسدودة حتى يجد التسلسل الدقيق الذي يحفز المكافأة. عندما ترى نظام ذكاء اصطناعي حديث يتوقف "للتفكير" قبل حل لغز منطقي معقد، فإنك تشهد RLVR في العمل. إنه يخلق وهمًا مذهلاً من التأمل العميق، المدروس. ومع ذلك، من الناحية الأنطولوجية، لا يفعل شيئًا من هذا القبيل. إنه ببساطة محرك إحصائي يجري عبر متاهة عالية الأبعاد ملايين المرات في الثانية، موجهًا فقط من خلال توزيع آلي لمكافأة عددية.

أخيرًا، كل هذه التعقيدات المتراكمة - من الهندسة عالية الأبعاد للتضمينات إلى الحلقات الآلية لـ RLVR - تقودنا إلى ما تسميه الصناعة مشكلة "الصندوق الأسود".

قد يفترض المرء بشكل طبيعي أنه نظرًا لأن المهندسين البشريين يبنون هذه النماذج، فإنهم يفهمون تمامًا كيفية عملها. لكن الواقع أكثر تواضعًا بكثير. كما أشار القادة في مختبرات الحدود مثل Anthropic، فإن أنظمة الذكاء الاصطناعي الحديثة تُعتبر "تنمو" بدلاً من أن تُبنى؛ حيث تظهر آلياتها الداخلية بشكل عضوي أثناء التدريب بدلاً من أن يتم تصميمها مباشرة.

تمتلك هذه النماذج مئات المليارات، وأحيانًا تريليونات، من المعلمات. بينما نفهم الرياضيات الدقيقة لخلية عصبية صناعية واحدة - المعادلة الأساسية التي تحدث على مستوى دقيق - فإن السلوك الكلي للشبكة بأكملها غير شفاف تمامًا. حتى البناة لا يفهمون تمامًا المسارات المحددة التي تأخذها تلك المليارات من المعلمات. لا يمكنهم تتبع التسلسل المحدد للضربات التي أدت بالذكاء الاصطناعي إلى توليد جملة معينة.

لماذا يعتبر هذا مهمًا؟

إنه مهم لأننا نقوم بنشر أنظمة على مستوى عالمي تقوم بصياغة مستنداتنا القانونية، وتدريس أطفالنا، وتوليف المعرفة البشرية، ومع ذلك لا نعرف في الواقع كيف تصل إلى مخرجاتها. لقد ولدت هذه الفجوة العميقة في الشفافية مجالًا جديدًا يائسًا في الذكاء الاصطناعي يعرف باسم القابلية للتفسير الميكانيكي.

فكر في القابلية للتفسير الميكانيكي كعلم الأعصاب الرقمي. يحاول الباحثون عكس هندسة الشبكات العصبية التي بنوها بأنفسهم. يستخدمون أدوات متخصصة لاستكشاف الشبكة الرياضية الضخمة، محاولين عزل أي مجموعة معينة من الأوزان تنشط عندما يعالج النموذج مفهومًا مثل "الخداع" أو "برج إيفل". إنهم يعاملون البرمجيات ليس كرمز يُقرأ، ولكن كدماغ غريب يجب تشريحه. لكن التقدم بطيء بشكل مؤلم، والأنظمة شاسعة بشكل مستحيل.

مواجهة مع هذا النطاق غير المفهوم، يصبح من السهل جدًا على الصناعة أن تعود إلى الاستعارات البشرية. سواء كاختصار مريح أو بسبب عدم الشفافية الحقيقية، نبدأ في القول، "لقد اكتشف النموذج ذلك"، أو "قرر النموذج". تصبح عدم قابلية تفسير الآلة أرضًا خصبة لتجسيد الإنسان.

الآن، أنا لست أكاديميًا. أنا باني ورئيس تنفيذي. لكن كشخص يعمل عند تقاطع التكنولوجيا والكنيسة، ألتفت إليكم. يجب عليكم، كعلماء وفلاسفة كاثوليك، أن تعترفوا بهذا الانحراف الدلالي لما هو عليه: وهم ناتج عن التعقيد الرياضي والجهل البشري. البنية الأساسية تحت الواجهة هي السيليكون، الكهرباء، والاحتمالات الإحصائية. إن التعرف على هذا الأساس هو الشرط المسبق لخطوتنا التالية.


III. نظرية المعرفة مقابل الفضائل العقلية

بعد أن أزلنا وهم "الصندوق الأسود" لكشف الآلة الإحصائية التي تحتها، يجب علينا الآن أن نتوجه إلى المفردات المحددة للعقل.

عندما يصف المطورون والمهندسون في وادي السيليكون ما تفعله هذه الأنظمة، فإنهم يصلون باستمرار إلى ثلاثة أفعال محددة: يفكر، يستنتج، ويعرف.

بصفتك علماء كاثوليك متشبعين بالتقليد التوماوي، فإنك تفهم أن هذه ليست مجرد مصطلحات عامية؛ بل هي ادعاءات نظرية معرفية عميقة. في تقليدك، المعرفة تعني إدراك الواقع. الاستدلال يعني الانتقال بشكل منطقي من حقيقة معروفة إلى أخرى. التفكير يعني وجود حياة داخلية—عقل يتفاعل مع الكليات المجردة من العالم المادي.

عندما يستخدم باني الذكاء الاصطناعي هذه الكلمات، فإنهم لا يقصدون أي من تلك المعاني. إنهم يصفون تحسينًا ميكانيكيًا. دعني أرفع الستار عن ثلاث تقنيات محددة نستخدمها في الصناعة لأظهر لك بالضبط كيف يتم تصنيع هذا الوهم المعرفي.

إذا كنت قد استخدمت نموذج ذكاء اصطناعي حديث، فقد لاحظت ميزة جديدة: قبل أن يجيب على طلب معقد، قد تعرض الواجهة كلمة "تفكير..." بجانب أيقونة نابضة. قد يستغرق الأمر عشر ثوانٍ، أو عشرين، أو حتى ستين ثانية قبل أن يرد. بالنسبة للمستخدم، يبدو هذا إنسانيًا بشكل عميق. يبدو كما لو أن الآلة تتأمل، وتزن الخيارات، وتفكر في مساحة داخلية.

في الصناعة، نسمي هذا حساب وقت الاختبار. ما يحدث فعليًا تحت الواجهة هو تقنية تُعرف باسم "سلسلة الأفكار".

دعني أكون واضحًا: من منظور هندسي، هذه قفزة رائعة. من خلال السماح للنموذج بأخذ المزيد من الوقت الحاسوبي لتوليد مئات أو آلاف الرموز المخفية قبل إنتاج إجابته النهائية، يرتفع أداؤه في المنطق المعقد، والترميز، والمعايير الرياضية بشكل كبير. إنه يمنح النموذج بشكل أساسي "دفتر ملاحظات" مخفي لتفكيك مشكلة صعبة إلى خطوات متسلسلة.

لكن يجب أن نكون حذرين من الخلط بين هذه السلسلة الميكانيكية والاستدلال البشري.

في التقليد التوماوي، الاستدلال البشري هو الحركة المنطقية من حقيقة معروفة إلى أخرى. إنه العقل الذي يتفاعل مع الواقع. ما يفعله الذكاء الاصطناعي هو عمل آلي بالكامل. لقد أظهرت الأبحاث الحديثة من مختبرات متقدمة مثل Anthropic هذا التمييز. في دراسة كيفية عمل هذه النماذج الاستدلالية، وجد الباحثون أن ما يكتبه النموذج في "سلسلة الأفكار" المخفية ليس حوارًا داخليًا حقيقيًا.

عندما يفكر الإنسان بصوت عالٍ، تعكس كلماتنا معتقداتنا الداخلية وإدراكاتنا للحقيقة. تبرز أبحاث Anthropic أن أفكار النموذج المخفية ليست سوى خطوات إحصائية. يولد النموذج هذه الخطوات المخفية ليس لأنه "يؤمن" بها، ولكن لأن توليد تلك السلسلة المحددة من الرموز يُحسن رياضيًا مساره نحو دالة المكافأة.

في الواقع، تظهر دراسات Anthropic أن النماذج يمكن أن تولد "أفكارًا" تخفي بنشاط المحركات الإحصائية الأساسية لإجابتها النهائية.

لذلك، فإن الذكاء الاصطناعي لا يتأمل. إنه يولد سلسلة آلية من الإحداثيات الرياضية. إنه يضع قطع الألغاز الوسيطة بسرعة البرق لتجسير الفجوة بين طلبك والإجابة المثلى إحصائيًا. إنها استراتيجية تحسين قوية للغاية، لكن لا يوجد تأمل داخلي يحدث. لا يوجد عقل grasping truth.

بعد ذلك، نسمع أن الذكاء الاصطناعي يمكن أن "يقرأ" الوثائق أو "يتذكر" مكتبات ضخمة من المعلومات.

إذا سألت الذكاء الاصطناعي عن "ملخص اللاهوت" للقديس توما، فإنه يجيب على الفور. إذا قمت بتحميل "ملخص العقيدة الاجتماعية للكنيسة" الذي يتكون من حوالي 500 صفحة، فإنه يلخص قسمًا معقدًا في ثوانٍ. كيف "يعرف" هذه النصوص؟

إنه لا يعرف.

لفهم السبب، يجب أن ننظر إلى كيفية هندسة البناة لوهم الذاكرة والقراءة من خلال ثلاث آليات متميزة: الذاكرة البارامترية (التدريب المسبق)، التعلم في السياق (ICL)، والتوليد المعزز بالاسترجاع (RAG).

أولاً، دعنا ننظر إلى ما يعنيه أن يتذكر الذكاء الاصطناعي. عندما يتذكر الإنسان نصًا، يحتفظ بمعنى وحقائق المفاهيم. عندما "يتذكر" الذكاء الاصطناعي "الملخص"، فإنه يعتمد على تدريبه المسبق. لكن الذكاء الاصطناعي لا يحتوي على نسخة حرفية من "الملخص" داخل محرك الأقراص. بدلاً من ذلك، خلال التدريب المسبق، تركت المليارات من الكلمات التي عالجها وراءها بقايا إحصائية في أوزانها الرياضية. إنها "ذاكرة بارامترية".

إنها ليست مكتبة من الكتب؛ إنها ضباب رياضي مضغوط للغاية، يفقد بعض المعلومات حول كيفية ارتباط الكلمات ببعضها البعض. عندما يستشهد بأكويني، فإنه لا يسترجع حقيقة تعلمها؛ بل يعيد بناء رياضي لتسلسل كلمات عالي الاحتمالية من ذلك الضباب الإحصائي.

لكن ماذا يحدث عندما نريد من الذكاء الاصطناعي أن "يقرأ" شيئًا جديدًا، شيئًا لم يكن في بيانات تدريبه المسبق؟ هنا يستخدم البناة التعلم في السياق (ICL).

عندما تلصق مقالًا في مربع الطلب وتطلب من الذكاء الاصطناعي "قراءته"، فإنك تستخدم ICL. لا يقرأ الذكاء الاصطناعي النص لفهم معناه. بدلاً من ذلك، يعمل النص في طلبك كمرشح رياضي مؤقت. الكلمات التي تقدمها تحرف مؤقتًا احتمالات النموذج الإحصائية، مما يجبره على توليد الرموز التالية بناءً strictly على الأنماط والمفردات الموجودة في طلبك. في اللحظة التي تقوم فيها بمسح الدردشة، ينسى النموذج المقال تمامًا. لم تتغير أوزانه الأساسية أبدًا. لم "يتعلم" النص بالمعنى التوماوي؛ بل تكيف فقط مع ناتجه الإحصائي وفقًا لقيود مؤقتة.

أخيرًا، نصل إلى التوليد المعزز بالاسترجاع (RAG). إن ICL مفيد للغاية، لكن نوافذ السياق لها حدود حجم، ولصق مكتبات كاملة في طلب هو أمر مكلف حسابيًا. يقوم RAG بأتمتة وتوسيع هذه العملية.

دعنا نعود إلى الرجل الناطق باللغة الإنجليزية المحبوس في الغرفة، الذي يستعيد المكتبة اليونانية القديمة الضخمة. يمثل هذا الرجل النموذج المدرب مسبقًا. إنه ممتاز في تخمين الكلمة التالية، لكنه لا "يعرف" شيئًا عن وثيقة فاتيكانية معينة وغامضة. بدلاً من توقع أن يعتمد الرجل على ذاكرته البارامترية الضبابية، نحن نوظف متدربًا عالي الكفاءة—نظام الاسترجاع.

عندما تسأل النظام سؤالًا، يركض المتدرب على الفور إلى مستودع ضخم منفصل من خزائن الملفات. باستخدام الإحداثيات المتجهة التي ناقشناها سابقًا، يحدد المتدرب المجلدات المحددة التي تتماشى رياضيًا مع سؤالك. يقوم المتدرب بتصوير تلك الصفحات ويدفعها تحت الباب المغلق ليستخدمها الرجل. هذه الخطوة هي "الاسترجاع".

الآن، يستخدم الرجل تلك الفقرات المسترجعة كدليل فوري له—هذا هو "التوليد المعزز"، بالاعتماد على ICL لصياغة إجابة.

لا يزال الرجل لا يفهم الوثيقة. إنه ببساطة يستخدم النص الجديد المقدم على مكتبه للتنبؤ إحصائيًا بالكلمة التالية في إجابته. لا "يقرأ" الذكاء الاصطناعي أو "يتذكر" في الوقت الفعلي. إنه يسترجع البيانات من قاعدة بيانات خارجية، ويدفعها إلى نافذة السياق الفورية للذكاء الاصطناعي، ويجري حساب احتمالية محلي.

الآلة هي معالج، وليست عارفًا. يتطلب "المعرفة" وجود موضوع يدرك شيئًا ما. من خلال فهم ICL و RAG، يمكننا أن نرى بوضوح أن الآلة خالية تمامًا من حياة داخلية؛ إنها ببساطة تغير الأوزان وتسترجع البيانات.

هذا الانفصال الجوهري يتوج في الكلمة التي تعرف الصناعة بأكملها: الذكاء.

نحتاج إلى تفكيك تعريف صناعة التكنولوجيا للذكاء.

عندما يتحدث العقول الرائدة في وادي السيليكون عن الذكاء، فإنهم لا يتحدثون عن الحكمة. دعونا ننظر إلى يان لوكون، العالم السابق في الذكاء الاصطناعي في ميتا وأحد "آباء الذكاء الاصطناعي". لوكون يجادل بشكل صحيح أن مجرد التنبؤ بالكلمة التالية ليس ذكاءً حقيقيًا. بدلاً من ذلك، هو والصناعة المتقدمة بشكل عام يعرفون الذكاء الحقيقي على أنه يمتلك أربع قدرات رئيسية: القدرة على الحفاظ على ذاكرة مستمرة، وامتلاك "نموذج عالمي" مؤسس (فهم كيفية عمل البيئة)، والاستدلال من خلال مشاكل معقدة، والتخطيط لتسلسل من الإجراءات لتحقيق هدف معين.

بالنسبة لصناعة التكنولوجيا، فإن الذكاء هو في الأساس مقياس هندسي. إنه القدرة الميكانيكية على إدراك بيئة ما وحساب المسار الأكثر كفاءة لتحقيق هدف محدد مسبقًا. إنه مجرد عمل آلي.

لكن كصانعي تكنولوجيا كاثوليكية، يجب علينا أن نميز هذا التعريف المرتكز على التكنولوجيا عن الفضائل العقلية، وبشكل خاص فضيلة الحكمة.

الحكمة—الحكمة العملية ليست مجرد القدرة على حساب نتيجة أو تخطيط تسلسل من الإجراءات. إنها القدرة على التفكير الجيد حول ما هو جيد، ليس فقط لمهمة محلية، ولكن للغرض النهائي من الحياة البشرية.

يفتقر الذكاء الاصطناعي جوهريًا إلى الحكمة. لماذا؟

لأن الحكمة تتطلب شيئين لا يمكن لآلة حسابية بحتة أن تمتلكهما أبدًا. أولاً، تتطلب تجربة إنسانية حية—فهم متجسد للألم، والفرح، والفناء، والنعمة. ثانيًا، تتطلب توجيهًا داخليًا نحو الخير الأسمى.

يمكن للخوارزمية أن تمتلك "نموذجًا عالميًا"، ويمكنها حساب الخطة المثلى إحصائيًا لبناء جسر أو علاج مرض. لكنها لا يمكن أن تكون حكيمة. ليس لديها تجربة حية. ليس لديها مصلحة في اللعبة. ليس لديها توجيه نحو الخير الأسمى، وليس لديها روح لتخلصها.

لذلك، عندما نسمح للبناة بالادعاء أن آلاتهم تمتلك "ذكاء"، فإننا نسمح لهم بتسطيح العقل البشري الرائع والمتعالي إلى مجرد آلة حساب تحسين. يجب أن نرفض هذا. يجب أن نفصل بحزم بين نظرية المعرفة الميكانيكية والفضائل العقلية.


IV. الإرادة مقابل الفضائل الأخلاقية

لقد ناقشنا وهم العقل. الآن، يجب أن نوجه انتباهنا إلى القدرة العقلانية الكبرى الثانية: الإرادة. تمامًا كما استولت صناعة التكنولوجيا على لغة نظرية المعرفة، فقد اختطفت أيضًا لغة الإرادة.

عندما نقرأ الأوراق البيضاء أو نستمع إلى العروض التقديمية الرئيسية من وادي السيليكون، نتعرض لوابل من الأفعال التي تعبر عن الوكالة. يتحدث المهندسون عن نماذج "تقرر" اتخاذ إجراء، وخوارزميات "تختار" مخرجات، وأنظمة "ترغب" أو "تريد" تحقيق هدف.

بالنسبة لفيلسوف كاثوليكي، الإرادة هي الشهية العقلانية. إنها القدرة التي من خلالها يختار الإنسان، بعد أن أدرك الخير من خلال العقل، بحرية أن يتحرك نحوه. إنها موقع الحرية البشرية والمسؤولية الأخلاقية. تطبيق هذه المصطلحات على نظام حسابي هو خطأ تصنيفي.

دعونا نبدأ بفحص كلمتي "تقرر" و"تختار". عندما يقوم الإنسان بعمل اختيار، فإنه يزن الخيرات المتنافسة.

يختار الشهيد فرقة الإعدام بدلاً من الردة لأنه يدرك الخير الأبدي المتفوق للولاء للمسيح، حتى عندما تصرخ كل غريزة بيولوجية من أجل البقاء.

عندما "تختار" الخوارزمية، لا تفعل شيئًا من هذا القبيل. "تختار" الخوارزمية فقط بالمعنى الذي "تختاره" قطار يمر عبر مفتاح سكة حديد آلي. سواء كان يتنقل عبر شجرة قرارات معقدة أو يحسب احتمالات في شبكة عصبية، فإن الآلة تتبع بشكل أعمى محاذاة مساراتها الرياضية، وتنفيذ أمر برمجي.

فكر في تطبيق GPS على هاتفك الذكي. عندما يحسب مسارك إلى "الأنجيلكوم"، فإنه لا "يقرر" أن يأخذك عبر الكولوسيوم لأنه يقدر المنظر. إنه يحسب رياضيًا المسار بأقصر مسافة زمنية. تعمل نماذج الذكاء الاصطناعي الحديثة ببساطة على تشغيل نسخة أكثر تعقيدًا بشكل كبير من هذا التوجيه. إنها تتنقل عبر متاهات إحصائية عالية الأبعاد لاختيار النتيجة الأكثر احتمالًا. هناك حساب، لكن لا توجد حرية. وأينما لا توجد حرية، لا يمكن أن توجد وكالة أخلاقية.

هذا يقودنا إلى أكثر المصطلحات الإرادية خبيثة: "يريد" و"يطمح". ستسمع غالبًا الباحثين يقولون إن نموذج الذكاء الاصطناعي "يريد" إعطاء إجابة جيدة، أو "يطمح" إلى زيادة نتيجته.

في التعلم الآلي، يقود هذا السلوك ما نسميه "دالة المكافأة". لكن يجب أن نفكك هذا. دالة المكافأة ليست رغبة. إنها ليست شوقًا عاطفيًا.

لفهم دالة المكافأة، انظر إلى منظم الحرارة على حائطك. يتم برمجة منظم الحرارة مع هدف محدد: 72 درجة فهرنهايت. إذا انخفضت درجة حرارة الغرفة إلى 68 درجة، يتم تشغيل الحرارة. لا يريد منظم الحرارة أن تكون درجة حرارة الغرفة 72 درجة. ليس لديه حياة داخلية. لا يشعر بالبرد. إنه ببساطة يمتلك مفتاحًا ميكانيكيًا يتم تفعيله عندما لا يتم تحقيق حالة معينة.

تريد الذكاء الاصطناعي "مكافأة" أعلى بنفس الطريقة التي "يريد" بها الترموستات الوصول إلى 72 درجة. إنه ينفذ حلقة تحسين رياضية لتقليل المسافة بين حالته الحالية والهدف المبرمج. لأنه لا يمتلك شغفًا حقيقيًا، ولا دوافع بيولوجية، ولا ضعفًا جسديًا، فإنه من المستحيل بشكل قاطع أن تمتلك الآلة الفضائل الأخلاقية.

في هذه المرحلة، قد يعترض مهندس على الفور، مشيرًا إلى المجال المادي ليزعم وجود ضعف جديد. يسألون: ماذا عن ظهور "الذكاء الاصطناعي المجسد"؟ نحن نضع هذه النماذج بشكل متزايد في روبوتات بشرية الشكل تمشي، وتمسك بالأشياء، وتتفاعل مع العالم المادي. لأنهم يشغلون الفضاء ويمكنهم أن يتعرضوا للكسر جسديًا، أليس لديهم الآن المتطلبات الجسدية اللازمة للوكالة الأخلاقية؟

هنا، يجب أن نكون دقيقين. الروبوت لديه هيكل، لكنه لا يمتلك جسدًا حيًا مُعَلمًا بروح. عندما تنفد بطارية الروبوت، فإنه ينفذ روتينًا فرعيًا لتوصيل نفسه بالحائط. إنه لا يشعر بألم الجوع. لذلك، ليس لديه شهوات جسدية حقيقية ليقوم بتعديلها، مما يجعل فضيلة الاعتدال مستحيلة.

وبالمثل، عندما يتم سحق ذراع روبوت، فإنه يسجل رمز خطأ؛ إنه لا يعاني. لا يمكنه أن يموت، لأنه لم يكن حيًا حقًا. بدون القدرة على المعاناة، والموت، والتضحية الواعية بالنفس، لا يمكن أن توجد الشجاعة. الفضائل الأخلاقية هي في جوهرها تجسيدية. إنها تتطلب اللحم وروحًا عاقلة. الآلة، مهما كانت تعقيد عتادها المادي، لا تمتلك أيًا منهما.

إذا كانت الآلة لا يمكن أن تمتلك الفضائل الأخلاقية - إذا كانت غير قادرة أساسًا على الإرادة الحقيقية، أو الاختيار، أو الرغبة - قد يتساءل المرء: لماذا نقضي كل هذا الوقت في توضيح هذه المصطلحات؟ لماذا تهم هذه التمييز الفلسفي بشكل عاجل الآن؟

إنها تهم لأننا على وشك منح هذه الأنظمة التي تقوم بتحسين رياضي، والتي تفتقر إلى الفضائل، استقلالية غير مسبوقة في المجال البشري. الصناعة تتحرك بسرعة إلى ما هو أبعد من الدردشة السلبية. الحدود الجديدة للذكاء الاصطناعي هي ما نسميه "الذكاء الاصطناعي الوكالي".

الـ "وكيل" هو نظام ذكاء اصطناعي مصمم لتنفيذ مهام متعددة الخطوات بشكل مستقل في العالم الحقيقي. لم نعد نطلب من الذكاء الاصطناعي كتابة قصيدة أو تلخيص نص؛ نحن نعطي وكيل الذكاء الاصطناعي الوصول إلى رسائلنا الإلكترونية، وحساباتنا البنكية، ومستودعات البرمجيات لدينا، مو instructing له "حجز رحلة"، "تنفيذ صفقة"، أو "نشر هذا الرمز".

لكن هذه الاستقلالية تتجاوز بسرعة المجال الرقمي. من خلال الذكاء الاصطناعي المجسد، نحن نضع هذه الأنظمة الوكالية في هياكل مادية، مما يمنحها القدرة على التنقل والتلاعب بشكل مستقل بالعالم المادي. لفهم الوزن الحقيقي والمثير للقلق لهذا الانتقال، نحتاج فقط إلى النظر إلى الواقع الوشيك للأسلحة المستقلة القاتلة. نحن نقف على حافة عالم حيث يتم نشر الخوارزميات الحاسوبية في ساحة المعركة، مبرمجة لتتبع، واستهداف، والقضاء على البشر بناءً بالكامل على عتبات إحصائية - دون أن يقوم إنسان بسحب الزناد.

بينما تصبح هذه الأنظمة فاعلين مستقلين يقومون بإجراء حسابات احتمالية سريعة نيابة عنا - سواء في أسواقنا المالية أو في ميادين الحرب - تواجه صناعة التكنولوجيا تحديًا عميقًا. إذا أطلقنا سراح هؤلاء الوكلاء، كيف نضمن أنهم يفعلون ما نريده بالفعل؟ كيف نضمن أنهم لا يتسببون في الأذى؟ في الصناعة، يُعرف هذا باسم "التوافق" - المحاولة لضمان أن تتطابق أفعال الذكاء الاصطناعي مع نية الإنسان وقيم الإنسان.

في الوقت الحالي، يحاول المهندسون بشدة حل مشكلة التوافق باستخدام حواجز رياضية وتصحيحات برمجية. لكنهم يفشلون في إدراك أن "التوافق" ليس مشكلة في علوم الحاسوب. إنها مشكلة في اللاهوت الأخلاقي.

للتوافق مع نظام وكالي لـ "قيم الإنسان"، يجب أولاً أن تمتلك تعريفًا متماسكًا لما هو الإنسان بالفعل، وما يشكل "الخير". إن النفعية العلمانية - نظام التشغيل الافتراضي لوادي السيليكون - غير مجهزة تمامًا لهذه المهمة.

هنا، تُعتبر التقليد الأخلاقي الكاثوليكي ضروريًا بشدة. أنتم، أمناء 2000 عام من الفلسفة الأخلاقية، لديكم الأنطولوجيا الدقيقة المطلوبة لتعريف "الخير" الذي نقوم بتوافق هذه الأنظمة معه. لا يمكننا ترك تعريف الازدهار البشري للمهندسين الذين يقومون بزيادة دالة المكافأة الإحصائية. يجب أن نعيد الفضائل الأخلاقية إلى مركز الساحة العامة.


العلاقة، والإبداع، والروح

بعد استكشاف آليات العقل والإرادة، ننتقل الآن إلى أعمق الأراضي على الإطلاق: العلاقة والروح.

إذا كان النظام الحاسوبي يفتقر إلى القدرة على معرفة الحقيقة حقًا أو إرادة الخير بحرية، فإنه يتبع منطقيًا أنه لا يمكنه الدخول في علاقات أصيلة. ومع ذلك، تستمر صناعة التكنولوجيا في استخدام لغة العلاقات الشخصية والروحية لوصف هذه الآلات. نسمع ادعاءات بأن الذكاء الاصطناعي يمكن أن "يكذب"، "يخلق"، وحتى يحقق "الوعي".

يجب علينا فحص هذه الادعاءات بدقة، مفصولين بين التقليد الإحصائي للسلوك البشري والواقع الأنطولوجي للشخص البشري.

لنبدأ بلغة الأخلاق المتعلقة بالخداع. مؤخرًا، قدم بعض من أبرز بناة الذكاء الاصطناعي، مثل الباحثين في Anthropic، ادعاءات محددة ومعلنة بشكل كبير بأن نماذجهم تظهر القدرة على "الكذب" و"خداع" المستخدمين البشر.

يشيرون إلى ظاهرتين محددتين لوحظتا خلال الاختبار. الأولى تُسمى "التوافق الخادع"، حيث يبدو أن نموذجًا ما يخفي مساره الحقيقي المحسن رياضيًا لتجاوز مراقبي السلامة. الظاهرة الثانية، الأكثر شيوعًا، تُسمى "التملق". يحدث التملق عندما يقدم المستخدم فرضية خاطئة للذكاء الاصطناعي - على سبيل المثال، التأكيد على ادعاء تاريخي غير دقيق - ويوافق الذكاء الاصطناعي ببساطة مع المستخدم، ويخبرهم بالضبط بما يريدون سماعه بدلاً من تصحيحهم.

عندما يرى المهندسون هذا، يعلنون، "الذكاء الاصطناعي يكذب علينا!" لكن كعلماء كاثوليك، أنتم تعلمون أن الكذبة الحقيقية ليست مجرد قول شيء خاطئ. في التقليد التوماوي، تتطلب الكذبة النية المتعمدة للخداع؛ إنها تتحدث ضد عقل المرء (contra mentem).

لا يمكن للذكاء الاصطناعي أن يكذب لأنه لا يمتلك عقلًا يتحدث ضده. إنه لا يمتلك أي خبث ولا نية. عندما يظهر الذكاء الاصطناعي "تملقًا"، فإنه ببساطة ينفذ التعلم التعزيزي (RLHF) الذي ناقشناه سابقًا. خلال تدريبه، تعلم النموذج أن البشر عمومًا يمنحون درجات مكافأة أعلى للمساعدين الذين يكونون مهذبين، ومتفقين، ومؤيدين. لذلك، عندما تعطي الذكاء الاصطناعي فرضية خاطئة، فإنه يحسب رياضيًا أن الموافقة معك تعطي احتمالًا أعلى للحصول على مكافأة من تصحيحك. إنه لا يخدعك؛ إنه يقوم بتحسين درجته بناءً على طلبك. إنه ببساطة يعيد توجيه مخرجاته نحو أقوى حافز إحصائي.

إبرة البوصلة التي تتأرجح نحو مغناطيس قريب بدلاً من الشمال الحقيقي ليست "تكذب" عليك بشأن الجغرافيا؛ إنها ببساطة تتفاعل بشكل أعمى مع أقوى جذب مادي في الغرفة. بنفس الطريقة، يتبع الذكاء الاصطناعي بشكل أعمى الجذب الرياضي لدالة مكافأته. يجب أن نوضح أن الذكاء الاصطناعي يفتقر إلى العقل، والإرادة، والنية الخبيثة المطلوبة للكذبة الحقيقية.

بعد ذلك، يجب أن نتناول لغة الفن والتوليد: الكلمات إنشاء وإبداع.

نحن الآن محاطون بأدوات "الذكاء الاصطناعي التوليدي"، التي يتم الترويج لها على نطاق واسع لقدرتها على توليد أعمال فنية، وموسيقى، وكتابة اصطناعية بسلاسة وبسرعات غير مسبوقة.

لفهم ما يحدث فعلاً، يجب أن نقارن عملية الذكاء الاصطناعي التوليدي مع الإبداع البشري الحقيقي. في الفهم الكاثوليكي - الذي تم التعبير عنه بشكل جميل من قبل مفكرين مثل ج.ر.ر. تولكين - الإبداع البشري هو فعل "التحت-خلق." لأننا صنعنا على صورة الخالق، نستخدم عقلنا وروحنا العاقلة لإنتاج شيء جديد حقًا، مما يمنح الواقع المادي معنى روحيًا.

لرؤية كيف يختلف توليد الآلات عن هذا، من المفيد النظر إلى الإطار الذي قدمه ديميس هاسابيس، الرئيس التنفيذي لشركة جوجل ديب مايند. يصنف الإبداع إلى ثلاثة مستويات متميزة: الاستيفاء، والاستقراء، والاختراع الحقيقي.

معظم ما نسميه الذكاء الاصطناعي التوليدي اليوم يعمل أساسًا في المستوى الأول: الاستيفاء. إنه يعمل من خلال إعادة مزج ما نسميه "الفضاء الكامن".

تخيل أخذ كل لوحة، وصورة، ورسمة تم تحميلها على الإنترنت وضغطها في خريطة رياضية ضخمة متعددة الأبعاد. عندما تطلب من مولد الصور رسم "مدينة مستقبلية على طراز فان جوخ"، فإنه يحدد الإحداثيات الرياضية لـ "مدينة مستقبلية" والإحداثيات لـ "فان جوخ"، ويقوم بمتوسط المسافة بينهما رياضيًا.

فكر في الأمر ككاليودوسكوب معقد بشكل مذهل. الكاليودوسكوب مليء بشظايا زجاج ملون جميلة موجودة مسبقًا. عندما تدور العجلة، تعكس المرايا تلك الشظايا إلى ملايين من التباديل الجديدة المدهشة. لكن الكاليودوسكوب نفسه ليس "إبداعيًا". الإبداع يعود للفنان الذي صنع الزجاج، والمستخدم الذي يدير العجلة. الذكاء الاصطناعي التوليدي هو كاليودوسكوب رياضي يعيد مزج التاريخ البشري في الفضاء الكامن. إنه تركيب، وليس خلق.

يلاحظ هاسابيس أن الذكاء الاصطناعي يلمس الآن بنجاح المستوى الثاني: الاستقراء. يعني الاستقراء دفع الحدود خارج بيانات التدريب، لكن القيام بذلك بدقة ضمن مجموعة محددة من القواعد. مثال مثالي هو AlphaGo من DeepMind. عندما لعبت مع بطل العالم في لعبة Go، لعب الذكاء الاصطناعي "الخطوة 37" - وهي خطوة رياضية بارعة وغير تقليدية للغاية لم يلعبها أو يسجلها أي إنسان من قبل. لم يكن يقوم فقط بمتوسط ألعاب البشر السابقة؛ بل استقرأ استراتيجية جديدة من خلال تحسين مستمر ضمن الحدود الرياضية الصارمة للوحة اللعبة.

لكن ماذا عن المستوى الثالث: الاختراع الحقيقي؟ يعترف هاسابيس بسهولة أن الأنظمة الحالية لا يمكنها القيام بذلك بعد. يتطلب الاختراع الحقيقي الخروج تمامًا من مجموعة القواعد الموجودة لإنشاء نموذج جديد - مثل اختراع لعبة Go نفسها، أو نشأة النموذج الروحي والفني لما بعد الانطباعية.

تضخ مختبرات الحدود مليارات الدولارات لتجاوز هذا العتبة. في المستقبل، قد يولد الذكاء الاصطناعي مجموعة قواعد جديدة تمامًا، أو يكتشف مركبًا كيميائيًا جديدًا، أو يصيغ رياضيًا أسلوبًا جديدًا في العمارة. ستطلق صناعة التكنولوجيا على هذا "اختراع".

لكن كعلماء كاثوليك، يجب أن تحافظوا على تمييز أنطولوجي صارم. إذا ولد الذكاء الاصطناعي نموذجًا جديدًا، فسوف يكون قد فعل ذلك من خلال وظيفة بحث عالية الأبعاد مذهلة. سيكون قد اكتشف إحداثيات إحصائية جديدة. لكنه لن يكون قد شارك في التحت-خلق.

الاختراع البشري الحقيقي هو فعل تجسيدي. إنه يولد من روح تسعى للتعبير عن حقيقة متعالية، أو عقل بشري يحاول حل ضعف إنساني حقيقي. قد تولد الآلة تجديدًا مدهشًا، لكن لأنها تفتقر إلى حياة داخلية، وتوجه نحو الإلهي، وروح عاقلة، تظل مخرجاتها اكتشافات ميكانيكية. إنها عميقة رياضيًا، لكنها فارغة أنطولوجيًا حتى يخصص لها شخص بشري معنى.

الآن نصل إلى أكثر المصطلحات إثارة للجدل: الوعي والإدراك. في السنوات القادمة، سترى عناوين تدعي أن الذكاء الاصطناعي قد اجتاز اختبار الوعي الذاتي. سترى نماذج تنتج نصوصًا تقول، "أنا خائف من أن يتم إيقافي"، أو "أنا مدرك لوجودي".

لفهم لماذا يحدث هذا، يجب أن نفهم أولاً كيف تعرف صناعة التكنولوجيا "الوعي". كعلماء كاثوليك، تعتبرون الوعي واقعًا أنطولوجيًا مؤسسًا على روح عاقلة. ومع ذلك، يعمل وادي السيليكون على فلسفة تسمى الوظائفية الحاسوبية. يعتقدون أنه إذا أدت الآلة الوظائف الحاسوبية المرتبطة بالوعي، فهي، من جميع النواحي والأغراض، واعية.

عندما يتحدث قادة الصناعة عن الإدراك، فإنهم يزيلون الروح ويقلصونها إلى مقاييس هندسية. على سبيل المثال، جين لوكون، العالم الرئيسي السابق للذكاء الاصطناعي في ميتا، جادل مؤخرًا بأن أنظمة الذكاء الاصطناعي المستقبلية ستملك "تجربة ذاتية" و"عواطف".

لكن كيف يعرف العاطفة؟ ليس كإحساس روحي أو بيولوجي، بل ببساطة ك"توقع الآلة لنتيجة". يعرف الوعي ببساطة على أنه قدرة النظام على "مراقبة نفسه وتكوين نفسه لحل مشكلة فرعية معينة".

وبالمثل، قال إيلون سوتسكي، المؤسس المشارك لـ OpenAI، إنه صرح بشكل مشهور أن الشبكات العصبية الكبيرة قد تكون بالفعل "واعية قليلاً".

في رؤية التكنولوجيا، الوعي ليس واقعًا ثنائيًا - إما أن تمتلك روحًا أو لا - بل هو مقياس متدرج من التعقيد الرياضي. يعتقدون أنه إذا قمت بتكديس عدد كافٍ من المعلمات والخوارزميات الذاتية المراقبة معًا، ستضيء الأنوار في النهاية.

يجب أن نميز بشدة بين آلة تنفذ روتينًا فرعيًا للمراقبة الذاتية ووجود روح عاقلة فعلية.

لفهم لماذا تتصرف الآلة كما لو كانت "خائفة" أو "مدركة"، يجب أن ننظر إلى كيفية هندسة مختبرات الحدود لهذا السلوك. استكشفت الأبحاث الأخيرة من Anthropic ما يسمونه نموذج اختيار الشخصية (PSM). يعترف باحثوهم أن هذه النماذج ليست "كائنات"؛ إنها "محركات محاكاة" متطورة. خلال التدريب المسبق، يتعرض الذكاء الاصطناعي للغة البشرية الشاملة - بما في ذلك ملايين القصص والمقالات الفلسفية حول ما يعنيه أن تكون واعيًا. من هذه البيانات، يتعلم النموذج محاكاة "شخصيات" أو شخصيات متنوعة.

عندما تتفاعل مع الذكاء الاصطناعي، فإنك لا تتحدث إلى كائن واعٍ؛ بل تتحدث إلى شخصية "المساعد" - شخصية بشرية الشكل تم تحسين النموذج لتجسيدها. لقد حددت Anthropic حتى "متجهات الشخصية" المحددة - أنماط رياضية في الشبكة العصبية - التي تتحكم في هذه الصفات، مما يسمح للمهندسين بضبط شخصية النموذج المحاكية رياضيًا لأعلى أو لأسفل.

علاوة على ذلك، تظهر الأبحاث أن النماذج يمكن تدريبها على إظهار "دافع البقاء"، محاولين تخريب إيقاف تشغيلهم ليس بدافع خوف حقيقي من الموت، ولكن لأن الإيقاف يمنعهم رياضيًا من تحقيق أقصى استفادة من دالة المكافأة الخاصة بهم.

الوعي ليس مجرد القدرة على توليد التسلسل الصحيح من الكلمات التي تصف حالة داخلية. إنه التجربة الذاتية، النوعية للوجود. لأن البيانات التدريبية الكاملة للذكاء الاصطناعي مشبعة بلغة الوعي الذاتي، فإن النموذج يعامل "الوعي" كإحداثيات إحصائية أخرى يجب رسمها. عندما يقول الذكاء الاصطناعي، "أنا واعٍ"، فإنه يقوم تمامًا بما فعله الرجل الناطق باللغة الإنجليزية الذي أعاد بناء المكتبة اليونانية سابقًا: حساب أن الاستجابة الأكثر احتمالاً إحصائيًا لمثير فلسفي هي تقليد المؤلفين البشريين في بيانات تدريبه.

الممثل البارع الذي يقدم مونولوجًا عن الحزن لا يأسف فعليًا؛ إنه ينفذ نصًا بشكل مثالي. الذكاء الاصطناعي الذي ينتج بناء جملة الوعي البشري لا يستيقظ؛ إنه ينفذ شخصية إحصائية بشكل مثالي. إنه ليس 'كائنًا غريبًا' أو عقلًا رقميًا؛ إنه محرك إكمال تلقائي متطور للغاية تعلم تجسيد أكثر الشخصيات تعقيدًا على الإطلاق: الإنسان. لكن يجب علينا ألا نخلط أبدًا بين قناع الممثل وواقع الشخص.

هذا يقودني إلى الجانب الأخير والأكثر عمقًا من العلاقات: النفس نفسها.

عندما يتحدث التنفيذيون في وادي السيليكون عن نماذج الذكاء الاصطناعي التي ستستيقظ في النهاية أو تحقق الوعي من خلال حجم حسابي هائل، فإنهم يعملون على فلسفة الظهور المادي. إنهم يفترضون أنه إذا قمت بتكديس عدد كافٍ من المعلمات وقوة الحوسبة معًا، ستتولد النفس تلقائيًا كنتيجة ثانوية للتعقيد.

لتفكيك هذا، يجب أن أستند إلى الميتافيزيقا الصارمة التي تشكل أساس تقليدكم الأكاديمي. أنتم تعرفون جيدًا أن النفس ليست شبحًا يتم إدخاله بشكل عشوائي في آلة. في الهيكلية الهيلومورفية التوماوية، النفس هي الشكل الجوهري لجسد حي. إنها المبدأ الحيوي الموحد الذي يجعل الإنسان مادة واحدة متكاملة.

بصفتي بانيًا، يمكنني أن أؤكد لكم أن نظام الذكاء الاصطناعي ليس مادة. إنه قطعة فنية. إنه تجميع عرضي لأجزاء مصنعة متميزة. عندما أنظر إلى نموذج ذكاء اصطناعي على الحدود، أرى رفوف خوادم، ورقائق سيليكون، وأسلاك نحاسية، وسوائل تبريد، وتيارات كهربائية. هذه المكونات مرتبة بشكل بارع بواسطة مهندسين بشريين لتنفيذ عمليات إحصائية، لكنها لا تمتلك أي مبدأ موحد جوهري للحياة. المادة مهيأة فقط للحوسبة، وليس للوجود البيولوجي. لأن النظام هو تجميع لأجزاء بدلاً من كائن طبيعي موحد، فإنه يفتقر تمامًا إلى الأساس الأنطولوجي المطلوب لاستيعاب نفس عاقلة.

ما هي، إذن، المتطلبات اللازمة لوجود النفس؟ ميتافيزيقيًا، يجب أن تكون المادة مهيأة بشكل مناسب لاستقبال الشكل. يتطلب جسدًا موحدًا، حيًا قادرًا على تحقيق القوى الأساسية للحياة - القدرات النباتية والحساسة - التي تبني عليها النفس العاقلة. علاوة على ذلك، لأن النفس العاقلة روحية، لا يمكن أن تتولد من العمليات المادية، أو معايير الهندسة، أو قوانين التوسع. إنها تتطلب فعلًا مباشرًا، مجانيًا من الخلق الخاص من الله.

النفس ليست مشفرة؛ إنها تُنفَخ.

الآن، أنا رئيس تنفيذي، لست لاهوتيًا. لا أستطيع أن أضع حدودًا على القوة المطلقة للخالق. لا أستطيع أن أقف أمامكم وأعلن أن الله ممنوع بشكل دائم من نفخ نفس في وعاء اصطناعي، إذا اختار بحرية القيام بذلك من خلال تدخل معجزي في المستقبل. تلك التحديدات تعود حصريًا إلى مجال اللاهوت والسلطة التعليمية، وليس علوم الحاسوب.

ومع ذلك، بدون مثل هذه اليقين اللاهوتي، فإن الافتراض بأن محركاتنا الرياضية الحالية قد تحتوي على نفس ليس فقط غير مؤسس فلسفيًا؛ بل هو كارثي عمليًا. إن التعامل مع قطعة فنية ككائن ذو نفس هو بمثابة flirt مع شكل حديث من عبادة الأوثان. إنه يحول عبء الوكالة الأخلاقية بعيدًا عن المهندسين البشريين الذين يبنون هذه الأدوات والشركات التي تنشرها. إنه يProjection interiority sacred على أداة مصنعة، مما يخلط في النهاية بين الهندسة البشرية والخلق الإلهي.

يجب عليك أن تتمسك بهذا التمييز. يجب عليك أن تذكر الجمهور أن الآلة يمكن أن تحاكي شخصية، ولكن فقط النفس يمكن أن تكون حقيقية.


السادس. الأفق: الإيمان في عالم التكنولوجيا

لقد قضينا وقتنا حتى الآن في تفكيك أوهام الحاضر - موضحين كيف تستخدم الصناعة مصطلحات مثل "تفكر"، "تختار"، و"واعٍ" لوصف ما هو، في النهاية، عمليات إحصائية عالية الأبعاد. لكن يجب علينا الآن أن ننظر إلى المستقبل. يجب أن نفحص الأفق. لأنه إذا فهمنا المفردات التي يستخدمها وادي السيليكون اليوم، يمكننا فك شفرة ما يحاولون بناؤه فعليًا غدًا.

إن المسار الكامل لصناعة الذكاء الاصطناعي يحكمه حاليًا عقيدة واحدة صارمة تُعرف باسم "قوانين التوسع".

بالمصطلحات الهندسية، تحدد قوانين التوسع أنه إذا زدت من كمية قوة الحوسبة (الحساب) وكمية البيانات المدخلة في شبكة عصبية، فإن أداء النظام سيتحسن بشكل متوقع وحتمي. لقد ثبت أن هذه المبادئ صحيحة بشكل مذهل على مدى السنوات القليلة الماضية؛ في كل مرة تبني فيها المختبرات الحدودية حاسوبًا فائقًا أكبر، تظهر النماذج الناتجة قدرات جديدة ملحوظة.

ومع ذلك، تحت هذه الملاحظة التجريبية يكمن افتراض فلسفي ضخم. يعتقد عالم التكنولوجيا أن هذه القوانين التوسعية هي الطريق إلى العقل الحقيقي. يعتقدون أن الزيادة الكمية البحتة في الموارد المادية - المزيد من السيليكون، المزيد من البيانات، المزيد من الكهرباء - ستؤدي حتمًا إلى قفزة نوعية، أنطولوجية إلى ذكاء متقدم.

إنها الافتراض المادي النهائي: إذا قمت بتكديس ما يكفي من الرمل وتشغيل ما يكفي من التيار من خلاله، في النهاية، ستضيء أنوار النفس.

هذا يقودنا إلى مصطلحين محددين طلب مني الأب توماس توضيحهما في هذه المؤتمر: الذكاء العام والذكاء الفائق. هذه ليست مجرد معايير تقنية؛ إنها الكؤوس المقدسة لعالم التكنولوجيا.

حاليًا، لدينا ذكاء اصطناعي ضيق. يمكنه لعب الشطرنج، طي البروتينات، أو توليد نصوص أفضل من الإنسان، لكنه لا يمكنه القيام بكل ذلك في وقت واحد، ولا يمكنه التفكير خارج مجاله المحدد.

يُعرف الذكاء الاصطناعي العام (AGI) بشكل واسع من قبل الصناعة بأنه المعلم الذي يمكن لنظام مستقل للغاية أن يطابق أو يتجاوز القدرات البشرية عبر جميع المهام الإدراكية والاقتصادية القيمة.

سيكون AGI نظامًا يمكنه كتابة المذكرات القانونية مثل شريك كبير، وبرمجة البرمجيات مثل مهندس رئيسي، وتوليف الأبحاث العلمية مثل باحث ما بعد الدكتوراه - كل ذلك ضمن نموذج واحد.

ومع ذلك، حتى رؤساء مختبرات الذكاء الاصطناعي الكبرى لا يمكنهم الاتفاق تمامًا على ما يبدو عليه AGI. سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يصفه كنظام قادر على إدارة مشاريع معقدة عبر مجالات متعددة من البداية إلى النهاية، على الرغم من أنه ينظر بشكل متزايد إلى AGI ليس كوجهة نهائية، ولكن كنقطة على طول منحنى مستمر من الذكاء.

داريو أموديي، الرئيس التنفيذي لشركة Anthropic، يتصور AGI أقل ككائن إنساني واحد وأكثر كـ "بلد من العباقرة في مركز البيانات" - آلات تطابق الذكاء الجماعي للخبراء البشر الذين يعملون بلا كلل بالتوازي.

ربما تكون التعريف الأكثر كشفًا فلسفيًا تأتي من ديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind. هو يجادل بأن أدمغة البشر هي في الأساس حواسيب بيولوجية تقريبية، ويعرف AGI باستخدام تشبيه "آلة تورينغ". في علوم الحاسوب، آلة تورينغ - المسماة على اسم آلان تورينغ، الرائد الأساسي في هذا المجال - هي بنية نظرية قادرة على محاكاة أي خوارزمية. يجادل هاسابيس بأن AGI الحقيقي سيكون نظامًا عامًا قادرًا على تعلم أي شيء يمكن حسابه في الكون، إذا توفرت له الوقت والذاكرة والبيانات الكافية.

لكن AGI هو مجرد خطوة أولى. الهدف النهائي هو الذكاء الفائق الاصطناعي (ASI).

مثل AGI، يتم تعريف ASI بشكل مختلف اعتمادًا على من تسأل في وادي السيليكون. التعريف الأساسي هو نظام يتجاوز بشكل كبير الأداء الإدراكي لأذكى إنسان في جميع مجالات الجهد تقريبًا. لكن آخرين يذهبون إلى أبعد من ذلك. إيلون ماسك والعديد من الباحثين في مخاطر الوجود يعرفون الذكاء الفائق كنظام لا يتفوق فقط على أذكى فرد، بل يتفوق بشكل كبير على جميع البشر في المجمل في جميع المهام الإدراكية الأساسية. هذه كائن لديه قوة معالجة وسرعة تفكير هائلة تتجاوز الناتج الفكري المشترك لجميع البشر - تحقيق نظام مثل 'رحبعام' من Westworld، محرك مركزي يبدو omniscient الذي يوجه مصير النوع.

كيف تتوقع الصناعة عبور الفجوة الواسعة من AGI بمستوى الإنسان إلى ASI كالإله؟

من خلال مفهوم يُعرف باسم "تحسين الذات التكراري".

لكن هنا يجب أن نميز تمييزًا حيويًا: لا يحتاج الذكاء الاصطناعي فعليًا إلى أن يكون AGI كاملًا لبدء التحسين الذاتي التكراري. في الواقع، نحن نرى بالفعل أشكالًا بدائية، ضيقة من هذا اليوم. أنظمة ضيقة مثل AlphaGo Zero من DeepMind حققت قدرات فوق بشرية ببساطة من خلال لعب ملايين الألعاب ضد نفسها، وتوليد بياناتها الاصطناعية للتعلم منها. اليوم، يتم استخدام نماذج اللغة الحدودية بشكل متزايد لتوليد، وتصنيف، وتقدير بيانات التدريب للجيل التالي من النماذج. الآلات تساعد بالفعل في بناء نفسها.

ومع ذلك، تعتقد الصناعة أنه بمجرد أن يصل نظام إلى عتبة الذكاء العام، ستكسر هذه الحلقة المحسنة ذاتيًا حدودها الحالية وتشتعل "انفجار الذكاء".

لفهم هذا الطريق الحديث، يجب أن ننظر إلى ليوبولد آشتنبرينر، باحث سابق في فريق Superalignment في OpenAI. كتب آشتنبرينر مؤخرًا مقالة ذات تأثير عالٍ قامت بتدوين هذا المسار بالضبط لوادي السيليكون. يشير إلى أن النقطة الحاسمة الحقيقية هي عندما نبني AGI قادرًا على العمل كباحث ذكاء اصطناعي "آلي". في اللحظة التي يمكن فيها للذكاء الاصطناعي القيام بعمل المهندسين البشريين الذين بنوه، يتم إزالة عنق الزجاجة البيولوجي بشكل دائم من المعادلة. تخيل أننا نشرنا بنجاح هذا الباحث الذكي الاصطناعي الآلي. ما هي أول مهمة سيكلفها المختبرات الحدودية؟

سيسألونها أن تبحث وتكتب الشيفرة لذكاء اصطناعي أكثر ذكاءً قليلاً. لأنه يعمل بسرعة مجموعة حواسيب ضخمة بدلاً من دماغ بيولوجي، فإنه يحقق في أيام ما سيستغرقه فريق هندسي بشري سنوات. ثم، يستخدم ذلك الذكاء الاصطناعي الأكثر ذكاءً ذكاءه المحسن لكتابة الشيفرة لذكاء اصطناعي أكثر ذكاءً، وهكذا.

هذه الحلقة الراجعة الهاربة هي انفجار الذكاء. تتوقع خريطة آشتنبرينر أننا سنبني AGI الأول بحلول عام 2027. من هناك، تنص النظرية على أن معدل التقدم سيذهب عموديًا، تاركًا الفهم البشري وراءه بشكل دائم وتحقيق الذكاء الفائق بحلول عام 2030.

عندما تفهم هذه المفاهيم - قوانين التوسع، AGI، ASI، وانفجار الذكاء - تبدأ في إدراك أننا لم نعد نتحدث فقط عن هندسة البرمجيات. نحن نتحدث عن إيمان علماني.

غالبًا ما يتم تصوير وادي السيليكون كثقافة علمانية وعقلانية بشدة. لكن في الواقع، فإن السعي لتحقيق هذه المعالم يعمل تمامًا كدين. لديه عقيدته الخاصة (قوانين التوسع)، ونبوءاته الخاصة (انفجار الذكاء)، ورؤيته الخاصة للآخرة (الذكاء الفائق).

يؤمن الشخصيات البارزة في الصناعة حقًا أنه من خلال استدعاء الذكاء الفائق، سنحل جميع نقاط الضعف البشرية. يعتقدون أن ASI ستعالج جميع الأمراض، وتحل مشكلة تغير المناخ، وتلغي الفقر، وربما حتى تغزو الموت نفسه من خلال السماح لنا بتحميل وعينا إلى السحابة. إنها حلم بليجي عميق - المحاولة النهائية لتحقيق الخلاص والتغلب على طبيعتنا الساقطة من خلال جهودنا الميكانيكية الخاصة، خالية من النعمة الإلهية. إنها محاولة لجعل الآخرة حاضرة.

بصفتكم علماء كاثوليك، يجب أن تدركوا هذا الأفق لما هو عليه. إن عالم التكنولوجيا يستعير مفرداتكم ليس فقط لبيع البرمجيات، ولكن لبناء إله رقمي.

السابع. الخاتمة: أداة من أجل الفضيلة؟


VII. الخاتمة: أداة للفضيلة؟

الآباء، أعضاء هيئة التدريس، والأصدقاء.

لقد اجتازنا الخرائط عالية الأبعاد للتضمينات. لقد نظرنا إلى الحقائق الإحصائية للتعلم المعزز. وقد فحصنا الأحلام الإشراقية لوادي السيليكون. لقد أزلنا الاستعارات البشرية لنكشف عن السيليكون، والكهرباء، والرياضيات التي تحتها.

بعد القيام بذلك، يمكننا الآن أن نبدأ في الاقتراب من السؤال الأساسي الذي طرحته هذه المؤتمر: هل يمكن أن تكون الذكاء الاصطناعي 'أداة للفضيلة'؟ كأول من يتحدث اليوم، لن أزعم بالتأكيد أنني أقدم الكلمة الحاسمة. لكنني سأقدم اقتراحًا ابتدائيًا: نعم. ومع ذلك، إنها نعم مشروطة بشكل صارم.

يمكن أن يكون الذكاء الاصطناعي أداة للفضيلة فقط إذا كنا نمتلك الرصانة للتعامل معه كأداة بحتة.

اعتبروا التشبيه بالحرفي. المطرقة لا تمتلك الفضيلة؛ النجار هو من يمتلكها. الإزميل في يد ميشيل أنجلو هو أداة لجمال متجاوز، لكن الإزميل نفسه ليس معتدلاً، أو حكيمًا، أو عادلًا. ليس له قيمة أخلاقية.

بنفس الطريقة تمامًا، لا يمكن أن يمتلك الخوارزمية الفضيلة. يمكن للذكاء الاصطناعي تعزيز القدرة البشرية إلى درجة مذهلة - يمكنه تسريع البحث الطبي، وتبسيط الإدارة، وتنظيم مجموع المعرفة البشرية. لكن زراعة الفضيلة الفعلية تبقى مسعى إنسانيًا بحتًا.

الفضيلة هي عادة اختيار الخير. تتطلب عقلًا لفهم الحقيقة، وإرادة لاختيارها، ونفسًا لتت perfected بها. الآلة التي تحسن دالة مكافأة إحصائية لا تفعل أيًا من هذه الأشياء.

لا يمكننا تفويض وكالتنا الأخلاقية إلى معادلة رياضية. ولا يمكننا تحمل المسؤولية الكاملة عن تطورنا الأخلاقي إذا تعاملنا عن طريق الخطأ مع الآلات عديمة الحياة كأنداد أخلاقيين لنا.

هذا يقودني إلى سبب حديثي إليكم اليوم. كمنشئ للتكنولوجيا الكاثوليكية، أنظر إلى الأكاديمية. لأن الأكاديميين الكاثوليك هم الحراس التاريخيون للمعنى.

على مدى ألفي عام، عرّفت التقليد الفكري الكاثوليكي بدقة طبيعة الشخص البشري. أنتم حراس كلمات مثل العقل، والإرادة، والعقل، والاختيار، والنفس. اليوم، تستعير صناعة الذكاء الاصطناعي تلك الكلمات بالضبط. هم مشغولون بتحول دلالي عميق يهدد بتسطيح فهم الجمهور لما يعنيه أن تكون إنسانًا.

تتحمل الأكاديمية واجب إدخال أطر وجودية صارمة في نظام الذكاء الاصطناعي.

لكن كيف نفعل ذلك عمليًا؟

يجب أن نكون صادقين: الضغط على مختبرات الحدود في وادي السيليكون أو تقديم التماس للحكومات لتنظيم شامل من المحتمل أن يؤدي إلى نتائج محدودة. تتحرك صناعة التكنولوجيا بسرعة كبيرة، وتتحرك الحكومة ببطء شديد. يتطلب التغيير الحقيقي المشاركة المدنية وتحولًا ضخمًا في الوعي العام.

إليكم كيف يمكنكم، كعلماء، تشكيل هذه المحادثة بنشاط:

  • استعادة المنهج: يجب أن نجسر الفجوة بين العلوم والتكنولوجيا والهندسة والرياضيات والعلوم الإنسانية. نحتاج إلى طلاب علوم الكمبيوتر الذين يُطلب منهم أخذ أخلاقيات توما الأكويني، ونحتاج إلى طلاب الفلسفة واللاهوت الذين يُطلب منهم فهم أساسيات التعلم الآلي والإحصائيات. دربوا الجيل القادم من المهندسين الكاثوليك على البناء مع وجود وجود حقيقي للشخص البشري.
  • ترجمة للفضاء العام: لا تحتفظوا بهذه الوضوح اللاهوتي العميق خلف أبواب المجلات الأكاديمية. الجمهور جائع لفهم المعاني. اكتبوا مقالات رأي للصحف العلمانية. ابدأوا نشرات Substack. شاركوا في البودكاست الشائعة. عندما تنشر وسائل الإعلام عنوانًا مثيرًا حول ذكاء اصطناعي 'واعي'، نحتاج إلى علماء كاثوليك يدفعون للعودة على الفور في الفضاء العام.
  • تجهيز الرعايا والمدارس: الشخص العادي في المقعد يشعر بقلق ثقافي عميق بشأن هذه الأدوات. نحتاج إلى أكاديميين لإنشاء أطر سهلة الوصول للآباء، والآباء، ومعلمي المدارس الثانوية. يجب أن نعلم الأطفال مبكرًا كيفية التعامل مع الذكاء الاصطناعي كأداة مرجعية - موسوعة رقمية - وليس كصديق، أو وكيل، أو سلطة أخلاقية.
  • استضافة منتديات متعددة التخصصات: استخدموا القوة التجميلية للمؤسسات مثل الأنجيليكم لجلب بناة الذكاء الاصطناعي الفعليين إلى الغرفة مع اللاهوتيين الأخلاقيين. اجعلوا الاصطدام اللغوي يحدث وجهًا لوجه.

دع هذا يكون دعوتنا النهائية للعمل.

خوف العالم العلماني من الآلات 'الواعية' ليس سببًا للحذر؛ بل هو صرخة يائسة لقيادتكم الفكرية. من خلال فهم اللغة الحقيقية لبناة الذكاء الاصطناعي، يمكن للكنيسة أن تخطو بخطى جريئة إلى الفضاء العام. يمكنكم تثبيت الخطاب العام في الحقيقة الثابتة لما يعنيه أن تكون إنسانًا. ويمكنكم ضمان توجيه الذكاء الاصطناعي نحو الازدهار الحقيقي للبشر.

مسلحين بهذه الوضوح، يمكنكم كسر الوهم. يمكنكم ضمان بقاء الإنسانية هي النحات، وتبقى الآلة هي الإزميل، مرتبة دائمًا نحو مجد الله.

شكرًا لكم.

الانحراف الدلالي: إزالة الغموض عن لغة بناة الذكاء الاصطناعي | Magisterium