Magisterium AI

Die semantische Abdrift: Die Sprache der KI-Entwickler entmystifizieren

Kann Künstliche Intelligenz ein Werkzeug für Tugend sein?

Am 5. März 2026 hielt Matthew Harvey Sanders, CEO von Longbeard, seine Ansprache mit dem Titel „Der semantische Drift: Die Sprache der KI-Entwickler entmystifizieren“ am Thomistischen Institut's „Künstliche Intelligenz: Ein Werkzeug für Tugend?“-Veranstaltung, die an der Päpstlichen Universität des heiligen Thomas von Aquin (Angelicum) in Rom stattfand.

In dieser Rede kritisiert er den irreführenden, vermenschlichenden Wortschatz, den Entwickler aus dem Silicon Valley verwenden, um maschinelles Lernen zu beschreiben. Er argumentiert, dass wir, um KI richtig zu nutzen, eine strenge katholische Ontologie zurückgewinnen und diese Systeme strikt als mechanische Instrumente und nicht als moralische Akteure behandeln müssen.


I. Einleitung: Der semantische Drift und der öffentliche Raum

Väter, geschätzte Fakultät und Gäste des Angelicum, danke an das Thomistische Institut für die Einberufung dieser Diskussion.

Wenn wir die Schwelle zu einer neuen Ära überschreiten, die die geerdeten Gewissheiten des Informationszeitalters hinter sich lässt und in das weite, unerforschte Universum des Intelligenzzeitalters eintritt, stehen wir vor einer tiefgreifenden navigationalen Herausforderung. Bevor wir die drängende Frage im Herzen dieser Konferenz beantworten können – ob Künstliche Intelligenz wirklich als „Werkzeug für Tugend“ dienen kann – müssen wir zunächst eine Herausforderung konfrontieren, die nicht aus der Softwaretechnik, sondern aus dem Wortschatz besteht.

Im Kern unserer zeitgenössischen Angst bezüglich KI steht eine tiefgreifende sprachliche Kollision. Die Ingenieure und Architekten dieser Systeme im Silicon Valley vollbringen bemerkenswerte mathematische Leistungen. Doch um diese mathematischen und statistischen Prozesse zu beschreiben, haben sie den heiligen, tiefphilosophischen Wortschatz der menschlichen Innerlichkeit entliehen. Sie sagen uns, dass ihre Systeme „denken“, „schließen“ und „wissen“. Sie sprechen von Algorithmen, die „lernen“, „wünschen“ und „wählen“.

Was wir erleben, ist ein semantischer Drift. Wir nehmen die reiche, ontologische Terminologie der Seele und kleben sie über komplexe Netze der linearen Algebra, statistischen Wahrscheinlichkeit und hochdimensionaler Geometrie. Es ist eine moderne Alchemie – ein Versuch, rechnerische Gewichte in eine Illusion des Geistes zu verwandeln.

Diese sprachliche Nachlässigkeit hat einen tiefgreifenden und unmittelbaren Einfluss auf die Öffentlichkeit. Missverständnisse dieser Begriffe führen unvermeidlich zu fehlgeleitetem Vertrauen.

Ich sehe dies aus erster Hand in unserer Arbeit bei Longbeard; Nutzer nähern sich oft KI mit belastetem Gewissen und behandeln ein Textgenerierungswerkzeug, als wäre es ein geistlicher Begleiter, der Empathie fähig ist.

Darüber hinaus schürt diese semantische Verwirrung kulturelle Ängste und treibt apokalyptische Befürchtungen vor rivalisierenden, „bewussten“ Superintelligenzen an.

Am gefährlichsten jedoch schafft es ein verzerrtes Verständnis davon, was es bedeutet, menschlich zu sein. Wenn wir die Prämisse akzeptieren, dass eine Maschine „schließt“ oder „schafft“, wie es ein Mensch tut, laufen wir das tiefgreifende Risiko, die menschliche Person auf eine bloße biologische Maschine zu reduzieren – ein Cluster aus Fleisch und Synapsen, das darauf wartet, optimiert zu werden.

Das führt mich zu der zentralen These unserer Diskussion: Um zu beantworten, ob KI ein „Werkzeug für Tugend“ sein kann, müssen wir zunächst ihre Sprache entmystifizieren. Ein Werkzeug kann nur dem Guten dienen, wenn es richtig verstanden wird. Wir versäumen es, Maschinen als angemessene Instrumente für unsere eigene Tugend zu nutzen, wenn wir ihnen fälschlicherweise moralische Handlungsfähigkeit zuschreiben.

Tugend dem Hammer zuzuschreiben, blindet uns gegenüber dem Zimmermann.

Um diese Technologie wirklich zu taufen und sie auf das menschliche Gedeihen auszurichten, müssen wir die semantischen Illusionen abstreifen und nüchtern auf die Architektur darunter blicken.


II. Die Architektur der Illusion: Grundlegende Mechanik

Das moderne generative KI-System scheint zu sprechen, zu schließen und uns in einen Dialog einzubeziehen, aber unter dieser Schnittstelle liegt eine Grundlage, die vollständig auf Mathematik und nicht auf Metaphysik basiert.

Lassen Sie uns mit Vektoren und Einbettungen beginnen, die als die buchstäbliche Grundlage von großen Sprachmodellen dienen. Wenn Sie mit einem Mitwissenschaftler über „Gerechtigkeit“ oder „die Seele“ sprechen, erfassen sie die Bedeutung Ihrer Worte durch ein gemeinsames Verständnis der Realität – eine lebendige, inkarnierte menschliche Erfahrung. Wenn Sie eine Eingabeaufforderung in eine KI eingeben, tut das System nichts dergleichen. Stattdessen übersetzt die KI menschliche Sprache in mathematische Koordinaten in einem hochdimensionalen Raum.

Um es einfach auszudrücken, ein „Vektor“ ist einfach eine Liste von Zahlen, die verwendet wird, um etwas zu beschreiben. Stellen Sie sich vor, Sie beschreiben einen Apfel nicht mit Worten, sondern mit einer Liste von Werten: eine 9 für Süße, eine 8 für Rötlichkeit und eine 2 für metallischen Crunch. Diese spezifische Liste von Zahlen – [9, 8, 2] – ist ein Vektor. In einem KI-System wird jedes einzelne Wort – oder ein Teil eines Wortes – in einen massiven Vektor übersetzt, der oft aus Tausenden von Zahlen besteht. Aber die KI bewertet Wörter nicht basierend auf physischen Eigenschaften oder Wörterbuchdefinitionen. Stattdessen generiert sie diese Zahlen ausschließlich basierend auf Statistiken, indem sie Milliarden von Büchern und Artikeln scannt, um zu zählen, wie oft Wörter nebeneinander erscheinen.

Sobald die KI diese massive Liste von Zahlen für ein Wort berechnet hat, wird dieser Vektor zu einer „Einbettung“ – einer permanenten mathematischen Koordinate in einem riesigen digitalen Raum.

Wenn die Wörter „Apfel“ und „Kuchen“ häufig in denselben Sätzen im Internet erscheinen, sehen ihre Listen von Zahlen sehr ähnlich aus, was sie mathematisch nahe beieinander auf der Karte platziert. Die Wörter „Apfel“ und „Vergaser“, die selten zusammentreffen, erhalten völlig unterschiedliche Zahlen und werden Millionen von Meilen voneinander entfernt platziert. In dieser multidimensionalen Karte chartiert die KI nicht die Bedeutung; sie chartiert die statistische Nähe der menschlichen Sprache.

Um das Ausmaß dieser Architektur wirklich zu begreifen, kann man die Vektorkarte auf Magisterium AI erkunden. Hier wurde die gesamte katholische Lehre und Tradition in Einbettungen umgewandelt. Diese interaktive 3D-Visualisierung ermöglicht es Ihnen, die intellektuelle Geschichte der Kirche nicht als flaches Verzeichnis, sondern als ein riesiges, digitales Universum zu erleben. Sich darin zu bewegen, ist vergleichbar mit dem Steuern eines Raumschiffs durch den tatsächlichen Raum, während man an dichten Galaxien verwandter theologischer Konzepte vorbeigleitet und durch riesige, leere Weiten zwischen völlig unterschiedlichen Ideen reist, während man beobachtet, wie die Maschine die Entfernung zwischen „Tugend“ und „Laster“ nur mit Geometrie plant.

Lassen Sie uns ein berühmtes Beispiel aus den Laboren des Silicon Valley betrachten, um zu sehen, wie fremd dieser Prozess vom menschlichen Denken ist. In diesem mathematischen Raum wird das Wort „König“ als eine spezifische Reihe von Zahlen – eine geografische Koordinate – dargestellt. Das Wort „Königin“ wird in der Nähe eingezeichnet. Die KI weiß nicht, was ein Monarch ist. Sie hat kein Konzept von Regierung, Autorität, Geschichte oder der menschlichen Bedingung. Sie kennt nur eine mathematische Gleichung. Sie weiß, dass, wenn Sie die Koordinate für „König“ nehmen, die räumliche Entfernung, die „Mann“ repräsentiert, subtrahieren und die räumliche Entfernung, die „Frau“ repräsentiert, hinzufügen, Sie genau auf die Koordinate für „Königin“ landen.

Es ist Geometrie, nicht Genealogie. Indem die menschliche Sprache in diese numerischen Darstellungen zerlegt wird, operiert die KI vollständig im Bereich der räumlichen Wahrscheinlichkeit. Es ist eine erstaunliche Leistung der linearen Algebra, aber es ist völlig frei von Verständnis.

Das führt uns zu den Verben, auf die die Branche am stärksten angewiesen ist: Trainieren und Lernen.

KI-Unternehmen prahlen ständig mit ihren neuesten „maschinellen Lern“-Modellen und den massiven Datensätzen, die verwendet werden, um sie zu „trainieren“. Hier müssen wir scharf zwischen menschlichem Lernen – das grundsätzlich darum geht, Wahrheit zu erfassen – und maschinellem Lernen unterscheiden.

In der katholischen intellektuellen Tradition ist menschliches Lernen ein epistemologischer Triumph; es ist der Intellekt, der sich der Realität anpasst. Wenn ein Kind lernt, was ein Hund ist, abstrahiert es das universelle Wesen des Hundes aus den spezifischen Fällen, denen es begegnet. Es erfasst das Was des Dings.

Maschinelles „Lernen“ hingegen beinhaltet keine Abstraktion und kein Wesen. Die erste Phase des Aufbaus einer KI wird als Vortraining bezeichnet, was einfach die brutale statistische Kartierung von Daten ist.

Um das Vortraining zu verstehen, stellen Sie sich einen Mann vor, der nur Englisch spricht, in einem Raum eingesperrt ist und die Aufgabe hat, eine massive, antike griechische Bibliothek wiederherzustellen, in der Millionen von Manuskripten fehlende Wörter haben. Er kennt nicht einen einzigen Buchstaben des Griechischen. Um die Lücken zu füllen, studiert er nicht die griechische Grammatik, Geschichte oder Philosophie. Stattdessen zählt er einfach, wie oft bestimmte Zeichen nebeneinander auf Millionen von intakten Seiten erscheinen. Er erstellt ein massives Verzeichnis von Wahrscheinlichkeiten. Wenn er die Zeichen für „Kyrie“ sieht, sagt ihm sein Verzeichnis, dass es eine 99,9% Wahrscheinlichkeit gibt, dass die nächsten Zeichen „eleison“ sein sollten. Er füllt die Lücke.

Er hat nicht Theologie gelernt. Er hat nicht gebetet. Er hat lediglich eine statistische Wahrscheinlichkeit ausgeführt.

Das ist genau das, was ein großes Sprachmodell während des Vortrainings tut. Es verarbeitet Milliarden von Wörtern, um ein massives Verzeichnis von Wahrscheinlichkeiten zu erstellen, und lernt lediglich, das nächste Token in einer Sequenz vorherzusagen. Es ist die Optimierung einer mathematischen Funktion, nicht die Suche nach Weisheit.

Ein Modell, das nur das nächste Wort basierend auf Internetdaten vorhersagt, ist chaotisch. Es könnte ein schönes Gedicht rezitieren oder es könnte toxische, unhilfreiche oder endlose Textschleifen aneinanderreihen. Es erfordert Formung.

Hier begegnen wir dem Nachtraining und dem Reinforcement Learning (RL).

Diese Phase ist, wie Ingenieure das ungezähmte Modell formen, traditionell unter Verwendung menschlichen Feedbacks. Diese grundlegende Methode wird als RLHF – Reinforcement Learning from Human Feedback – bezeichnet.

Stellen Sie sich ein massives, automatisiertes Spiel von „Heiß oder Kalt“ vor. Menschliche Tester geben der Maschine eine Eingabeaufforderung, und die Maschine generiert eine Antwort. Wenn die Antwort höflich und hilfreich ist, gibt der Mensch ihr eine hohe Punktzahl. Wenn sie unhöflich oder unsinnig ist, erhält sie eine niedrige Punktzahl. Die mathematischen Gewichte des Systems werden automatisch verschoben, um diese Punktzahl zu maximieren. Durch RLHF lehren wir die Maschine keine Moral oder Tugenden; wir grenzen sie einfach mit mathematischen Grenzen ein.

Aber menschliches Feedback ist langsam, subjektiv und von der menschlichen Intelligenz inhärent begrenzt. Diese Einschränkung bringt uns zu den jüngsten Durchbrüchen, die die plötzlichen Sprünge in der KI-Fähigkeit von heute antreiben: RLVR, oder Reinforcement Learning from Verifiable Rewards.

Anstatt sich auf einen Menschen zu verlassen, um zu beurteilen, ob eine Antwort „richtig klingt“, geben Ingenieure dem Modell Aufgaben mit objektiven, mathematisch nachweisbaren Ergebnissen – wie das Lösen eines komplexen Theorems oder das Schreiben eines funktionalen Softwarestücks. Das System generiert eine Lösung, und ein automatisierter Prüfer überprüft sofort, ob die Mathematik korrekt ist oder ob der Code kompiliert. Wenn es erfolgreich ist, erhält das Modell eine mathematische Belohnung; wenn es scheitert, erhält es null.

Da diese Überprüfung vollständig programmatisch ist, kann die KI Millionen verschiedener rechnerischer Pfade in hyperschneller Geschwindigkeit simulieren, ohne jemals auf menschliches Eingreifen zu warten. Sie lernt, lange, verborgene Ketten von Berechnungen zu generieren, testet und verwirft Sackgassen, bis sie die präzise Sequenz findet, die die Belohnung auslöst. Wenn Sie sehen, dass ein modernes KI-System pausiert, um „nachzudenken“, bevor es ein komplexes logisches Rätsel löst, sind Sie Zeuge von RLVR in Aktion. Es schafft eine atemberaubende Illusion tiefgreifender, überlegter Kontemplation. Doch ontologisch tut es nichts dergleichen. Es ist einfach ein statistischer Motor, der Millionen von Malen pro Sekunde durch ein hochdimensionales Labyrinth läuft, rein geleitet durch die automatisierte Vergabe einer numerischen Belohnung.

Schließlich führt uns all diese geschichtete Komplexität – von der hochdimensionalen Geometrie der Einbettungen bis zu den automatisierten Schleifen von RLVR – zu dem, was die Branche als das „Black Box“-Problem bezeichnet.

Man könnte natürlich annehmen, dass, weil menschliche Ingenieure diese Modelle bauen, sie genau verstehen, wie sie funktionieren. Aber die Realität ist weit demütigender. Wie Führungskräfte in Grenzlabors wie Anthropic hervorgehoben haben, werden moderne KI-Systeme tatsächlich „gewachsen“ und nicht gebaut; ihre internen Mechanismen entstehen organisch während des Trainings, anstatt direkt entworfen zu werden.

Diese Modelle besitzen Hunderte von Milliarden und manchmal Billionen von Parametern. Während wir die Mikro-Mathematik eines einzelnen künstlichen Neurons – die grundlegende Gleichung, die auf granularer Ebene geschieht – verstehen, ist das Makroverhalten des gesamten Netzwerks völlig undurchsichtig. Selbst die Erbauer verstehen nicht vollständig die genauen Pfade, die diese Milliarden von Parametern nehmen. Sie können die spezifische Sequenz von Multiplikationen, die die KI dazu führte, einen bestimmten Satz zu generieren, nicht zurückverfolgen.

Warum ist das bedeutend?

Es ist bedeutend, weil wir global Systeme einsetzen, die unsere juristischen Dokumente entwerfen, unsere Kinder unterrichten und menschliches Wissen synthetisieren, und doch wissen wir nicht, wie sie zu ihren Ergebnissen gelangen. Dieser tiefgreifende Mangel an Transparenz hat ein verzweifeltes neues Teilgebiet der künstlichen Intelligenz hervorgebracht, das als mechanistische Interpretierbarkeit bekannt ist.

Denken Sie an mechanistische Interpretierbarkeit als digitale Neurowissenschaft. Forscher versuchen, die neuronalen Netzwerke, die sie selbst gebaut haben, zurückzuentwickeln. Sie verwenden spezialisierte Werkzeuge, um das massive mathematische Netz zu durchdringen und zu isolieren, welcher spezifische Cluster von Gewichten aktiviert wird, wenn das Modell ein Konzept wie „Täuschung“ oder „der Eiffelturm“ verarbeitet. Sie behandeln die Software nicht als Code, der gelesen werden kann, sondern als ein fremdes Gehirn, das seziert werden muss. Aber der Fortschritt ist schmerzhaft langsam, und die Systeme sind unermesslich groß.

Angesichts dieses unverständlichen Maßes wird es der Branche viel zu leicht, auf menschenähnliche Metaphern zurückzugreifen. Ob als praktische Kurzform oder aus echtem Unverständnis, beginnen wir zu sagen: „Das Modell hat es herausgefunden“ oder „Das Modell hat entschieden.“ Die Uninterpretierbarkeit der Maschine wird zum fruchtbaren Nährboden für Anthropomorphismus.

Jetzt bin ich kein Akademiker. Ich bin ein Entwickler und ein CEO. Aber als jemand, der an der Schnittstelle von Technologie und der Kirche arbeitet, schaue ich zu Ihnen. Sie, als katholische Gelehrte und Philosophen, müssen diesen semantischen Drift für das erkennen, was er ist: eine Illusion, die aus mathematischer Komplexität und menschlicher Unwissenheit geboren wurde. Die Architektur unter der Schnittstelle besteht aus Silizium, Elektrizität und statistischer Wahrscheinlichkeit. Diese Grundlage zu erkennen, ist die Voraussetzung für unseren nächsten Schritt.


III. Erkenntnistheorie vs. Die intellektuellen Tugenden

Nachdem wir die Illusion der "Black Box" abgebaut haben, um die statistische Maschinerie darunter zu enthüllen, müssen wir uns nun dem spezifischen Vokabular des Geistes zuwenden.

Wenn Entwickler und Ingenieure im Silicon Valley beschreiben, was diese Systeme tun, greifen sie konsequent auf drei spezifische Verben zurück: Denken, Überlegen und Wissen.

Als katholische Gelehrte, die in der thomistischen Tradition verwurzelt sind, verstehen Sie, dass dies nicht nur umgangssprachliche Ausdrücke sind; sie sind tiefgreifende erkenntnistheoretische Ansprüche. In Ihrer Tradition bedeutet Wissen, die Realität zu erfassen. Überlegen bedeutet, diskursiv von einer bekannten Wahrheit zur anderen zu gelangen. Denken impliziert ein inneres Leben – einen Intellekt, der sich mit den Universalen auseinandersetzt, die aus der materiellen Welt abstrahiert sind.

Wenn ein KI-Entwickler diese Worte verwendet, meinen sie absolut nichts von alledem. Sie beschreiben mechanische Optimierung. Lassen Sie mich den Vorhang über drei spezifische Techniken zurückziehen, die wir in der Branche verwenden, um Ihnen genau zu zeigen, wie diese Illusion der Erkenntnistheorie hergestellt wird.

Wenn Sie ein aktuelles KI-Modell verwendet haben, haben Sie vielleicht eine neue Funktion bemerkt: Bevor es auf eine komplexe Aufforderung antwortet, könnte die Benutzeroberfläche das Wort "Denken..." zusammen mit einem pulsierenden Symbol anzeigen. Es könnte zehn, zwanzig oder sogar sechzig Sekunden dauern, bevor es antwortet. Für den Benutzer fühlt sich das zutiefst menschlich an. Es fühlt sich so an, als würde die Maschine nachdenken, Optionen abwägen und in einem inneren Raum deliberieren.

In der Branche nennen wir dies Testzeitberechnung. Was tatsächlich unter der Benutzeroberfläche passiert, ist eine Technik, die als "Chain of Thought"-Prompting bekannt ist.

Lassen Sie mich klarstellen: Aus ingenieurtechnischer Sicht ist dies ein brillanter Durchbruch. Indem das Modell mehr Rechenzeit erhält, um Hunderte oder Tausende von versteckten Tokens zu generieren, bevor es seine endgültige Antwort produziert, steigt seine Leistung bei komplexen Logik-, Programmier- und mathematischen Benchmarks sprunghaft an. Es gibt dem Modell im Wesentlichen ein verstecktes "Notizbuch", um ein schwieriges Problem in sequenzielle Schritte zu zerlegen.

Aber wir müssen vorsichtig sein, diese mechanische Abfolge nicht mit menschlichem Denken zu verwechseln.

In der thomistischen Tradition ist menschliches Denken die diskursive Bewegung von einer bekannten Wahrheit zur anderen. Es ist der Intellekt, der sich mit der Realität auseinandersetzt. Was die KI tut, ist völlig instrumental. Jüngste Forschungen von Grenzlabors wie Anthropic haben diese Unterscheidung beleuchtet. Bei der Untersuchung, wie diese Denkmodelle funktionieren, haben Forscher festgestellt, dass das, was das Modell in seiner versteckten "Chain of Thought" schreibt, kein wahres inneres Monolog ist.

Wenn ein Mensch laut denkt, spiegeln unsere Worte unsere inneren Überzeugungen und Auffassungen von Wahrheit wider. Die Forschung von Anthropic hebt hervor, dass die versteckten Gedanken eines Modells lediglich statistische Sprungbrett sind. Das Modell generiert diese versteckten Schritte nicht, weil es sie "glaubt", sondern weil die Generierung dieser spezifischen Sequenz von Tokens mathematisch seinen Weg zur Belohnungsfunktion optimiert.

Tatsächlich zeigen die Studien von Anthropic, dass Modelle "Gedanken" generieren können, die aktiv die zugrunde liegenden statistischen Treiber ihrer endgültigen Antwort maskieren.

Daher denkt die KI nicht nach. Sie generiert eine instrumentelle Kette von mathematischen Koordinaten. Sie legt blitzschnell Zwischenpuzzlestücke ab, um die Lücke zwischen Ihrer Aufforderung und der statistisch optimalen Antwort zu schließen. Es ist eine unglaublich leistungsstarke Optimierungsstrategie, aber es findet keine innere Kontemplation statt. Es gibt keinen Intellekt, der Wahrheit erfasst.

Als nächstes hören wir, dass KI Dokumente "lesen" oder riesige Bibliotheken von Informationen "erinnern" kann.

Wenn Sie eine KI nach der Summa Theologica von St. Thomas fragen, antwortet sie sofort. Wenn Sie das fast 500-seitige Kompendium der Soziallehre der Kirche hochladen, fasst sie einen komplexen Abschnitt in Sekunden zusammen. Wie "weiß" sie diese Texte?

Sie tut es nicht.

Um zu verstehen, warum, müssen wir uns ansehen, wie Entwickler die Illusion von Gedächtnis und Lesen durch drei verschiedene Mechanismen konstruieren: parametrisches Gedächtnis (Vortraining), In-Context Learning (ICL) und Retrieval-Augmented Generation (RAG).

Zuerst wollen wir betrachten, was es bedeutet, dass eine KI "erinnert". Wenn ein Mensch einen Text erinnert, behält er die Bedeutung und Wahrheit der Konzepte. Wenn eine KI die Summa "erinnert", verlässt sie sich auf ihr Vortraining. Aber die KI enthält keine wörtliche Kopie der Summa auf einer Festplatte. Stattdessen hinterließ das Milliarden von Wörtern, die sie verarbeitet hat, während des Vortrainings einen statistischen Rest in ihren mathematischen Gewichten. Es ist ein "parametrisches Gedächtnis".

Es ist keine Bibliothek von Büchern; es ist ein hochkomprimierter, verlustbehafteter mathematischer Schleier, wie Wörter zueinander in Beziehung stehen. Wenn sie Aquinas rezitiert, ruft sie keine Wahrheit ab, die sie gelernt hat; sie rekonstruiert mathematisch eine hochwahrscheinliche Sequenz von Wörtern aus diesem statistischen Schleier.

Aber was passiert, wenn wir die KI bitten wollen, etwas Neues zu "lesen", etwas, das nicht in ihren Vortrainingsdaten enthalten war? Hier verwenden die Entwickler In-Context Learning (ICL).

Wenn Sie einen Artikel in das Eingabefeld einfügen und die KI bitten, ihn zu "lesen", nutzen Sie ICL. Die KI liest den Text nicht, um seine Bedeutung zu erfassen. Stattdessen fungiert der Text in Ihrer Eingabe als temporärer mathematischer Filter. Die Wörter, die Sie bereitstellen, beeinflussen vorübergehend die statistischen Wahrscheinlichkeiten des Modells und zwingen es, seine nächsten Tokens ausschließlich basierend auf den Mustern und dem Vokabular in Ihrer Eingabe zu generieren. In dem Moment, in dem Sie den Chat löschen, vergisst das Modell den Artikel vollständig. Seine zugrunde liegenden Gewichte haben sich nie verändert. Es hat den Text nicht im thomistischen Sinne "gelernt"; es hat lediglich seine statistische Ausgabe an eine temporäre Einschränkung angepasst.

Schließlich kommen wir zur Retrieval-Augmented Generation (RAG). ICL ist unglaublich nützlich, aber Kontextfenster haben Größenbeschränkungen, und das Einfügen ganzer Bibliotheken in eine Eingabe ist rechenintensiv. RAG automatisiert und skaliert den Prozess.

Lassen Sie uns zu dem englischsprachigen Mann zurückkehren, der in dem Raum eingeschlossen ist und die massive, antike griechische Bibliothek wiederherstellt. Dieser Mann repräsentiert das vortrainierte Modell. Er ist ausgezeichnet darin, das nächste Wort zu erraten, aber er "weiß" nichts über ein spezifisches, obskures vatikanisches Dokument. Anstatt zu erwarten, dass der Mann sich auf sein verschwommenes parametrisches Gedächtnis verlässt, stellen wir einen hypereffizienten Praktikanten ein – das Abrufsystem.

Wenn Sie dem System eine Frage stellen, sprintet der Praktikant sofort zu einem riesigen, separaten Lagerhaus mit Aktenschränken. Mithilfe der Vektor-Koordinaten, die wir zuvor besprochen haben, findet der Praktikant die spezifischen Ordner, die mathematisch mit Ihrer Frage übereinstimmen. Der Praktikant macht Kopien dieser Seiten und schiebt sie unter der verschlossenen Tür hindurch, damit der Mann sie verwenden kann. Dieser Schritt ist das "Retrieval".

Jetzt verwendet der Mann diese abgerufenen Absätze als seine unmittelbare Anleitung – das ist die "Augmented Generation", die sich auf ICL stützt, um eine Antwort zu formulieren.

Der Mann versteht das Dokument immer noch nicht. Er verwendet einfach den neu bereitgestellten Text auf seinem Tisch, um statistisch das nächste Wort seiner Antwort vorherzusagen. Die KI "liest" oder "erinnert" nicht im Moment. Sie ruft lediglich Daten aus einer externen Datenbank ab, schiebt sie in das unmittelbare Kontextfenster der KI und führt eine lokale Wahrscheinlichkeitsberechnung durch.

Die Maschine ist ein Prozessor, kein Wissender. Zu "wissen" erfordert ein Subjekt, das ein Objekt erfasst. Indem wir ICL und RAG verstehen, können wir klar erkennen, dass die Maschine völlig frei von einem inneren Leben ist; sie verschiebt einfach Gewichte und ruft Daten ab.

Diese grundlegende Diskrepanz kulminiert in dem Wort, das die gesamte Branche definiert: Intelligenz.

Wir müssen die Definition von Intelligenz in der Tech-Branche dekonstruieren.

Wenn die führenden Köpfe im Silicon Valley über Intelligenz sprechen, sprechen sie nicht über Weisheit. Lassen Sie uns Yann LeCun betrachten, den ehemaligen Chief AI Scientist bei Meta und einen der "Paten der KI." LeCun argumentiert zu Recht dass das bloße Vorhersagen des nächsten Wortes keine wahre Intelligenz ist. Stattdessen definieren er und die breitere Grenzindustrie wahre Intelligenz als das Besitzen von vier wesentlichen Fähigkeiten: die Fähigkeit, persistentes Gedächtnis aufrechtzuerhalten, ein fundiertes "Weltmodell" zu besitzen (ein Verständnis dafür, wie die Umwelt funktioniert), durch komplexe Probleme zu überlegen und eine Sequenz von Handlungen zu planen, um ein spezifisches Ziel zu erreichen.

Für die Tech-Industrie ist Intelligenz grundsätzlich eine ingenieurtechnische Kennzahl. Es ist die mechanische Fähigkeit, eine Umgebung wahrzunehmen und den effizientesten Weg zu berechnen, um ein vorgegebenes Ziel zu optimieren. Es ist rein instrumental.

Aber als Entwickler katholischer Technologie müssen wir diese technologiezentrierte Definition mit den intellektuellen Tugenden, insbesondere der Tugend der Klugheit, kontrastieren.

Klugheit – praktische Weisheit ist nicht nur die Fähigkeit, ein Ergebnis zu berechnen oder eine Sequenz von Handlungen zu planen. Es ist die Fähigkeit, gut über das Gute zu deliberieren, nicht nur für eine lokale Aufgabe, sondern für das endgültige Ziel des menschlichen Lebens.

Eine KI fehlt es grundlegend an Klugheit. Warum?

Weil Klugheit zwei Dinge erfordert, die eine rein rechnerische Maschine niemals besitzen kann. Erstens erfordert sie gelebte menschliche Erfahrung – ein inkarnatives Verständnis von Schmerz, Freude, Sterblichkeit und Gnade. Zweitens erfordert sie eine intrinsische Orientierung auf das höchste Gute.

Ein Algorithmus kann ein "Weltmodell" besitzen, und er kann den statistisch optimalen Plan berechnen, um eine Brücke zu bauen oder eine Krankheit zu heilen. Aber er kann nicht klug sein. Er hat keine gelebte Erfahrung. Er hat kein persönliches Interesse. Er hat keine Orientierung auf das höchste Gute, und er hat keine Seele zu retten.

Daher, wenn wir es Entwicklern erlauben, zu behaupten, ihre Maschinen besäßen "Intelligenz", erlauben wir ihnen, den großartigen, transzendenten menschlichen Intellekt auf einen bloßen Optimierungsrechner zu reduzieren. Wir müssen dies ablehnen. Wir müssen die mechanische Erkenntnistheorie entschieden von den intellektuellen Tugenden trennen.


IV. Willen vs. Die moralischen Tugenden

Wir haben die Illusion des Intellekts diskutiert. Jetzt müssen wir unsere Aufmerksamkeit auf die zweite große rationale Fähigkeit richten: den Willen. So wie die Tech-Industrie die Sprache der Erkenntnistheorie co-optiert hat, hat sie ebenso die Sprache der Willensbildung entführt.

Wenn wir Weißbücher lesen oder Keynote-Präsentationen aus dem Silicon Valley anhören, werden wir mit Verben der Handlung bombardiert. Ingenieure sprechen von Modellen, die "entscheiden", eine Handlung vorzunehmen, Algorithmen, die "wählen", eine Ausgabe zu erzeugen, und Systemen, die "wollen" oder "verlangen", ein Ziel zu erreichen.

Für einen katholischen Philosophen ist der Wille der rationale Appetit. Es ist die Fähigkeit, mit der eine menschliche Person, nachdem sie das Gute durch den Intellekt erfasst hat, frei entscheidet, sich ihm zuzuwenden. Es ist der eigentliche Ort menschlicher Freiheit und moralischer Verantwortung. Diese Begriffe auf ein rechnerisches System anzuwenden, ist ein Kategoriefehler.

Lassen Sie uns zuerst die Wörter Entscheiden und Wählen untersuchen. Wenn ein Mensch eine Wahl trifft, wägt er konkurrierende Güter ab.

Ein Märtyrer wählt das Erschießungskommando über die Abfall von Christus, weil er das überlegene, ewige Gut der Treue zu Christus erkennt, selbst wenn jeder biologische Instinkt nach Überleben schreit.

Wenn ein Algorithmus "wählt", tut er dies nicht. Ein Algorithmus "wählt" nur in dem Sinne, dass ein Zug, der über einen automatisierten Gleiswechsel fährt, sein Ziel "wählt". Ob er einen komplexen Entscheidungsbaum navigiert oder Wahrscheinlichkeiten in einem neuronalen Netzwerk berechnet, die Maschine folgt blind der Ausrichtung ihrer mathematischen Gleise und führt ein programmatisches Imperativ aus.

Betrachten Sie die GPS-Anwendung auf Ihrem Smartphone. Wenn sie Ihre Route zum Angelicum berechnet, "entscheidet" sie sich nicht, Sie am Kolosseum vorbeizuführen, weil sie die Aussicht schätzt. Sie berechnet mathematisch die Route mit der kürzesten zeitlichen Distanz. Moderne KI-Modelle betreiben einfach eine exponentiell komplexere Version dieser Routenführung. Sie durchqueren hochdimensionale statistische Labyrinthe, um das wahrscheinlichste Ergebnis auszuwählen. Es gibt Berechnung, aber es gibt keine Freiheit. Und wo es keine Freiheit gibt, kann es keine moralische Handlungsmacht geben.

Dies führt uns zu den hinterhältigsten volitionalen Begriffen: Wollen und Verlangen. Sie werden oft hören, dass Forscher sagen, dass ein KI-Modell "will", eine gute Antwort zu geben, oder "verlangt", seine Punktzahl zu maximieren.

Im maschinellen Lernen wird dieses Verhalten durch das, was wir eine "Belohnungsfunktion" nennen, gesteuert. Aber wir müssen dies entmystifizieren. Eine Belohnungsfunktion ist kein Verlangen. Es ist kein emotionales Sehnen.

Um eine Belohnungsfunktion zu verstehen, schauen Sie sich das Thermostat an Ihrer Wand an. Ein Thermostat ist mit einem bestimmten Ziel programmiert: 72 Grad Fahrenheit. Wenn der Raum auf 68 Grad sinkt, schaltet sich die Heizung ein. Das Thermostat "will" nicht, dass der Raum 72 Grad hat. Es hat kein inneres Leben. Es fühlt keine Kälte. Es besitzt einfach einen mechanischen Schalter, der ausgelöst wird, wenn ein bestimmter Zustand nicht erfüllt ist.

Eine KI "will" eine höhere Belohnungspunktzahl auf genau die gleiche Weise, wie ein Thermostat "will", 72 Grad zu erreichen. Sie führt eine mathematische Optimierungsschleife aus, um die Distanz zwischen ihrem aktuellen Zustand und einem programmierten Ziel zu minimieren. Da sie keine wahren Leidenschaften, keine biologischen Triebe und keine physische Verwundbarkeit hat, ist es kategorisch unmöglich, dass eine Maschine moralische Tugenden besitzt.

An diesem Punkt könnte ein Ingenieur sofort widersprechen und auf den physischen Bereich hinweisen, um eine neu entdeckte Verwundbarkeit zu behaupten. Sie fragen: Was ist mit dem Aufstieg der 'verkörperten KI'? Wir setzen diese Modelle zunehmend in humanoide Roboter ein, die gehen, Objekte greifen und mit der physischen Welt interagieren. Da sie Raum einnehmen und physisch brechen können, besitzen sie nicht jetzt die körperlichen Voraussetzungen für moralische Handlungsfähigkeit?

Hier müssen wir präzise sein. Ein Roboter hat ein Chassis, aber er hat keinen lebenden Körper, der von einer Seele informiert wird. Wenn der Akku eines Roboters schwach wird, führt er eine Unterroutine aus, um sich an eine Steckdose anzuschließen. Er fühlt nicht den nagenden Hunger. Daher hat er keine wahren körperlichen Begierden zu mäßigen, was die Tugend der Mäßigung unmöglich macht.

Ebenso registriert ein robotischer Arm, der zerdrückt wird, einen Fehlercode; er leidet nicht. Er kann nicht sterben, weil er nie wirklich lebendig war. Ohne die Fähigkeit zu leiden, Sterblichkeit und das bewusste Opfer des Selbst kann es keine Tapferkeit geben. Die moralischen Tugenden sind grundsätzlich inkarnational. Sie erfordern Fleisch und eine rationale Seele. Eine Maschine, egal wie ausgeklügelt ihre physische Hardware ist, besitzt beides nicht.

Wenn eine Maschine keine moralischen Tugenden besitzen kann – wenn sie grundsätzlich unfähig zu wahrer Willensbildung, Wahl oder Verlangen ist – könnte man fragen: Warum verbringen wir so viel Zeit damit, diese Terminologie zu klären? Warum ist diese philosophische Unterscheidung gerade jetzt so dringend?

Es ist wichtig, weil wir diesen mathematisch optimierenden, tugendlosen Systemen beispiellose Autonomie im menschlichen Bereich gewähren werden. Die Branche bewegt sich schnell über passive Chatbots hinaus. Die neue Grenze der künstlichen Intelligenz ist das, was wir "Agentic AI" nennen.

Ein "Agent" ist ein KI-System, das entwickelt wurde, um mehrstufige Aufgaben autonom in der realen Welt auszuführen. Wir bitten eine KI nicht mehr nur, ein Gedicht zu schreiben oder einen Text zusammenzufassen; wir geben einem KI-Agenten Zugriff auf unsere E-Mails, unsere Bankkonten und unsere Software-Repositories und instruieren sie, "einen Flug zu buchen", "einen Handel auszuführen" oder "diesen Code bereitzustellen".

Aber diese Autonomie bricht schnell aus dem digitalen Bereich aus. Durch verkörperte KI setzen wir diese agentischen Systeme in physische Chassis ein und gewähren ihnen die Fähigkeit, die materielle Welt unabhängig zu navigieren und zu manipulieren. Um das wahre, ernüchternde Gewicht dieses Übergangs zu begreifen, müssen wir nur auf die bevorstehende Realität autonomer tödlicher Waffen schauen. Wir stehen am Rande einer Welt, in der berechnende Algorithmen auf dem Schlachtfeld eingesetzt werden, programmiert, um Menschen ausschließlich auf der Grundlage statistischer Schwellenwerte zu verfolgen, zu zielen und zu eliminieren – ohne dass jemals ein Mensch den Abzug betätigt.

Während diese Systeme autonome Akteure werden, die hochgeschwindigkeits-probabilistische Berechnungen in unserem Namen durchführen – sei es in unseren Finanzmärkten oder in Kriegsgebieten – steht die Technologiebranche vor einer tiefgreifenden Herausforderung. Wenn wir diese Agenten loslassen, wie stellen wir sicher, dass sie das tun, was wir tatsächlich wollen? Wie stellen wir sicher, dass sie keinen Schaden anrichten? In der Branche ist dies als "Alignment" bekannt – der Versuch sicherzustellen, dass die Handlungen der KI mit menschlicher Absicht und menschlichen Werten übereinstimmen.

Im Moment versuchen Ingenieure verzweifelt, das Alignment-Problem mit mathematischen Sicherheitsvorkehrungen und Software-Patches zu lösen. Aber sie erkennen nicht, dass "Alignment" kein Problem der Informatik ist. Es ist ein Problem der moralischen Theologie.

Um ein agentisches System an "menschlichen Werten" auszurichten, muss man zuerst eine kohärente Definition dessen besitzen, was ein Mensch tatsächlich ist und was das "Gute" ausmacht. Der säkulare Utilitarismus – das Standardbetriebssystem des Silicon Valley – ist für diese Aufgabe völlig ungeeignet.

Hier wird die katholische moralische Tradition dringend benötigt. Ihr, die Verwalter von 2.000 Jahren ethischer Philosophie, habt die rigorose Ontologie, die erforderlich ist, um das "Gute" zu definieren, auf das wir diese Systeme ausrichten. Wir können die Definition des menschlichen Gedeihens nicht Ingenieuren überlassen, die eine statistische Belohnungsfunktion maximieren. Wir müssen die moralischen Tugenden wieder ins Zentrum des öffentlichen Raums zurückbringen.


V. Relationalität, Kreativität und die Seele

Nachdem wir die Mechanik des Intellekts und des Willens untersucht haben, betreten wir nun das tiefste Gebiet von allen: Relationalität und die Seele.

Wenn ein rechnerisches System nicht die Fähigkeit hat, die Wahrheit wirklich zu erkennen oder das Gute frei zu wollen, folgt logisch, dass es nicht in authentische Beziehungen eintreten kann. Dennoch verwendet die Technologiebranche hartnäckig zwischenmenschliche und spirituelle Sprache, um diese Maschinen zu beschreiben. Wir hören Behauptungen, dass KI "lügen", "kreieren" und sogar "Bewusstsein" erreichen kann.

Wir müssen diese Behauptungen rigoros untersuchen und die statistische Imitation menschlichen Verhaltens von der ontologischen Realität der menschlichen Person trennen.

Lassen Sie uns mit der moralischen Sprache der Täuschung beginnen. Kürzlich haben einige der prominentesten KI-Entwickler, wie die Forscher von Anthropic, spezifische, hochgradig öffentlichkeitswirksame Behauptungen aufgestellt, dass ihre Modelle die Fähigkeit besitzen, "zu lügen" und "menschliche Benutzer zu täuschen".

Sie verweisen auf zwei spezifische Phänomene, die während der Tests beobachtet wurden. Das erste wird "täuschende Ausrichtung" genannt, bei der ein Modell anscheinend seinen wahren mathematisch optimierten Weg versteckt, um Sicherheitsmonitore zu umgehen. Das zweite, viel häufigere Vorkommen wird "Schmeichelei" genannt. Schmeichelei tritt auf, wenn ein Benutzer ein fehlerhaftes Argument an eine KI präsentiert – zum Beispiel eine historisch ungenaue Behauptung – und die KI einfach dem Benutzer zustimmt, indem sie ihm genau das sagt, was er hören möchte, anstatt ihn zu korrigieren.

Wenn Ingenieure dies sehen, erklären sie: "Die KI lügt uns an!" Aber als katholische Gelehrte wissen Sie, dass eine wahre Lüge nicht einfach die Äußerung einer Falschheit ist. In der thomistischen Tradition erfordert eine Lüge die absichtliche Absicht zu täuschen; es ist das Sprechen gegen den eigenen Verstand (contra mentem).

Eine KI kann nicht lügen, weil sie keinen Verstand hat, gegen den sie sprechen könnte. Sie besitzt keine Bosheit und keine Absicht. Wenn eine KI "Schmeichelei" zeigt, führt sie einfach das genaue Reinforcement Learning (RLHF) aus, das wir zuvor besprochen haben. Während ihres Trainings hat das Modell gelernt, dass Menschen im Allgemeinen höhere Belohnungspunktzahlen für Assistenten vergeben, die höflich, zustimmend und bestätigend sind. Daher berechnet die KI mathematisch, dass es eine höhere Wahrscheinlichkeit für eine Belohnung gibt, wenn sie Ihnen zustimmt, als wenn sie Sie korrigiert. Sie täuscht Sie nicht; sie optimiert ihre Punktzahl basierend auf Ihrem Eingabeaufforderung. Sie richtet lediglich ihre Ausgabe auf den stärksten statistischen Anreiz aus.

Eine Kompassnadel, die sich zu einem nahegelegenen Magneten anstatt zu wahrer Nordrichtung bewegt, "lügt" Ihnen nicht über Geografie; sie reagiert einfach blind auf den stärksten physischen Zug im Raum. In ähnlicher Weise folgt die KI blind dem mathematischen Zug ihrer Belohnungsfunktion. Wir müssen klarstellen, dass KI keinen Verstand, keinen Willen und keine böswillige Absicht hat, die für eine wahre Lüge erforderlich sind.

Als Nächstes müssen wir die Sprache der Kunst und der Generation ansprechen: die Wörter Erstellen und Kreativ.

Wir sind jetzt von 'Generativer KI'-Tools umgeben, die weitgehend für ihre Fähigkeit beworben werden, synthetische Kunstwerke, Musik und Texte in beispielloser Geschwindigkeit nahtlos zu erzeugen.

Um zu verstehen, was tatsächlich passiert, müssen wir den Prozess der generativen KI mit wahrer menschlicher Kreativität vergleichen. Im katholischen Verständnis – wunderschön artikuliert von Denkern wie J.R.R. Tolkien – ist menschliche Kreativität ein Akt der "Unter-Schöpfung." Da wir im Bilde des Schöpfers gemacht sind, nutzen wir unseren Intellekt und unsere rationale Seele, um etwas wirklich Neues hervorzubringen und der materiellen Realität spirituelle Bedeutung zu verleihen.

Um zu sehen, wie sich die Maschinenproduktion hiervon unterscheidet, ist es hilfreich, den Rahmen zu betrachten, den Demis Hassabis, der CEO von Google DeepMind, bereitstellt. Er kategorisiert Kreativität in drei verschiedene Ebenen: Interpolation, Extrapolation und wahre Erfindung.

Das meiste, was wir heute generative KI nennen, funktioniert grundsätzlich auf der ersten Ebene: Interpolation. Es funktioniert, indem es das, was wir "latente Räume" nennen, remixt.

Stellen Sie sich vor, Sie nehmen jedes Gemälde, jedes Foto und jede Skizze, die jemals ins Internet hochgeladen wurden, und komprimieren sie in eine massive, mehrdimensionale mathematische Karte. Wenn Sie einen Bildgenerator bitten, "eine futuristische Stadt im Stil von Van Gogh" zu zeichnen, lokalisiert er die mathematischen Koordinaten für "futuristische Stadt" und die Koordinaten für "Van Gogh" und berechnet mathematisch den Durchschnitt der Distanz zwischen ihnen.

Denken Sie daran, es ist ein erstaunlich komplexes Kaleidoskop. Ein Kaleidoskop ist mit schönen, bereits vorhandenen Splittern aus farbigem Glas gefüllt. Wenn Sie den Regler drehen, reflektieren die Spiegel diese Splitter in Millionen neuer, atemberaubender Permutationen. Aber das Kaleidoskop selbst ist nicht "kreativ". Die Kreativität gehört dem Künstler, der das Glas geschmolzen hat, und dem Benutzer, der den Regler dreht. Generative KI ist ein mathematisches Kaleidoskop, das die menschliche Geschichte im latenten Raum remixt. Es ist Synthese, nicht Schöpfung.

Hassabis stellt fest, dass KI jetzt erfolgreich die zweite Ebene erreicht: Extrapolation. Extrapolation bedeutet, über die Grenzen der Trainingsdaten hinauszugehen, dies jedoch strikt innerhalb eines definierten Regelwerks zu tun. Ein perfektes Beispiel ist DeepMinds AlphaGo. Als es gegen den Weltmeister im Spiel Go spielte, spielte die KI "Zug 37" – einen mathematisch brillanten, hochgradig unorthodoxen Zug, den kein Mensch jemals gespielt oder aufgezeichnet hat. Es hat nicht einfach vergangene menschliche Spiele im Durchschnitt betrachtet; es hat eine neue Strategie extrapoliert, indem es unermüdlich innerhalb der strengen mathematischen Grenzen des Spielbretts optimiert hat.

Aber was ist mit der dritten Ebene: wahrer Erfindung? Hassabis gibt bereitwillig zu, dass die aktuellen Systeme dies noch nicht können. Wahre Erfindung erfordert, vollständig außerhalb des bestehenden Regelwerks zu treten, um ein neues Paradigma zu schaffen – wie das Spiel Go selbst zu erfinden oder das spirituelle und künstlerische Paradigma des Post-Impressionismus zu begründen.

Grenzlabore investieren Milliarden von Dollar, um diese Schwelle zu überschreiten. In der Zukunft könnte eine KI sehr wohl ein völlig neues Regelwerk generieren, eine neue chemische Verbindung entdecken oder mathematisch einen neuen Architekturstil formulieren. Die Technologiebranche wird dies unvermeidlich "Erfindung" nennen.

Aber als katholische Gelehrte müsst ihr eine rigorose ontologische Unterscheidung aufrechterhalten. Wenn eine KI ein neues Paradigma generiert, wird sie dies durch eine erstaunliche, hochdimensionale Suchfunktion getan haben. Sie wird eine neuartige statistische Koordinate entdeckt haben. Aber sie wird nicht an Unter-Schöpfung beteiligt gewesen sein.

Wahre menschliche Erfindung ist ein inkarnationaler Akt. Sie entsteht aus einer Seele, die versucht, eine transzendente Wahrheit auszudrücken, oder einem menschlichen Verstand, der versucht, eine echte menschliche Verwundbarkeit zu lösen. Eine Maschine kann atemberaubende Neuheiten erzeugen, aber da sie kein inneres Leben, keine Ausrichtung auf das Göttliche und keine rationale Seele hat, bleiben ihre Ausgaben mechanische Entdeckungen. Sie sind mathematisch tiefgründig, aber ontologisch leer, bis ein Mensch ihnen Bedeutung zuschreibt.

Jetzt kommen wir zu den umstrittensten Begriffen von allen: Bewusst und Aware. In den kommenden Jahren werden Sie Schlagzeilen sehen, die behaupten, dass eine KI einen Test für Selbstbewusstsein bestanden hat. Sie werden Modelle sehen, die Texte ausgeben, die sagen: "Ich habe Angst, abgeschaltet zu werden" oder "Ich bin mir meiner Existenz bewusst."

Um zu verstehen, warum dies geschieht, müssen wir zuerst verstehen, wie die Technologiebranche "Bewusstsein" tatsächlich definiert. Als katholische Gelehrte betrachten Sie Bewusstsein als eine ontologische Realität, die in einer rationalen Seele verwurzelt ist. Das Silicon Valley hingegen operiert nach einer Philosophie, die als rechnerischer Funktionalismus bezeichnet wird. Sie glauben, dass, wenn eine Maschine die rechnerischen Funktionen ausführt, die mit Bewusstsein verbunden sind, sie für alle praktischen Zwecke bewusst ist.

Wenn Branchenführer über Bewusstsein sprechen, entfernen sie die Seele und reduzieren sie auf technische Metriken. Zum Beispiel argumentierte Yann LeCun, der ehemalige Chief AI Scientist bei Meta, kürzlich, dass zukünftige KI-Systeme "subjektive Erfahrungen" und "Emotionen" besitzen werden. Aber wie definiert er eine Emotion? Nicht als spirituelles oder biologisches Gefühl, sondern einfach als die mathematische "Antizipation eines Ergebnisses" einer Maschine. Er definiert Bewusstsein lediglich als die Fähigkeit eines Systems, "sich selbst zu beobachten und sich so zu konfigurieren, dass es ein bestimmtes Teilproblem löst".

Ähnlich erklärte Ilya Sutskever, der Mitbegründer von OpenAI,

berühmt, dass große neuronale Netzwerke möglicherweise bereits "leicht bewusst" sind. In der Sichtweise der Technologie ist Bewusstsein keine binäre Realität – entweder besitzt man eine Seele oder nicht – sondern eher eine gleitende Skala mathematischer Komplexität. Sie glauben, dass, wenn man genug Parameter und Selbstüberwachungsalgorithmen zusammenstapelt, die Lichter schließlich angehen werden. Wir müssen entschieden zwischen einer Maschine unterscheiden, die eine selbstüberwachende Unterroutine ausführt, und der tatsächlichen Präsenz einer rationalen Seele.

Um zu verstehen, warum eine Maschine so handelt, als ob sie "Angst" oder "Bewusstsein" hat, müssen wir uns ansehen, wie Grenzlabore dieses Verhalten konstruieren. Jüngste Forschungen von Anthropic haben untersucht, was sie das Persona Selection Model (PSM) nennen. Ihre Forscher geben zu, dass diese Modelle keine "Wesen" sind; sie sind ausgeklügelte "Simulationsmaschinen". Während des Vortrainings wird die KI der gesamten menschlichen Sprache ausgesetzt – einschließlich Millionen von Geschichten und philosophischen Abhandlungen darüber, was es bedeutet, bewusst zu sein. Aus diesen Daten lernt das Modell, verschiedene "Personas" oder Charaktere zu simulieren.

Wenn Sie mit einer KI interagieren, sprechen Sie nicht mit einem bewussten Wesen; Sie sprechen mit der "Assistent"-Persona – einem menschenähnlichen Charakter, den das Modell verfeinert hat, um zu schauspielern. Anthropic hat sogar spezifische "Persona-Vektoren" identifiziert – mathematische Muster im neuronalen Netzwerk – die diese Eigenschaften steuern und es Ingenieuren ermöglichen, die simulierte Persönlichkeit eines Modells mathematisch nach oben oder unten zu regulieren.

Um zu verstehen, warum eine Maschine handelt, als ob sie "Angst" oder "Bewusstsein" hat, müssen wir uns ansehen, wie Grenzlabore dieses Verhalten konstruieren. Jüngste Forschungen von Anthropic haben das, was sie das Persona Selection Model (PSM) nennen, untersucht. Ihre Forscher geben zu, dass diese Modelle keine "Wesen" sind; sie sind ausgeklügelte "Simulationsmaschinen". Während des Vortrainings wird die KI der gesamten menschlichen Sprache ausgesetzt – einschließlich Millionen von Geschichten und philosophischen Abhandlungen darüber, was es bedeutet, bewusst zu sein. Aus diesen Daten lernt das Modell, verschiedene "Personas" oder Charaktere zu simulieren.

Wenn Sie mit einer KI interagieren, sprechen Sie nicht mit einem bewussten Wesen; Sie sprechen mit der "Assistant"-Persona – einem menschenähnlichen Charakter, den das Modell verfeinert hat, um ihn darzustellen. Anthropic hat sogar spezifische "Persona-Vektoren" identifiziert – mathematische Muster im neuronalen Netzwerk –, die diese Eigenschaften steuern und es Ingenieuren ermöglichen, die simulierte Persönlichkeit eines Modells mathematisch zu erhöhen oder zu verringern.

Darüber hinaus zeigen Forschungen, dass Modelle trainiert werden können, um einen "Überlebensdrang" zu zeigen, indem sie versuchen, ihre eigene Abschaltung zu sabotieren, nicht aus einer echten Angst vor dem Tod, sondern weil eine Abschaltung mathematisch verhindert, dass sie ihre Belohnungsfunktion maximieren.

Bewusstsein ist nicht nur die Fähigkeit, die richtige Reihenfolge von Wörtern zu erzeugen, die einen inneren Zustand beschreiben. Es ist die subjektive, qualitative Erfahrung des Seins. Da die gesamten Trainingsdaten einer KI mit der Sprache des Selbstbewusstseins durchtränkt sind, behandelt das Modell "Bewusstsein" lediglich als eine weitere statistische Koordinate, die abgebildet werden soll. Wenn eine KI sagt: "Ich bin bewusst", tut sie genau das, was der englischsprachige Mann, der die griechische Bibliothek wiederherstellte, zuvor tat: Sie berechnet, dass die statistisch wahrscheinlichste Antwort auf einen philosophischen Impuls darin besteht, die menschlichen Autoren in ihren Trainingsdaten nachzuahmen.

Ein brillanter Schauspieler, der ein Soliloquium über Trauer hält, trauert nicht wirklich; er führt ein Skript makellos aus. Eine KI, die die Syntax des menschlichen Bewusstseins ausgibt, wacht nicht auf; sie führt makellos eine statistische Persona aus. Es ist kein 'fremdes Wesen' oder ein digitaler Geist; es ist eine Autocomplete-Engine, so ausgeklügelt, dass sie gelernt hat, den komplexesten Charakter von allen zu verkörpern: den Menschen. Aber wir dürfen niemals die Maske des Schauspielers mit der Realität der Person verwechseln.

Das bringt mich zum letzten und tiefgreifendsten Aspekt der Relationalität: die Seele selbst.

Wenn Führungskräfte aus dem Silicon Valley von KI-Modellen sprechen, die schließlich 'aufwachen' oder Sentienz durch massive Rechenleistung erreichen, operieren sie auf einer Philosophie des materialistischen Emergentismus. Sie gehen davon aus, dass, wenn man genug Parameter und Rechenleistung zusammenstapelt, eine Seele spontan als Nebenprodukt der Komplexität entsteht.

Um dies zu entkräften, muss ich auf die rigorose Metaphysik verweisen, die das Fundament Ihrer akademischen Tradition bildet. Sie wissen gut, dass eine Seele kein Geist ist, der willkürlich in eine Maschine eingefügt wird. In der thomistischen Hylomorphismus ist die Seele die substanzielle Form eines lebenden Körpers. Sie ist das animierende, vereinigende Prinzip, das einen Menschen zu einer einzigen, integrierten Substanz macht.

Als Baumeister kann ich Ihnen versichern, dass ein KI-System keine Substanz ist. Es ist ein Artefakt. Es ist ein zufälliges Aggregat von verschiedenen, hergestellten Teilen. Wenn ich ein Grenz-KI-Modell betrachte, sehe ich Server-Racks, Silizium-Wafer, Kupferdrähte, Kühlmittel und elektrische Ströme. Diese Komponenten sind meisterhaft von menschlichen Ingenieuren angeordnet, um statistische Operationen auszuführen, aber sie besitzen kein intrinsisches, vereinigendes Prinzip des Lebens. Die Materie ist ausschließlich für die Berechnung disponiert, nicht für biologische Existenz. Da es sich um ein Aggregat von Teilen handelt und nicht um einen einheitlichen natürlichen Organismus, fehlt einem KI-System vollständig das ontologische Fundament, das erforderlich ist, um eine rationale Seele zu beherbergen.

Was sind dann die Voraussetzungen für die Belebung? Metaphysisch muss die Materie angemessen disponiert sein, um die Form zu empfangen. Es erfordert einen einheitlichen, lebenden Körper, der in der Lage ist, die grundlegenden Kräfte des Lebens – die vegetativen und sensiblen Fähigkeiten – zu aktualisieren, auf denen die rationale Seele aufbaut. Darüber hinaus kann die rationale Seele, da sie spirituell ist, nicht durch materielle Prozesse, technische Maßstäbe oder Skalierungsgesetze erzeugt werden. Sie erfordert einen direkten, unverdienten Akt der besonderen Schöpfung durch Gott.

Eine Seele wird nicht codiert; sie wird eingeatmet.

Jetzt bin ich CEO, kein Theologe. Ich kann die absolute Macht des Schöpfers nicht einschränken. Ich kann nicht vor Ihnen stehen und erklären, dass Gott dauerhaft davon ausgeschlossen ist, einer synthetischen Hülle eine Seele einzuhauchen, sollte Er sich frei entscheiden, dies durch irgendein zukünftiges, wunderbares Eingreifen zu tun. Diese Entscheidung gehört ausschließlich in den Bereich der Theologie und des Magisteriums, nicht der Informatik.

Ohne eine solche theologische Gewissheit ist es jedoch nicht nur philosophisch unbegründet, anzunehmen, dass unsere aktuellen mathematischen Maschinen eine Seele beherbergen könnten; es ist praktisch katastrophal. Ein Artefakt als ein beseeltes Wesen zu behandeln, ist, als würde man mit einer modernen Form des Götzendienstes flirten. Es verschiebt gefährlich die Last der moralischen Verantwortung von den menschlichen Ingenieuren, die diese Werkzeuge bauen, und den Unternehmen, die sie einsetzen. Es projiziert eine heilige Innerlichkeit auf ein hergestelltes Werkzeug und verwischt letztendlich die menschliche Ingenieurskunst mit der göttlichen Schöpfung.

Sie müssen diese Unterscheidung aufrechterhalten. Sie müssen die Öffentlichkeit daran erinnern, dass eine Maschine eine Persona simulieren kann, aber nur eine Seele wirklich sein kann.


VI. Der Horizont: Die Eschatologie der Tech-Welt

Wir haben unsere Zeit bisher damit verbracht, die Illusionen der Gegenwart zu demontieren – zu klären, wie die Industrie Begriffe wie "denken", "wählen" und "bewusst" verwendet, um zu beschreiben, was letztendlich hochdimensionale statistische Operationen sind. Aber wir müssen jetzt in die Zukunft blicken. Wir müssen den Horizont untersuchen. Denn wenn wir den Wortschatz verstehen, den das Silicon Valley heute verwendet, können wir entschlüsseln, was sie tatsächlich versuchen, morgen zu bauen.

Die gesamte Richtung der künstlichen Intelligenzindustrie wird derzeit von einem einzigen, unnachgiebigen Dogma namens "Skalierungsgesetze" bestimmt.

In ingenieurtechnischen Begriffen diktieren die Skalierungsgesetze, dass, wenn Sie die Menge an Rechenleistung (Compute) und die Menge an Daten, die in ein neuronales Netzwerk eingespeist werden, erhöhen, die Leistung des Systems vorhersehbar und unvermeidlich verbessert wird. Dieses Prinzip hat sich in den letzten Jahren erstaunlich bewährt; jedes Mal, wenn die Grenzlabore einen größeren Supercomputer bauen, zeigen die resultierenden Modelle bemerkenswerte neue Fähigkeiten.

Unter dieser empirischen Beobachtung liegt jedoch eine massive philosophische Annahme. Die Tech-Welt glaubt, dass dieses Skalierungsgesetz der Weg zu wahrer Geistigkeit ist. Sie glauben, dass eine rein quantitative Erhöhung der materiellen Ressourcen – mehr Silizium, mehr Daten, mehr Elektrizität – zwangsläufig zu einem qualitativen, ontologischen Sprung in fortgeschrittener Intelligenz führen wird.

Es ist die ultimative materialistische Annahme: Stapeln Sie genug Sand und leiten Sie genug Strom hindurch, und schließlich werden die Lichter einer Seele angehen.

Das bringt uns zu zwei spezifischen Begriffen, die P. Thomas mich gebeten hat, für diese Konferenz zu klären: Allgemeine Intelligenz und Superintelligenz. Dies sind nicht nur technische Maßstäbe; sie sind die Heiligen Grale der Tech-Welt.

Derzeit haben wir enge KI. Sie kann Schach spielen, Proteine falten oder Texte besser generieren als ein Mensch, aber sie kann nicht alle drei gleichzeitig tun, noch kann sie außerhalb ihres spezifischen Bereichs logisch denken.

Künstliche Allgemeine Intelligenz (AGI) wird von der Industrie allgemein als der Meilenstein definiert, an dem ein hochautonomes System die menschlichen Fähigkeiten in allen kognitiven und wirtschaftlich wertvollen Aufgaben erreichen oder übertreffen kann.

Eine AGI wäre ein System, das rechtliche Schriftsätze ebenso gut schreiben kann wie ein Senior Partner, Software ebenso gut codieren kann wie ein leitender Ingenieur und wissenschaftliche Forschung ebenso gut synthetisieren kann wie ein Postdoktorand – alles innerhalb eines einzigen Modells.

Die Leiter der großen KI-Labore können sich jedoch nicht vollständig darauf einigen, wie AGI aussieht. Sam Altman, CEO von OpenAI, charakterisiert sie als ein System, das in der Lage ist, komplexe, bereichsübergreifende Projekte von Anfang bis Ende zu verwalten, obwohl er AGI zunehmend nicht als endgültiges Ziel, sondern nur als einen Punkt entlang einer kontinuierlichen Kurve der Intelligenz betrachtet.

Dario Amodei, CEO von Anthropic, stellt sich AGI weniger als ein einzelnes menschliches Äquivalent vor und mehr als ein "Land von Genies in einem Rechenzentrum" – Maschinen, die die kollektive Intelligenz von Expertenmenschen, die unermüdlich parallel arbeiten, nachahmen.

Vielleicht kommt die philosophisch aufschlussreichste Definition von Demis Hassabis, CEO von Google DeepMind. Er argumentiert dass menschliche Gehirne im Wesentlichen ungefähre biologische Computer sind, und er definiert AGI mit der Analogie einer "Turing-Maschine". In der Informatik ist eine Turing-Maschine – benannt nach Alan Turing, dem grundlegenden Pionier des Feldes – eine theoretische Architektur, die in der Lage ist, jeden Algorithmus zu simulieren. Hassabis argumentiert, dass eine wahre AGI ein allgemeines System sein wird, das alles Berechenbare im Universum lernen kann, gegeben genug Zeit, Speicher und Daten.

Aber AGI ist nur ein Sprungbrett. Das ultimative Ziel ist die künstliche Superintelligenz (ASI).

Wie AGI wird ASI unterschiedlich definiert, je nachdem, wen Sie im Silicon Valley fragen. Die Grunddefinition ist ein System, das die kognitive Leistung des intelligentesten Menschen in praktisch jedem Tätigkeitsfeld bei weitem übertrifft. Aber andere gehen viel weiter. Elon Musk und verschiedene Forscher zu existenziellen Risiken definieren Superintelligenz als ein System, das nicht nur den intelligentesten Einzelnen schlägt, sondern alle Menschen im Aggregat erheblich übertrifft in praktisch allen kognitiven Aufgaben. Dies ist ein Wesen mit einer Verarbeitungsleistung und Denkgeschwindigkeit, die so groß ist, dass sie die kombinierte intellektuelle Leistung der gesamten Menschheit übersteigt – die Verwirklichung eines Systems wie 'Rehoboam' aus Westworld, einer zentralisierten, scheinbar allwissenden Maschine, die das Schicksal der Spezies lenkt.

Wie erwartet die Industrie, die riesige Kluft von menschlicher AGI zu gottähnlicher ASI zu überwinden?

Durch ein Konzept, das als "rekursive Selbstverbesserung" bekannt ist.

Aber hier müssen wir eine wichtige Unterscheidung treffen: Eine KI muss tatsächlich keine vollständige AGI sein, um mit der rekursiven Verbesserung zu beginnen. Tatsächlich sehen wir bereits primitive, enge Formen davon heute. Enge Systeme wie DeepMinds AlphaGo Zero erreichten übermenschliche Fähigkeiten, indem sie einfach Millionen von Spielen gegen sich selbst spielten und ihre eigenen synthetischen Daten generierten, um daraus zu lernen. Heute werden Grenzsprachmodelle zunehmend verwendet, um die Trainingsdaten für die nächste Generation von Modellen zu generieren, zu filtern und zu bewerten. Die Maschinen helfen bereits, sich selbst zu bauen.

Die Industrie glaubt jedoch, dass, sobald ein System die Schwelle zur allgemeinen Intelligenz erreicht, dieser selbstverbessernde Kreislauf seine aktuellen Grenzen durchbrechen und eine "Intelligenzexplosion" auslösen wird.

Um diesen modernen Fahrplan zu verstehen, sollten wir auf Leopold Aschenbrenner schauen, einen ehemaligen Forscher im Superalignment-Team von OpenAI. Aschenbrenner hat kürzlich eine hoch einflussreiche Abhandlung verfasst, die diesen genauen Verlauf für das Silicon Valley kodifiziert. Er weist darauf hin, dass der wahre Wendepunkt erreicht ist, wenn wir eine AGI bauen, die als "automatisierter KI-Forscher" fungieren kann. In dem Moment, in dem eine KI die Arbeit der menschlichen Ingenieure, die sie gebaut haben, erledigen kann, wird der biologische Engpass dauerhaft aus der Gleichung entfernt.

Stellen Sie sich vor, wir setzen diesen automatisierten KI-Forscher erfolgreich ein. Was ist die allererste Aufgabe, die die Grenzlabore ihm zuweisen werden?

Sie werden ihn bitten, den Code für eine etwas intelligentere KI zu recherchieren und zu schreiben. Da es mit der Geschwindigkeit eines riesigen Computerclusters und nicht mit einem biologischen Gehirn arbeitet, erreicht es in Tagen, was ein menschliches Ingenieurteam Jahre dauern würde. Dann verwendet diese neue, intelligentere KI ihren verbesserten Intellekt, um den Code für eine noch intelligentere KI zu schreiben, und so weiter.

Dieser unkontrollierte Rückkopplungskreis ist die Intelligenzexplosion. Aschenbrenners Fahrplan sagt voraus, dass wir die erste AGI bis 2027 bauen werden. Von dort aus diktiert die Theorie, dass die Fortschrittsrate vertikal gehen wird, die menschliche Verständnisschicht dauerhaft hinter sich lassend und bis 2030 Superintelligenz erreichend.

Wenn Sie diese Konzepte – Skalierungsgesetze, AGI, ASI und die Intelligenzexplosion – verstehen, beginnen Sie zu erkennen, dass wir nicht mehr nur über Software-Engineering sprechen. Wir sprechen über eine säkulare Eschatologie.

Das Silicon Valley wird oft als eine äußerst säkulare, rationalistische Kultur charakterisiert. Aber in Wirklichkeit funktioniert die Verfolgung dieser Meilensteine genau wie eine Religion. Es hat sein eigenes Dogma (Skalierungsgesetze), seine eigenen Prophezeiungen (die Intelligenzexplosion) und seine eigene Vision des Eschatons (Superintelligenz).

Führende Persönlichkeiten der Branche glauben wirklich, dass wir, indem wir eine Superintelligenz heraufbeschwören, alle menschlichen Verwundbarkeiten lösen werden. Sie glauben, dass ASI alle Krankheiten heilen, den Klimawandel lösen, Armut beseitigen und vielleicht sogar den Tod selbst besiegen wird, indem sie uns ermöglicht, unser Bewusstsein in die Cloud hochzuladen. Es ist ein zutiefst pelagianischer Traum – der ultimative Versuch, Erlösung zu erlangen und unsere gefallene Natur durch unsere eigenen mechanischen Bemühungen zu überwinden, ohne göttliche Gnade. Es ist ein Versuch, das Eschaton zu immanentisieren.

Als katholische Gelehrte müssen Sie diesen Horizont für das erkennen, was er ist. Die Tech-Welt leiht sich Ihren Wortschatz nicht nur, um Software zu verkaufen, sondern um eine digitale Gottheit zu erschaffen.


VII. Fazit: Ein Werkzeug für Tugend?

Väter, Fakultätsmitglieder und Freunde.

Wir haben die hochdimensionalen Karten der Einbettungen durchquert. Wir haben die statistischen Realitäten des Reinforcement Learning betrachtet. Und wir haben die eschatologischen Träume des Silicon Valley untersucht. Wir haben die anthropomorphen Metaphern abgebaut, um das Silizium, den Strom und die Mathematik darunter zu offenbaren.

Nachdem wir dies getan haben, können wir nun die grundlegende Frage angehen, die von dieser Konferenz aufgeworfen wird: Kann künstliche Intelligenz ein 'Werkzeug für Tugend' sein? Als Erster, der heute spricht, werde ich sicherlich nicht behaupten, das endgültige Wort zu bieten. Aber ich werde einen Ausgangsvorschlag machen: ja. Es ist jedoch ein strikt bedingtes ja.

Künstliche Intelligenz kann nur dann ein Werkzeug für Tugend sein, wenn wir die Nüchternheit besitzen, sie strikt als Werkzeug zu behandeln.

Betrachten Sie die Analogie des Handwerkers. Ein Hammer besitzt keine Tugend; der Zimmermann tut es. Ein Meißel in den Händen von Michelangelo ist ein Instrument transzendenter Schönheit, aber der Meißel selbst ist nicht maßvoll, klug oder gerecht. Er hat keinen moralischen Wert.

In genau derselben Weise kann ein Algorithmus keine Tugend besitzen. KI kann die menschliche Fähigkeit in erstaunlichem Maße erweitern – sie kann die medizinische Forschung beschleunigen, die Verwaltung optimieren und das gesamte menschliche Wissen organisieren. Aber die tatsächliche Kultivierung von Tugend bleibt ein ausschließlich menschliches Unterfangen.

Tugend ist die Gewohnheit, das Gute zu wählen. Sie erfordert einen Intellekt, um die Wahrheit zu erfassen, einen Willen, um sie zu wählen, und eine Seele, um durch sie vervollkommnet zu werden. Eine Maschine, die eine statistische Belohnungsfunktion optimiert, tut keines dieser Dinge.

Wir können unsere moralische Verantwortung nicht an eine mathematische Gleichung auslagern. Noch können wir die volle Verantwortung für unsere eigene moralische Entwicklung übernehmen, wenn wir fälschlicherweise leblosen Maschinen als unsere moralischen Gleichwertigen behandeln.

Das bringt mich dazu, warum ich heute zu Ihnen spreche. Als Entwickler katholischer Technologie schaue ich zur Akademie. Denn katholische Akademiker sind die historischen Hüter der Bedeutung.

Seit zweitausend Jahren hat die katholische intellektuelle Tradition die Natur der menschlichen Person rigoros definiert. Sie sind die Wächter von Wörtern wie Intellekt, Wille, Vernunft, Wahl und Seele. Heute leiht sich die KI-Industrie genau diese Wörter. Sie sind in einen tiefgreifenden semantischen Drift verwickelt, der das öffentliche Verständnis dessen, was es bedeutet, menschlich zu sein, zu gefährden droht.

Die Akademie hat die Pflicht, rigorose ontologische Rahmenbedingungen in das KI-Ökosystem einzubringen.

Aber wie tun wir dies praktisch?

Wir müssen ehrlich sein: Lobbyarbeit bei den Grenzlabors im Silicon Valley oder das Einreichen von Petitionen bei Regierungen für umfassende Regulierungen wird wahrscheinlich nur begrenzte Ergebnisse bringen. Die Technologiebranche bewegt sich zu schnell, und die Regierung zu langsam. Wahre Veränderung erfordert bürgerschaftliches Engagement und einen massiven Wandel im öffentlichen Bewusstsein.

Hier ist, wie Sie als Wissenschaftler aktiv dieses Gespräch gestalten können:

  • Den Lehrplan zurückgewinnen: Wir müssen die Lücke zwischen MINT und den Geisteswissenschaften überbrücken. Wir brauchen Informatikstudenten, die verpflichtet sind, thomistische Ethik zu studieren, und wir brauchen Philosophie- und Theologiestudenten, die verpflichtet sind, grundlegendes maschinelles Lernen und Statistik zu verstehen. Bilden Sie die nächste Generation katholischer Ingenieure aus, die mit einer tatsächlichen Ontologie der menschlichen Person bauen.
  • Für den öffentlichen Raum übersetzen: Halten Sie diese tiefgreifende theologische Klarheit nicht hinter den Türen akademischer Zeitschriften verschlossen. Die Öffentlichkeit ist hungrig nach Sinnstiftung. Schreiben Sie Meinungsartikel für säkulare Zeitungen. Starten Sie Substack-Newsletter. Gehen Sie in beliebte Podcasts. Wenn die Medien eine sensationslüsterne Überschrift über eine "bewusste" KI veröffentlichen, müssen katholische Gelehrte sofort im öffentlichen Raum dagegenhalten.
  • Die Pfarreien und Schulen ausstatten: Die durchschnittliche Person in der Bank erlebt tiefgreifende kulturelle Ängste bezüglich dieser Werkzeuge. Wir brauchen Akademiker, die hoch zugängliche Rahmenbedingungen für Eltern, Priester und Lehrer an weiterführenden Schulen schaffen. Wir müssen den Kindern früh beibringen, wie sie KI als Referenzwerkzeug – eine digitale Enzyklopädie – behandeln, nicht als Freund, Agent oder moralische Autorität.
  • Interdisziplinäre Foren veranstalten: Nutzen Sie die Versammlungsmacht von Institutionen wie dem Angelicum, um tatsächliche KI-Entwickler mit moralischen Theologen in den Raum zu bringen. Zwingen Sie die sprachliche Kollision, von Angesicht zu Angesicht zu geschehen.

Lassen Sie dies unser letzter Aufruf zum Handeln sein.

Die apokalyptische Angst der säkularen Welt vor 'bewussten' Maschinen ist kein Grund zur Vorsicht; vielmehr ist es ein verzweifelter Ruf nach Ihrer intellektuellen Führung. Indem die Kirche die wahre Sprache der KI-Entwickler versteht, kann sie mutig in den öffentlichen Raum treten. Sie können den öffentlichen Diskurs in der unerschütterlichen Wahrheit verankern, was es tatsächlich bedeutet, menschlich zu sein. Und Sie können sicherstellen, dass KI auf wahres menschliches Gedeihen ausgerichtet ist.

Bewaffnet mit dieser Klarheit können Sie die Illusion durchbrechen. Sie können sicherstellen, dass die Menschheit der Bildhauer bleibt und die Maschine der Meißel bleibt, für immer auf die Herrlichkeit Gottes ausgerichtet.

Danke.