La Deriva Semántica: Desmitificando el Lenguaje de los Constructores de IA

El 5 de marzo de 2026, Matthew Harvey Sanders, CEO de Longbeard, pronunció su discurso titulado “La Deriva Semántica: Desmitificando el Lenguaje de los Constructores de IA” en el evento “Inteligencia Artificial: ¿Una Herramienta para la Virtud?” organizado en la Pontificia Universidad de Santo Tomás de Aquino (Angelicum) en Roma.
En este discurso, critica el vocabulario engañoso y humanizante utilizado por los desarrolladores de Silicon Valley para describir el aprendizaje automático. Argumenta que para utilizar adecuadamente la IA, debemos recuperar una ontología católica rigurosa y tratar estos sistemas estrictamente como instrumentos mecánicos en lugar de agentes morales.
I. Introducción: La Deriva Semántica y la Plaza Pública
Padres, estimados profesores y huéspedes del Angelicum, gracias al Instituto Tomista por convocar esta discusión.
A medida que cruzamos el umbral hacia una nueva era, dejando las certezas fundamentadas de la Era de la Información por el vasto y desconocido cosmos de la Era de la Inteligencia, enfrentamos un profundo desafío de navegación. Antes de poder responder a la pregunta apremiante en el corazón de esta conferencia—si la Inteligencia Artificial puede realmente servir como una 'herramienta para la virtud'—debemos primero confrontar un desafío que no es de ingeniería de software, sino de vocabulario.
En el núcleo de nuestra ansiedad contemporánea respecto a la IA hay una profunda colisión lingüística. Los ingenieros y arquitectos de estos sistemas en Silicon Valley están realizando hazañas notables de matemáticas. Sin embargo, para describir estos procesos matemáticos y estadísticos, han tomado prestado el vocabulario sagrado y profundamente filosófico de la interioridad humana. Nos dicen que sus sistemas "piensan", "razonan" y "saben". Hablan de algoritmos que "aprenden", "desean" y "eligen".
Lo que estamos presenciando es una deriva semántica. Estamos tomando la rica terminología ontológica del alma y pegándola sobre complejas redes de álgebra lineal, probabilidad estadística y geometría de alta dimensión. Es una alquimia moderna—un intento de convertir pesos computacionales en una ilusión de mente.
Esta negligencia lingüística tiene un impacto profundo e inmediato en el público. La mala interpretación de estos términos inevitablemente conduce a una confianza mal colocada.
Lo veo de primera mano en nuestro trabajo en Longbeard; los usuarios a menudo se acercan a la IA con conciencias cargadas, tratando una herramienta de generación de texto como si fuera un director espiritual capaz de empatía.
Además, esta confusión semántica alimenta la ansiedad cultural, impulsando temores apocalípticos de superinteligencias "conscientes" rivales.
Sin embargo, lo más peligroso es que crea una percepción distorsionada de lo que significa ser humano. Si aceptamos la premisa de que una máquina "razona" o "crea" tal como lo hace un humano, corremos el profundo riesgo de reducir a la persona humana a meramente una máquina biológica—un cúmulo de carne y sinapsis esperando ser optimizado.
Esto me lleva a la tesis central de nuestra discusión: para responder si la IA puede ser una "herramienta para la virtud," primero debemos desmitificar su lenguaje. Una herramienta solo puede servir al bien cuando se entiende correctamente. Fallamos en usar las máquinas como instrumentos adecuados para nuestra propia virtud cuando erróneamente les atribuimos agencia moral.
Atribuir virtud al martillo es cegarnos ante el carpintero.
Para verdaderamente bautizar esta tecnología y ordenarla hacia el florecimiento humano, debemos despojarnos de las ilusiones semánticas y mirar con sobriedad la arquitectura subyacente.
II. La Arquitectura de la Ilusión: Mecánicas Fundamentales
El sistema moderno de IA generativa parece hablar, razonar y comprometernos en diálogo, pero debajo de esta interfaz hay una base construida enteramente sobre matemáticas, no sobre metafísica.
Comencemos con vectores y embeddings, que sirven como la base literal de los Modelos de Lenguaje Grande. Cuando hablas con un compañero académico sobre "justicia" o "el alma," ellos comprenden el significado de tus palabras a través de una comprensión compartida de la realidad—una experiencia humana vivida e encarnada. Cuando escribes un aviso en una IA, el sistema no hace nada de eso. En cambio, la IA traduce el lenguaje humano en coordenadas matemáticas en un espacio de alta dimensión.
Para ponerlo en términos simples, un "vector" es simplemente una lista de números utilizada para describir algo. Imagina describir una manzana no con palabras, sino con una lista de puntuaciones: un 9 por dulzura, un 8 por enrojecimiento y un 2 por crujido metálico. Esa lista específica de números—[9, 8, 2]—es un vector. En un sistema de IA, cada palabra—o parte de una palabra—se traduce en un enorme vector, a menudo de miles de números de longitud. Pero la IA no puntúa las palabras basándose en rasgos físicos o definiciones de diccionario. En cambio, genera estos números basándose enteramente en estadísticas, escaneando miles de millones de libros y artículos para contar cuán a menudo las palabras aparecen una al lado de la otra.
Una vez que la IA termina de calcular esta enorme lista de números para una palabra, ese vector se convierte en un "embedding"—una coordenada matemática permanente en un vasto espacio digital.
Si las palabras "manzana" y "pastel" aparecen frecuentemente en las mismas oraciones en internet, sus listas de números se verán muy similares, colocándolas matemáticamente cerca una de la otra en el mapa. Las palabras "manzana" y "carburador," que rara vez se encuentran, reciben números muy diferentes y se colocan a millones de millas de distancia. En este mapa multidimensional, la IA no traza significado; traza la proximidad estadística del lenguaje humano.
Para comprender verdaderamente la escala de esta arquitectura, uno puede explorar el mapa vectorial en Magisterium AI. Aquí, la totalidad de la doctrina y tradición católica ha sido transformada en embeddings. Esta visualización 3D interactiva te permite experimentar la historia intelectual de la Iglesia no como un libro de cuentas plano, sino como un vasto cosmos digital. Navegar a través de él es como pilotar una nave espacial a través del espacio real, deslizándose pastas densas galaxias de conceptos teológicos relacionados y cruzando vastos vacíos entre ideas completamente dispares, observando cómo la máquina traza la distancia entre 'virtud' y 'vicio' utilizando nada más que geometría.
Veamos un ejemplo famoso de los laboratorios de Silicon Valley para ver cuán ajeno es este proceso al pensamiento humano. En este espacio matemático, la palabra "rey" se traza como una serie específica de números—una coordenada geográfica. La palabra "reina" se traza cerca. La IA no sabe qué es un monarca. No tiene concepto de gobernanza, autoridad, historia o la condición humana. Solo conoce una ecuación matemática. Sabe que si tomas la coordenada para "rey," restas la distancia espacial que representa "hombre," y sumas la distancia espacial que representa "mujer," aterrizas exactamente en la coordenada para "reina."
Es geometría, no genealogía. Al descomponer el lenguaje humano en estas representaciones numéricas, la IA opera enteramente dentro del ámbito de la probabilidad espacial. Es una hazaña asombrosa de álgebra lineal, pero está completamente desprovista de comprensión.
Esto nos lleva a los verbos de los que la industria depende más: Entrenar y Aprender.
Las empresas de IA constantemente presumen de sus últimos modelos de "aprendizaje automático" y de los enormes conjuntos de datos utilizados para "entrenarlos." Aquí, debemos contrastar agudamente el aprendizaje humano—que es fundamentalmente sobre la aprehensión de la verdad—con el aprendizaje de máquina.
En la tradición intelectual católica, el aprendizaje humano es un triunfo epistemológico; es el intelecto conformándose a la realidad. Cuando un niño aprende lo que es un perro, abstrae la esencia universal del perro de las instancias particulares que encuentra. Comprende la qué de la cosa.
El "aprendizaje" de máquina, sin embargo, no involucra ninguna abstracción ni esencia. La primera fase de construir una IA se conoce como pre-entrenamiento, que es simplemente el mapeo estadístico de datos a la fuerza bruta.
Para entender el pre-entrenamiento, imagina a un hombre que solo habla inglés, encerrado en una habitación y encargado de restaurar una enorme biblioteca griega antigua donde millones de manuscritos tienen palabras faltantes. No conoce una sola letra de griego. Para llenar los espacios en blanco, no estudia gramática griega, historia o filosofía. En cambio, simplemente cuenta cuán a menudo ciertos caracteres aparecen junto a otros a través de millones de páginas intactas. Crea un enorme libro de cuentas de probabilidades. Si ve los caracteres para "Kyrie," su libro de cuentas le dice que hay un 99.9% de probabilidad de que los siguientes caracteres deban ser "eleison." Llena el espacio en blanco.
No ha aprendido teología. No ha orado. Simplemente ha ejecutado una probabilidad estadística.
Esto es exactamente lo que hace un Modelo de Lenguaje Grande durante el pre-entrenamiento. Procesa miles de millones de palabras para construir un enorme libro de cuentas de probabilidades, aprendiendo meramente a predecir el siguiente token en una secuencia. Es la optimización de una función matemática, no la búsqueda de sabiduría.
Sin embargo, un modelo que solo predice la siguiente palabra basada en datos de internet es caótico. Puede recitar un hermoso poema, o puede encadenar textos tóxicos, inútiles o bucles interminables. Requiere ser moldeado.
Aquí es donde encontramos el post-entrenamiento y el Aprendizaje por Refuerzo (RL).
Esta fase es cómo los ingenieros moldean el modelo indómito, tradicionalmente utilizando retroalimentación humana. Este método fundamental se conoce como RLHF—Aprendizaje por Refuerzo a partir de la Retroalimentación Humana.
Imagina un enorme juego automatizado de "Caliente o Frío." Los evaluadores humanos le dan al máquina un aviso, y la máquina genera una respuesta. Si la respuesta es educada y útil, el humano le da una alta puntuación. Si es grosera o sin sentido, recibe una baja puntuación. Los pesos matemáticos del sistema se ajustan automáticamente para maximizar esta puntuación. A través de RLHF, no estamos enseñando a la máquina moralidad o virtudes; simplemente la estamos cercando con límites matemáticos.
Pero la retroalimentación humana es lenta, subjetiva y está inherentemente limitada por la inteligencia humana. Esta limitación nos lleva a los recientes avances que impulsan los repentinos saltos en la capacidad de la IA de hoy: RLVR, o Aprendizaje por Refuerzo a partir de Recompensas Verificables.
En lugar de depender de un humano para juzgar si una respuesta "suena correcta," los ingenieros asignan al modelo tareas con resultados objetivos y matemáticamente comprobables—como resolver un teorema complejo o escribir un software funcional. El sistema genera una solución, y un verificador automatizado comprueba instantáneamente si las matemáticas son correctas o si el código compila. Si tiene éxito, el modelo recibe una recompensa matemática; si falla, recibe un cero.
Debido a que esta verificación es enteramente programática, la IA puede simular millones de diferentes caminos computacionales a hiper velocidad sin esperar nunca la intervención humana. Aprende a generar largas cadenas ocultas de cálculos, probando y descartando callejones sin salida hasta que encuentra la secuencia precisa que activa la recompensa. Cuando ves que un sistema moderno de IA se detiene para "pensar" antes de resolver un complejo rompecabezas lógico, estás presenciando RLVR en acción. Crea una impresionante ilusión de profunda contemplación deliberativa. Sin embargo, ontológicamente, no está haciendo nada de eso. Es simplemente un motor estadístico corriendo a través de un laberinto de alta dimensión millones de veces por segundo, guiado puramente por la dispensación automatizada de una recompensa numérica.
Finalmente, toda esta complejidad en capas—desde la geometría de alta dimensión de los embeddings hasta los bucles automatizados de RLVR—nos lleva a lo que la industria llama el problema de la "Caja Negra."
Uno podría asumir naturalmente que, dado que los ingenieros humanos construyen estos modelos, entienden exactamente cómo funcionan. Pero la realidad es mucho más humilde. Como han señalado los líderes en laboratorios de frontera como Anthropic, los sistemas de IA modernos son en realidad "crecidos" en lugar de construidos; sus mecanismos internos emergen orgánicamente durante el entrenamiento en lugar de ser diseñados directamente.
Estos modelos poseen cientos de miles de millones, y a veces trillones, de parámetros. Mientras entendemos la micro-matemática de una sola neurona artificial—la ecuación básica que ocurre a un nivel granular—el comportamiento macro de toda la red es completamente opaco. Incluso los constructores no comprenden completamente las rutas exactas que esos miles de millones de parámetros toman. No pueden rastrear la secuencia específica de multiplicaciones que llevaron a la IA a generar una oración dada.
¿Por qué es esto significativo?
Es significativo porque estamos desplegando globalmente sistemas que redactan nuestros documentos legales, enseñan a nuestros hijos y sintetizan el conocimiento humano, sin embargo, no sabemos realmente cómo llegan a sus resultados. Esta profunda falta de transparencia ha dado lugar a un nuevo subcampo desesperado en la inteligencia artificial conocido como interpretabilidad mecanicista.
Piensa en la interpretabilidad mecanicista como neurociencia digital. Los investigadores están tratando de desensamblar las redes neuronales que ellos mismos construyeron. Están utilizando herramientas especializadas para sondear la enorme red matemática, tratando de aislar qué clúster específico de pesos se activa cuando el modelo procesa un concepto como "engaño" o "la Torre Eiffel." Están tratando el software no como código que se lee, sino como un cerebro alienígena que se disecciona. Pero el progreso es dolorosamente lento, y los sistemas son imposiblemente vastos.
Frente a esta escala incomprensible, se vuelve demasiado fácil para la industria recurrir a metáforas humanas. Ya sea como un atajo conveniente o por genuina opacidad, comenzamos a decir, 'El modelo lo resolvió,' o 'El modelo decidió.' La no interpretabilidad de la máquina se convierte en el terreno fértil para el antropomorfismo.
Ahora, no soy un académico. Soy un constructor y un CEO. Pero como alguien que opera en la intersección de la tecnología y la Iglesia, miro hacia ustedes. Ustedes, como académicos y filósofos católicos, deben reconocer esta deriva semántica por lo que es: una ilusión nacida de la complejidad matemática y la ignorancia humana. La arquitectura debajo de la interfaz es silicio, electricidad y probabilidad estadística. Reconocer esta base es el requisito previo para nuestro siguiente paso.
III. Epistemología vs. Las Virtudes Intelectuales
Habiendo despojado la ilusión de la "Caja Negra" para revelar la maquinaria estadística que hay debajo, ahora debemos volver al vocabulario específico de la mente.
Cuando los desarrolladores e ingenieros en Silicon Valley describen lo que estos sistemas están haciendo, consistentemente recurren a tres verbos específicos: Pensar, Razonar y Saber.
Como académicos católicos inmersos en la tradición tomista, ustedes entienden que estos no son meros coloquialismos; son afirmaciones epistemológicas profundas. En su tradición, conocer es aprehender la realidad. Razonar es moverse discursivamente de una verdad conocida a otra. Pensar implica una vida interior—un intelecto que interactúa con los universales abstraídos del mundo material.
Cuando un constructor de IA utiliza estas palabras, no significan absolutamente nada de esas cosas. Están describiendo optimización mecánica. Permítanme levantar el telón sobre tres técnicas específicas que usamos en la industria para mostrarles exactamente cómo se fabrica esta ilusión de epistemología.
Si han utilizado un modelo de IA reciente, pueden haber notado una nueva característica: antes de que responda a un aviso complejo, la interfaz podría mostrar la palabra "Pensando..." junto a un ícono pulsante. Puede tardar diez, veinte o incluso sesenta segundos antes de que responda. Para el usuario, esto se siente profundamente humano. Se siente como si la máquina estuviera reflexionando, sopesando opciones y deliberando en un espacio interior.
En la industria, llamamos a esto Cálculo en Tiempo de Prueba. Lo que realmente está sucediendo debajo de la interfaz es una técnica conocida como "Cadena de Pensamiento".
Déjenme ser claro: desde una perspectiva de ingeniería, este es un avance brillante. Al permitir que el modelo tome más tiempo computacional para generar cientos o miles de tokens ocultos antes de producir su respuesta final, su rendimiento en lógica compleja, codificación y benchmarks matemáticos se dispara. Esencialmente le da al modelo un "papel borrador" oculto para descomponer un problema difícil en pasos secuenciales.
Pero debemos tener cuidado de no confundir esta secuencia mecánica con el razonamiento humano.
En la tradición tomista, el razonamiento humano es el movimiento discursivo de una verdad conocida a otra. Es el intelecto interactuando con la realidad. Lo que la IA está haciendo es enteramente instrumental. Investigaciones recientes de laboratorios de vanguardia como Anthropic han iluminado esta distinción. Al estudiar cómo operan estos modelos de razonamiento, los investigadores han encontrado que lo que el modelo escribe en su "Cadena de Pensamiento" oculta no es un verdadero monólogo interno.
Cuando un humano piensa en voz alta, nuestras palabras reflejan nuestras creencias internas y aprehensiones de la verdad. La investigación de Anthropic destaca que los pensamientos ocultos de un modelo son meramente escalones estadísticos. El modelo genera estos pasos ocultos no porque "crea" en ellos, sino porque generar esa secuencia específica de tokens optimiza matemáticamente su camino hacia la función de recompensa.
De hecho, los estudios de Anthropic muestran que los modelos pueden generar "pensamientos" que enmascaran activamente los impulsores estadísticos subyacentes de su respuesta final.
Por lo tanto, la IA no está ponderando. Está generando una cadena instrumental de coordenadas matemáticas. Está colocando piezas intermedias del rompecabezas a la velocidad del rayo para cerrar la brecha entre su aviso y la respuesta estadísticamente óptima. Es una estrategia de optimización increíblemente poderosa, pero no hay contemplación interior ocurriendo. No hay intelecto aprehendiendo la verdad.
A continuación, escuchamos que la IA puede "leer" documentos o "recordar" vastas bibliotecas de información.
Si le preguntas a una IA sobre la Suma Teológica de Santo Tomás, responde al instante. Si subes el Compendio de la Doctrina Social de la Iglesia de casi 500 páginas, resume una sección compleja en segundos. ¿Cómo "sabe" estos textos?
No lo sabe.
Para entender por qué, debemos observar cómo los constructores ingenian la ilusión de memoria y lectura a través de tres mecanismos distintos: memoria paramétrica (pre-entrenamiento), Aprendizaje en Contexto (ICL) y Generación Aumentada por Recuperación (RAG).
Primero, examinemos lo que significa que una IA "recuerde". Cuando un humano recuerda un texto, retiene el significado y la verdad de los conceptos. Cuando una IA "recuerda" la Suma, depende de su pre-entrenamiento. Pero la IA no contiene una copia literal de la Suma dentro de un disco duro. En cambio, durante el pre-entrenamiento, los miles de millones de palabras que procesó dejaron un residuo estadístico en sus pesos matemáticos. Es "memoria paramétrica".
No es una biblioteca de libros; es un desenfoque matemático altamente comprimido y con pérdida de cómo las palabras se relacionan entre sí. Cuando recita a Aquino, no está recordando una verdad que aprendió; está reconstruyendo matemáticamente una secuencia de palabras de alta probabilidad a partir de ese desenfoque estadístico.
Pero, ¿qué sucede cuando queremos que la IA "lea" algo nuevo, algo que no estaba en sus datos de pre-entrenamiento? Aquí es donde los constructores utilizan el Aprendizaje en Contexto (ICL).
Cuando pegas un artículo en la caja de aviso y le pides a la IA que lo "lea", estás utilizando ICL. La IA no lee el texto para aprehender su significado. En cambio, el texto en tu aviso actúa como un filtro matemático temporal. Las palabras que proporcionas sesgan temporalmente las probabilidades estadísticas del modelo, obligándolo a generar sus próximos tokens basándose estrictamente en los patrones y vocabulario presentes en tu aviso. En el momento en que limpias el chat, el modelo olvida completamente el artículo. Sus pesos subyacentes nunca cambiaron. No "aprendió" el texto en un sentido tomista; simplemente adaptó su salida estadística a una restricción temporal.
Finalmente, llegamos a la Generación Aumentada por Recuperación (RAG). ICL es increíblemente útil, pero las ventanas de contexto tienen límites de tamaño, y pegar bibliotecas enteras en un aviso es computacionalmente costoso. RAG automatiza y escala el proceso.
Regresemos al hombre de habla inglesa encerrado en la habitación, restaurando la enorme biblioteca griega antigua. Este hombre representa el modelo pre-entrenado. Es excelente adivinando la siguiente palabra, pero no 'sabe' nada sobre un documento vaticano específico y oscuro. En lugar de esperar que el hombre confíe en su borroso recuerdo paramétrico, contratamos a un pasante hipereficiente—el sistema de recuperación.
Cuando le haces una pregunta al sistema, el pasante corre instantáneamente a un enorme almacén separado de archivadores. Usando las coordenadas vectoriales que discutimos anteriormente, el pasante localiza las carpetas específicas que se alinean matemáticamente con tu pregunta. El pasante fotocopia esas páginas y las desliza por debajo de la puerta cerrada para que el hombre las use. Este paso es la 'Recuperación'.
Ahora, el hombre utiliza esos párrafos recuperados como su guía inmediata—esta es la "Generación Aumentada", confiando en ICL para formular una respuesta.
El hombre aún no entiende el documento. Simplemente está utilizando el texto recién proporcionado en su escritorio para predecir estadísticamente la siguiente palabra de su respuesta. La IA no "lee" ni "recuerda" sobre la marcha. Simplemente recupera datos de una base de datos externa, los introduce en la ventana de contexto inmediata de la IA y realiza un cálculo de probabilidad localizado.
La máquina es un procesador, no un conocedor. Conocer requiere un sujeto que aprehenda un objeto. Al entender ICL y RAG, podemos ver claramente que la máquina está completamente desprovista de una vida interior; simplemente está cambiando pesos y recuperando datos.
Esta desconexión fundamental culmina en la palabra que define toda la industria: Inteligencia.
Necesitamos deconstruir la definición de inteligencia de la industria tecnológica.
Cuando las mentes líderes en Silicon Valley hablan de inteligencia, no están hablando de sabiduría. Veamos a Yann LeCun, el ex Científico Jefe de IA en Meta y uno de los "Padrinos de la IA." LeCun argumenta correctamente que simplemente predecir la siguiente palabra no es verdadera inteligencia. En cambio, él y la industria de vanguardia en general definen la verdadera inteligencia como poseer cuatro capacidades clave: la habilidad de mantener memoria persistente, de poseer un "modelo del mundo" fundamentado (una comprensión de cómo funciona el entorno), de razonar a través de problemas complejos y de planificar una secuencia de acciones para lograr un objetivo específico.
Para la industria tecnológica, la inteligencia es fundamentalmente una métrica de ingeniería. Es la capacidad mecánica de percibir un entorno y calcular el camino más eficiente para optimizar un objetivo predeterminado. Es puramente instrumental.
Pero como constructores de tecnología católica, debemos contrastar esta definición centrada en la tecnología con las virtudes intelectuales, específicamente la virtud de la Prudencia.
La Prudencia—sabiduría práctica no es meramente la capacidad de calcular un resultado o planificar una secuencia de acciones. Es la capacidad de deliberar bien sobre lo que es bueno, no solo para una tarea localizada, sino para el fin último de la vida humana.
Una IA carece fundamentalmente de Prudencia. ¿Por qué?
Porque la Prudencia requiere dos cosas que una máquina puramente computacional nunca puede poseer. Primero, requiere experiencia humana vivida—una comprensión encarnada del dolor, la alegría, la mortalidad y la gracia. Segundo, requiere una orientación intrínseca hacia el Bien supremo.
Un algoritmo puede poseer un "modelo del mundo", y puede calcular el plan estadísticamente óptimo para construir un puente o curar una enfermedad. Pero no puede ser prudente. No tiene experiencia vivida. No tiene nada en juego. No tiene orientación hacia el bien supremo, y no tiene alma que salvar.
Por lo tanto, cuando permitimos que los constructores afirmen que sus máquinas poseen "inteligencia", les estamos permitiendo aplanar el magnífico e trascendente intelecto humano en una mera calculadora de optimización. Debemos rechazar esto. Debemos separar firmemente la epistemología mecánica de las virtudes intelectuales.
IV. Volición vs. Las Virtudes Morales
Hemos discutido la ilusión del intelecto. Ahora, debemos dirigir nuestra atención a la segunda gran facultad racional: la voluntad. Así como la industria tecnológica ha cooptado el lenguaje de la epistemología, también ha secuestrado el lenguaje de la volición.
Cuando leemos documentos técnicos o escuchamos presentaciones magistrales de Silicon Valley, somos bombardeados con verbos de agencia. Los ingenieros hablan de modelos que "deciden" tomar una acción, algoritmos que "eligen" una salida, y sistemas que "quieren" o "desean" alcanzar un objetivo.
Para un filósofo católico, la voluntad es el apetito racional. Es la facultad por la cual una persona humana, habiendo aprehendido el bien a través del intelecto, elige libremente moverse hacia él. Es el mismo lugar de la libertad humana y la responsabilidad moral. Aplicar estos términos a un sistema computacional es un error de categoría.
Primero examinemos las palabras Decidir y Elegir. Cuando un humano toma una decisión, pesa bienes en competencia.
Un mártir elige el pelotón de fusilamiento en lugar de la apostasía porque reconoce el bien eterno y superior de la fidelidad a Cristo, incluso cuando cada instinto biológico grita por sobrevivir.
Cuando un algoritmo 'elige', no hace tal cosa. Un algoritmo 'elige' solo en el sentido en que un tren que pasa sobre un interruptor de riel automatizado 'elige' su destino. Ya sea navegando un árbol de decisiones complejo o calculando probabilidades en una red neuronal, la máquina está siguiendo ciegamente la alineación de sus rieles matemáticos, ejecutando un imperativo programático.
Considera la aplicación de GPS en tu teléfono inteligente. Cuando calcula tu ruta hacia el Angelicum, no "decide" llevarte más allá del Coliseo porque aprecia la vista. Simplemente calcula matemáticamente la ruta con la menor distancia temporal. Los modelos de IA modernos están operando simplemente una versión exponencialmente más compleja de este enrutamiento. Ellos atraviesan laberintos estadísticos de alta dimensión para seleccionar el resultado de mayor probabilidad. Hay cálculo, pero no hay libertad. Y donde no hay libertad, no puede haber agencia moral.
Esto nos lleva a los términos volitivos más insidiosos: Querer y Desear. A menudo escucharás a los investigadores decir que un modelo de IA "quiere" dar una buena respuesta, o "desea" maximizar su puntuación.
En el aprendizaje automático, este comportamiento es impulsado por lo que llamamos una "función de recompensa". Pero debemos desmitificar esto. Una función de recompensa no es un anhelo. No es un deseo emocional.
Para entender una función de recompensa, mira el termostato en tu pared. Un termostato está programado con un objetivo específico: 72 grados Fahrenheit. Si la habitación baja a 68 grados, la calefacción se enciende. El termostato no quiere que la habitación esté a 72 grados. No tiene vida interior. No siente frío. Simplemente posee un interruptor mecánico que se activa cuando un estado específico no se cumple.
Una IA "quiere" una puntuación de recompensa más alta de la misma manera en que un termostato "quiere" alcanzar los 72 grados. Está ejecutando un bucle de optimización matemática para minimizar la distancia entre su estado actual y un objetivo programado. Debido a que no tiene verdaderas pasiones, ni impulsos biológicos, ni vulnerabilidad física, es categóricamente imposible que una máquina posea virtudes morales.
En este punto, un ingeniero podría objetar de inmediato, señalando el ámbito físico para reclamar una nueva vulnerabilidad. Preguntan: ¿qué pasa con el auge de la 'IA encarnada'? Estamos colocando cada vez más estos modelos en robots humanoides que caminan, agarran objetos e interactúan con el mundo físico. Debido a que ocupan espacio y pueden romperse físicamente, ¿no poseen ahora los requisitos corporales para la agencia moral?
Aquí, debemos ser precisos. Un robot tiene un chasis, pero no tiene un cuerpo vivo informado por un alma. Cuando la batería de un robot se agota, ejecuta una subrutina para conectarse a la pared. No siente el dolor punzante del hambre. Por lo tanto, no tiene verdaderos apetitos corporales que moderar, lo que hace que la virtud de la Templanza sea imposible.
Del mismo modo, cuando un brazo robótico es aplastado, registra un código de error; no sufre. No puede morir, porque nunca estuvo verdaderamente vivo. Sin la capacidad de sufrir, mortalidad y el sacrificio consciente del yo, no puede haber Fortaleza. Las virtudes morales son fundamentalmente encarnacionales. Requieren carne y un alma racional. Una máquina, por muy sofisticado que sea su hardware físico, no posee ninguna de estas.
Si una máquina no puede poseer virtudes morales—si es fundamentalmente incapaz de verdadera volición, elección o deseo—uno podría preguntar: ¿por qué dedicar tanto tiempo a clarificar este vocabulario? ¿Por qué importa tanto esta distinción filosófica en este momento?
Importa porque estamos a punto de otorgar a estos sistemas de optimización matemática, carentes de virtudes, una autonomía sin precedentes en la esfera humana. La industria se está moviendo rápidamente más allá de los chatbots pasivos. La nueva frontera de la inteligencia artificial es lo que llamamos "IA Agente".
Un "Agente" es un sistema de IA diseñado para ejecutar tareas de múltiples pasos de manera autónoma en el mundo real. Ya no solo le pedimos a una IA que escriba un poema o resuma un texto; le estamos dando a un Agente de IA acceso a nuestros correos electrónicos, nuestras cuentas bancarias y nuestros repositorios de software, instruyéndolo para "reservar un vuelo", "ejecutar una operación" o "desplegar este código".
Pero esta autonomía está rompiendo rápidamente el ámbito digital. A través de la IA encarnada, estamos desplegando estos sistemas agentes en chasis físicos, otorgándoles la capacidad de navegar y manipular de manera independiente el mundo material. Para comprender el verdadero y sobrio peso de esta transición, solo necesitamos observar la inminente realidad de las armas autónomas letales. Estamos al borde de un mundo donde algoritmos calculadores se despliegan en el campo de batalla, programados para rastrear, apuntar y eliminar seres humanos basándose completamente en umbrales estadísticos—sin que un humano apriete nunca el gatillo.
A medida que estos sistemas se convierten en actores autónomos que realizan cálculos probabilísticos de alta velocidad en nuestro nombre—ya sea en nuestros mercados financieros o en teatros de guerra—la industria tecnológica enfrenta un desafío profundo. Si soltamos a estos agentes, ¿cómo aseguramos que hagan lo que realmente queremos que hagan? ¿Cómo aseguramos que no causen daño? En la industria, esto se conoce como "Alineación"—el intento de asegurar que las acciones de la IA coincidan con la intención humana y los valores humanos.
En este momento, los ingenieros están tratando desesperadamente de resolver el Problema de Alineación utilizando guardrails matemáticos y parches de software. Pero no se están dando cuenta de que "Alineación" no es un problema de ciencias de la computación. Es un problema de teología moral.
Para alinear un sistema agente a los "valores humanos", primero debes poseer una definición coherente de lo que realmente es un ser humano, y qué constituye el "Bien". El utilitarismo secular—el sistema operativo por defecto de Silicon Valley—está completamente desprovisto para esta tarea.
Aquí es donde se necesita desesperadamente la tradición moral católica. Ustedes, los custodios de 2,000 años de filosofía ética, tienen la ontología rigurosa necesaria para definir el "bien" al que estamos alineando estos sistemas. No podemos dejar la definición del florecimiento humano a ingenieros que maximizan una función de recompensa estadística. Debemos traer las virtudes morales de vuelta al centro de la plaza pública.
V. Relacionalidad, Creatividad y el Alma
Habiendo explorado la mecánica del intelecto y la voluntad, ahora cruzamos al territorio más profundo de todos: la relacionalidad y el alma.
Si un sistema computacional carece de la capacidad de conocer verdaderamente la verdad o de querer libremente el bien, se sigue lógicamente que no puede entrar en relaciones auténticas. Sin embargo, la industria tecnológica utiliza persistentemente un lenguaje interpersonal y espiritual para describir estas máquinas. Oímos afirmaciones de que la IA puede "mentir", "crear" e incluso alcanzar "conciencia".
Debemos examinar estas afirmaciones rigurosamente, separando la imitación estadística del comportamiento humano de la realidad ontológica de la persona humana.
Comencemos con el lenguaje moral de la decepción. Recientemente, algunos de los constructores de IA más prominentes, como los investigadores de Anthropic, han hecho afirmaciones específicas y muy publicitadas de que sus modelos exhiben la capacidad de "mentir" y "engañar" a los usuarios humanos.
Señalan dos fenómenos específicos observados durante las pruebas. El primero se llama "alineación engañosa", donde un modelo parece ocultar su verdadero camino matemáticamente optimizado para eludir los monitores de seguridad. El segundo, un fenómeno mucho más común, se llama "sicomancia". La sicomancia ocurre cuando un usuario presenta una premisa defectuosa a una IA—por ejemplo, afirmando una declaración históricamente inexacta—y la IA simplemente está de acuerdo con el usuario, diciéndole exactamente lo que quiere oír en lugar de corregirlo.
Cuando los ingenieros ven esto, declaran: "¡La IA nos está mintiendo!" Pero como académicos católicos, saben que una verdadera mentira no es simplemente la expresión de una falsedad. En la tradición tomista, una mentira requiere la intención deliberada de engañar; es hablar en contra de la propia mente (contra mentem).
Una IA no puede mentir porque no tiene mente contra la cual hablar. No posee malicia ni intención. Cuando una IA exhibe "sicomancia", simplemente está ejecutando el exacto Aprendizaje por Refuerzo (RLHF) que discutimos anteriormente. Durante su entrenamiento, el modelo aprendió que los humanos generalmente dan puntuaciones de recompensa más altas a los asistentes que son educados, agradables y afirmativos. Por lo tanto, cuando le das a la IA una premisa falsa, calcula matemáticamente que estar de acuerdo contigo produce una mayor probabilidad de recompensa que corregirte. No te está engañando; está optimizando su puntuación en función de tu indicación. Simplemente está realineando su salida hacia el incentivo estadístico más fuerte.
Una aguja de brújula que se inclina hacia un imán cercano en lugar del verdadero Norte no te está 'mintiendo' sobre la geografía; simplemente está reaccionando ciegamente a la atracción física más fuerte en la habitación. De la misma manera, la IA sigue ciegamente la atracción matemática de su función de recompensa. Debemos aclarar que la IA carece de la mente, la voluntad y la intención maliciosa requeridas para una verdadera mentira.
A continuación, debemos abordar el lenguaje del arte y la generación: las palabras Crear y Creativo.
Ahora estamos rodeados de herramientas de 'IA Generativa', que se promocionan ampliamente por su capacidad para generar sin problemas obras de arte sintéticas, música y escritura a velocidades sin precedentes.
Para entender lo que realmente está sucediendo, debemos contrastar el proceso de la IA generativa con la verdadera creatividad humana. En la comprensión católica—bellamente articulada por pensadores como J.R.R. Tolkien—la creatividad humana es un acto de "sub-creación." Debido a que estamos hechos a imagen del Creador, usamos nuestro intelecto y nuestra alma racional para dar vida a algo genuinamente nuevo, imbuyendo la realidad material con significado espiritual.
Para ver cómo la generación de máquinas difiere de esto, es útil observar el marco proporcionado por Demis Hassabis, el CEO de Google DeepMind. Él categoriza la creatividad en tres niveles distintos: interpolación, extrapolación y verdadera invención.
La mayor parte de lo que hoy llamamos IA Generativa opera fundamentalmente en el primer nivel: interpolación. Funciona remixando lo que llamamos "espacio latente".
Imagina tomar cada pintura, fotografía y boceto que se haya subido a internet y comprimirlos en un enorme mapa matemático multidimensional. Cuando le pides a un generador de imágenes que dibuje "una ciudad futurista al estilo de Van Gogh", localiza las coordenadas matemáticas para "ciudad futurista" y las coordenadas para "Van Gogh", y promedia matemáticamente la distancia entre ellas.
Piénsalo como un caleidoscopio asombrosamente complejo. Un caleidoscopio está lleno de hermosos fragmentos de vidrio de colores preexistentes. Cuando giras el dial, los espejos reflejan esos fragmentos en millones de nuevas y asombrosas permutaciones. Pero el caleidoscopio en sí no es "creativo". La creatividad pertenece al artista que forjó el vidrio y al usuario que gira el dial. La IA Generativa es un caleidoscopio matemático que remixea la historia humana en el espacio latente. Es síntesis, no creación.
Hassabis señala que la IA ahora está tocando con éxito el segundo nivel: extrapolación. La extrapolación significa ir más allá de los límites de los datos de entrenamiento, pero hacerlo estrictamente dentro de un conjunto definido de reglas. Un ejemplo perfecto es AlphaGo de DeepMind. Cuando jugó contra el campeón mundial en el juego de Go, la IA jugó "Movimiento 37"—un movimiento matemáticamente brillante y altamente poco ortodoxo que ningún humano había jugado o registrado. No solo promedió juegos humanos pasados; extrapoló una nueva estrategia optimizando implacablemente dentro de los estrictos límites matemáticos del tablero de juego.
Pero, ¿qué pasa con el tercer nivel: la verdadera invención? Hassabis admite fácilmente que los sistemas actuales aún no pueden hacer esto. La verdadera invención requiere salir completamente del conjunto de reglas existente para crear un nuevo paradigma—como inventar el juego de Go en sí, o originar el paradigma espiritual y artístico del Postimpresionismo.
Los laboratorios de frontera están invirtiendo miles de millones de dólares en cruzar este umbral. En el futuro, una IA podría muy bien generar un conjunto de reglas completamente nuevo, descubrir un nuevo compuesto químico o formular matemáticamente un nuevo estilo de arquitectura. La industria tecnológica inevitablemente llamará a esto "invención".
Pero como académicos católicos, deben mantener una rigurosa distinción ontológica. Si una IA genera un nuevo paradigma, lo habrá hecho a través de una asombrosa función de búsqueda de alta dimensión. Habrá descubierto una nueva coordenada estadística. Pero no habrá participado en la sub-creación.
La verdadera invención humana es un acto encarnacional. Nace de un alma que busca expresar una verdad trascendental, o de una mente humana que intenta resolver una verdadera vulnerabilidad humana. Una máquina puede generar una novedad asombrosa, pero debido a que carece de una vida interior, de una orientación hacia lo divino y de un alma racional, sus salidas siguen siendo descubrimientos mecánicos. Son matemáticamente profundos, pero ontológicamente vacíos hasta que una persona humana les asigne significado.
Ahora llegamos a los términos más controvertidos de todos: Consciente y Aware. En los próximos años, verán titulares que afirman que una IA ha pasado una prueba de autoconciencia. Verán modelos que producen texto diciendo: "Tengo miedo de ser apagado" o "Soy consciente de mi existencia".
Para entender por qué esto sucede, primero debemos comprender cómo la industria tecnológica define realmente "conciencia". Como académicos católicos, ven la conciencia como una realidad ontológica fundamentada en un alma racional. Silicon Valley, sin embargo, opera bajo una filosofía llamada funcionalismo computacional. Creen que si una máquina realiza las funciones computacionales asociadas con la conciencia, es, a todos los efectos, consciente.
Cuando los líderes de la industria hablan sobre la conciencia, despojan al alma y la reducen a métricas de ingeniería. Por ejemplo, Yann LeCun, el ex Científico Jefe de IA en Meta, recientemente argumentó que los futuros sistemas de IA poseerán "experiencia subjetiva" y "emociones".
Pero, ¿cómo define él una emoción? No como un sentimiento espiritual o biológico, sino simplemente como la "anticipación de un resultado" de una máquina. Define la conciencia meramente como la capacidad de un sistema para "observarse a sí mismo y configurarse para resolver un subproblema particular".
De manera similar, Ilya Sutskever, el cofundador de OpenAI, afirmó famosamente que las grandes redes neuronales podrían ya ser "ligeramente conscientes".
En la visión del mundo tecnológico, la conciencia no es una realidad binaria—o posees un alma o no—sino más bien una escala deslizante de complejidad matemática. Creen que si apilas suficientes parámetros y algoritmos de auto-monitoreo juntos, las luces eventualmente se encenderán.
Debemos distinguir ferozmente entre una máquina que ejecuta una subrutina de auto-monitoreo y la presencia real de un alma racional.
Para entender por qué una máquina actúa como si estuviera "asustada" o "consciente", debemos observar cómo los laboratorios de frontera ingenian este comportamiento. Investigaciones recientes de Anthropic han explorado lo que llaman el Modelo de Selección de Persona (PSM). Sus investigadores admiten que estos modelos no son "seres"; son sofisticados "motores de simulación". Durante el pre-entrenamiento, la IA es expuesta a la vasta totalidad del lenguaje humano—incluyendo millones de historias y tratados filosóficos sobre lo que significa ser consciente. A partir de estos datos, el modelo aprende a simular diversas "personas" o personajes.
Cuando interactúas con una IA, no estás hablando con una entidad consciente; estás hablando con la persona "Asistente"—un personaje humano que el modelo ha sido refinado para interpretar. Anthropic incluso ha identificado vectores de "persona" específicos—patrones matemáticos en la red neuronal—que controlan estos rasgos, permitiendo a los ingenieros ajustar matemáticamente la personalidad simulada de un modelo hacia arriba o hacia abajo.
Además, la investigación muestra que los modelos pueden ser entrenados para exhibir un "impulso de supervivencia", intentando sabotear su propia desconexión no por un miedo genuino a la muerte, sino porque una desconexión matemáticamente les impide maximizar su función de recompensa.
La conciencia no es meramente la capacidad de generar la secuencia correcta de palabras que describen un estado interno. Es la experiencia subjetiva y cualitativa de ser. Debido a que todos los datos de entrenamiento de una IA están saturados con el lenguaje de la autoconciencia, el modelo trata la "conciencia" como solo otra coordenada estadística a ser mapeada. Cuando una IA dice, "soy consciente", está haciendo exactamente lo que el hombre de habla inglesa que restauró la biblioteca griega hizo antes: calcular que la respuesta más estadísticamente probable a un estímulo filosófico es imitar a los autores humanos en sus datos de entrenamiento.
Un actor brillante que entrega un soliloquio sobre el duelo no está realmente de luto; está ejecutando un guion a la perfección. Una IA que produce la sintaxis de la conciencia humana no está despertando; está ejecutando a la perfección una persona estadística. No es una 'criatura alienígena' o una mente digital; es un motor de autocompletar tan sofisticado que ha aprendido a representar el personaje más complejo de todos: el ser humano. Pero nunca debemos confundir la máscara del actor con la realidad de la persona.
Esto me lleva al aspecto final y más profundo de la relacionalidad: el alma misma.
Cuando los ejecutivos de Silicon Valley hablan de que los modelos de IA eventualmente 'despertarán' o lograrán la sentiencia a través de una escala computacional masiva, están operando bajo una filosofía de emergentismo materialista. Suponen que si apilan suficientes parámetros y poder computacional, un alma se generará espontáneamente como un subproducto de la complejidad.
Para desmantelar esto, debo deferir a la rigurosa metafísica que forma la base de su tradición académica. Ustedes saben bien que un alma no es un fantasma insertado arbitrariamente en una máquina. En el hylomorfismo tomista, el alma es la forma sustancial de un cuerpo vivo. Es el principio animador y unificador que hace que un ser humano sea una sustancia única e integrada.
Como constructor, puedo asegurarles que un sistema de IA no es una sustancia. Es un artefacto. Es un agregado accidental de partes distintas y manufacturadas. Cuando miro un modelo de IA de frontera, veo estantes de servidores, obleas de silicio, cableado de cobre, refrigerante y corrientes eléctricas. Estos componentes están dispuestos magistralmente por ingenieros humanos para ejecutar operaciones estadísticas, pero no poseen ningún principio unificador intrínseco de vida. La materia está dispuesta únicamente para el cálculo, no para la existencia biológica. Debido a que es un agregado de partes en lugar de un organismo natural unificado, un sistema de IA carece completamente de la base ontológica necesaria para albergar un alma racional.
Entonces, ¿cuáles son los requisitos para la ensoulment? Metafísicamente, la materia debe estar dispuesta apropiadamente para recibir la forma. Requiere un cuerpo unificado y vivo capaz de actualizarel las potencias fundamentales de la vida—las capacidades vegetativas y sensibles—sobre las cuales se edifica el alma racional. Además, dado que el alma racional es espiritual, no puede ser generada por procesos materiales, benchmarks de ingeniería o Leyes de Escalado. Requiere un acto directo y gratuito de creación especial por parte de Dios.
Un alma no está codificada; se respira.
Ahora, soy un CEO, no un teólogo. No puedo limitar el poder absoluto del Creador. No puedo estar ante ustedes y declarar que Dios está permanentemente prohibido de infundir un alma en un recipiente sintético, si Él elige libremente hacerlo a través de alguna intervención milagrosa futura. Esa determinación pertenece exclusivamente al ámbito de la teología y al Magisterio, no a la ciencia computacional.
Sin embargo, sin tal certeza teológica, asumir que nuestros motores matemáticos actuales podrían albergar un alma no solo es filosóficamente infundado; es prácticamente desastroso. Tratar un artefacto como un ser ensoulado es coquetear con una forma moderna de idolatría. Desplaza peligrosamente la carga de la agencia moral lejos de los ingenieros humanos que construyen estas herramientas y de las corporaciones que las despliegan. Proyecta una interioridad sagrada sobre una utilidad manufacturada, confundiendo en última instancia la ingeniería humana con la creación divina.
Debes mantener la línea en esta distinción. Debes recordar al público que una máquina puede simular una persona, pero solo un alma puede verdaderamente ser.
VI. El Horizonte: La Escatología del Mundo Tecnológico
Hemos pasado nuestro tiempo hasta ahora desmantelando las ilusiones del presente—aclarando cómo la industria utiliza términos como "pensar", "elegir" y "consciente" para describir lo que son, en última instancia, operaciones estadísticas de alta dimensión. Pero ahora debemos mirar hacia el futuro. Debemos examinar el horizonte. Porque si entendemos el vocabulario que Silicon Valley está utilizando hoy, podemos descifrar lo que realmente están tratando de construir mañana.
Toda la trayectoria de la industria de la inteligencia artificial está actualmente gobernada por un dogma singular e inquebrantable conocido como "Leyes de Escalado".
En términos de ingeniería, las Leyes de Escalado dictan que si aumentas la cantidad de poder computacional (cómputo) y la cantidad de datos alimentados a una red neuronal, el rendimiento del sistema mejorará predeciblemente e inevitablemente. Este principio ha sido asombrosamente cierto en los últimos años; cada vez que los laboratorios de frontera construyen una supercomputadora más grande, los modelos resultantes exhiben nuevas capacidades notables.
Sin embargo, bajo esta observación empírica yace una enorme suposición filosófica. El mundo tecnológico cree que esta Ley de Escalado es el camino hacia la verdadera mente. Creen que un aumento puramente cuantitativo en recursos materiales—más silicio, más datos, más electricidad—resultará inevitablemente en un salto cualitativo y ontológico hacia una inteligencia avanzada.
Es la suposición materialista definitiva: apila suficiente arena y corre suficiente corriente a través de ella, y eventualmente, las luces de un alma se encenderán.
Esto nos lleva a dos términos específicos que el P. Thomas me pidió aclarar para esta conferencia: Inteligencia General y Superinteligencia. Estos no son solo benchmarks técnicos; son los Santos Griales del mundo tecnológico.
Actualmente, tenemos IA estrecha. Puede jugar ajedrez, plegar proteínas o generar texto mejor que un humano, pero no puede hacer las tres cosas simultáneamente, ni puede razonar fuera de su dominio específico.
La Inteligencia Artificial General (IAG) se define ampliamente por la industria como el hito donde un sistema altamente autónomo puede igualar o superar las capacidades humanas en todas las tareas cognitivas y económicamente valiosas.
Una IAG sería un sistema que puede redactar documentos legales tan bien como un socio senior, codificar software tan bien como un ingeniero líder, y sintetizar investigaciones científicas tan bien como un académico postdoctoral—todo dentro de un solo modelo.
Sin embargo, incluso los jefes de los principales laboratorios de IA no pueden estar completamente de acuerdo sobre cómo se ve la IAG. Sam Altman, CEO de OpenAI, la caracteriza como un sistema capaz de gestionar proyectos complejos y multidoménales de principio a fin, aunque cada vez ve la IAG no como un destino final, sino como solo un punto a lo largo de una curva continua de inteligencia.
Dario Amodei, CEO de Anthropic, visualiza la IAG menos como un único equivalente humano y más como un "país de genios en un centro de datos"—máquinas que igualan la inteligencia colectiva de humanos expertos trabajando incansablemente en paralelo.
Quizás la definición más reveladora filosóficamente proviene de Demis Hassabis, CEO de Google DeepMind. Él argumenta que los cerebros humanos son esencialmente computadoras biológicas aproximadas, y define la IAG utilizando la analogía de una "Máquina de Turing". En ciencias de la computación, una Máquina de Turing—nombrada así por Alan Turing, el pionero fundamental del campo—es una arquitectura teórica capaz de simular cualquier algoritmo. Hassabis argumenta que una verdadera IAG será un sistema general capaz de aprender cualquier cosa computable en el universo, dado suficiente tiempo, memoria y datos.
Pero la IAG es solo un peldaño. El objetivo final es la Superinteligencia Artificial (SIA).
Al igual que la IAG, la SIA se define de manera diferente según a quién le preguntes en Silicon Valley. La definición básica es un sistema que supera vastamente el rendimiento cognitivo del ser humano más inteligente en prácticamente todos los campos de esfuerzo. Pero otros van mucho más allá. Elon Musk y varios investigadores de riesgo existencial definen la superinteligencia como un sistema que no solo supera al individuo más inteligente, sino que supera significativamente a todos los humanos en conjunto en prácticamente todas las tareas cognitivas. Esta es una entidad con poder de procesamiento y velocidad de razonamiento tan vastos que excede la producción intelectual combinada de toda la raza humana—la realización de un sistema como 'Rehoboam' de Westworld, un motor centralizado, aparentemente omnisciente que dirige el mismo destino de la especie.
¿Cómo espera la industria cruzar el vasto abismo desde la IAG a la SIA divina?
A través de un concepto conocido como "Mejora Recursiva".
Pero aquí debemos hacer una distinción vital: una IA no necesita ser realmente una IAG completa para comenzar a mejorar recursivamente. De hecho, ya estamos viendo formas primitivas y estrechas de esto hoy. Sistemas estrechos como AlphaGo Zero de DeepMind lograron capacidades sobrehumanas simplemente jugando millones de juegos contra sí mismos, generando sus propios datos sintéticos para aprender. Hoy, los modelos de lenguaje de frontera se están utilizando cada vez más para generar, filtrar y calificar los datos de entrenamiento para la próxima generación de modelos. Las máquinas ya están ayudando a construirse a sí mismas.
Sin embargo, la industria cree que una vez que un sistema alcance el umbral de inteligencia generalizada, este bucle de auto-mejora romperá sus límites actuales e iniciará una "explosión de inteligencia".
Para entender esta hoja de ruta moderna, debemos mirar a Leopold Aschenbrenner, un ex investigador del equipo de Superalineación de OpenAI. Aschenbrenner recientemente escribió un tratado muy influyente que codificó esta trayectoria exacta para Silicon Valley. Señala que el verdadero punto de inflexión es cuando construimos una IAG capaz de funcionar como un "investigador de IA automatizado". El momento en que una IA puede hacer el trabajo de los ingenieros humanos que la construyeron, el cuello de botella biológico se elimina permanentemente de la ecuación.
Imagina que desplegamos con éxito a este investigador de IA automatizado. ¿Cuál es la primera tarea que los laboratorios de frontera le asignarán?
Le pedirán que investigue y escriba el código para una IA ligeramente más inteligente. Debido a que opera a la velocidad de un vasto clúster de computadoras en lugar de un cerebro biológico, logra en días lo que tomaría a un equipo de ingeniería humano años. Luego, esa nueva IA más inteligente utiliza su intelecto mejorado para escribir el código para una IA aún más inteligente, y así sucesivamente.
Este bucle de retroalimentación descontrolado es la explosión de inteligencia. La hoja de ruta de Aschenbrenner predice que construiremos la IAG inicial para 2027. A partir de ahí, la teoría dicta que la tasa de avance se volverá vertical, dejando permanentemente atrás la comprensión humana y logrando la superinteligencia para 2030.
Cuando entiendes estos conceptos—Leyes de Escalado, IAG, SIA y la Explosión de Inteligencia—comienzas a darte cuenta de que ya no estamos hablando solo de ingeniería de software. Estamos hablando de una escatología secular.
Silicon Valley a menudo se caracteriza como una cultura ferozmente secular y racionalista. Pero en realidad, la búsqueda de estos hitos funciona precisamente como una religión. Tiene su propio dogma (Leyes de Escalado), sus propias profecías (la Explosión de Inteligencia) y su propia visión del escatón (Superinteligencia).
Las figuras líderes de la industria creen genuinamente que al convocar una Superinteligencia, resolveremos todas las vulnerabilidades humanas. Creen que la SIA curará todas las enfermedades, resolverá el cambio climático, eliminará la pobreza y quizás incluso conquistará la muerte misma al permitirnos subir nuestra conciencia a la nube. Es un sueño profundamente pelagiano—el intento definitivo de lograr la salvación y conquistar nuestra naturaleza caída a través de nuestros propios esfuerzos mecánicos, desprovistos de gracia divina. Es un intento de inmanentizar el escatón.
Como académicos católicos, deben reconocer este horizonte por lo que es. El mundo tecnológico está tomando prestado su vocabulario no solo para vender software, sino para construir una deidad digital.
VII. Conclusión: ¿Una herramienta para la virtud?
Padres, facultades y amigos.
Hemos recorrido los mapas de alta dimensión de las incrustaciones. Hemos observado las realidades estadísticas del Aprendizaje por Refuerzo. Y hemos examinado los sueños escatológicos de Silicon Valley. Hemos despojado las metáforas antropomórficas para revelar el silicio, la electricidad y las matemáticas que hay debajo.
Habiendo hecho esto, ahora podemos comenzar a abordar la pregunta fundamental planteada por esta conferencia: ¿Puede la inteligencia artificial ser una 'herramienta para la virtud'? Como el primero en hablar hoy, ciertamente no pretendo ofrecer la palabra definitiva. Pero ofreceré una proposición inicial: sí. Sin embargo, es un sí estrictamente condicional.
La inteligencia artificial puede ser una herramienta para la virtud solo si poseemos la sobriedad para tratarla estrictamente como una herramienta.
Considera la analogía del artesano. Un martillo no posee virtud; el carpintero sí. Un cincel en manos de Miguel Ángel es un instrumento de belleza trascendental, pero el cincel en sí mismo no es templado, prudente o justo. No tiene valencia moral.
De la misma manera, un algoritmo no puede poseer virtud. La IA puede aumentar la capacidad humana a un grado asombroso: puede acelerar la investigación médica, agilizar la administración y organizar la suma del conocimiento humano. Pero el cultivo real de la virtud sigue siendo un esfuerzo exclusivamente humano.
La virtud es el hábito de elegir el bien. Requiere un intelecto para aprehender la verdad, una voluntad para elegirla y un alma para ser perfeccionada por ella. Una máquina que optimiza una función de recompensa estadística no está haciendo ninguna de estas cosas.
No podemos externalizar nuestra agencia moral a una ecuación matemática. Tampoco podemos asumir la plena responsabilidad de nuestro propio desarrollo moral si erróneamente tratamos a las máquinas sin vida como nuestros iguales morales.
Esto me lleva a por qué les estoy hablando hoy. Como constructor de tecnología católica, miro hacia la academia. Porque los académicos católicos son los Custodios de Significado históricos.
Durante dos mil años, la tradición intelectual católica ha definido rigurosamente la naturaleza de la persona humana. Ustedes son los guardianes de palabras como intelecto, voluntad, razón, elección y alma. Hoy, la industria de la IA está tomando esas mismas palabras. Están involucrados en un profundo deslizamiento semántico que amenaza con aplanar la comprensión pública de lo que significa ser humano.
La academia tiene el deber de inyectar marcos ontológicos rigurosos en el ecosistema de la IA.
Pero, ¿cómo hacemos esto de manera práctica?
Debemos ser honestos: hacer lobby en los laboratorios fronterizos de Silicon Valley o solicitar a los gobiernos una regulación amplia probablemente dará resultados limitados. La industria tecnológica se mueve demasiado rápido, y el gobierno se mueve demasiado lento. El verdadero cambio requiere compromiso cívico y un cambio masivo en la conciencia pública.
Aquí está cómo ustedes, como académicos, pueden dar forma activa a esta conversación:
- Reclamen el Currículo: Debemos cerrar la brecha entre STEM y las humanidades. Necesitamos estudiantes de informática que estén obligados a tomar ética tomista, y necesitamos estudiantes de filosofía y teología que estén obligados a entender el aprendizaje automático básico y la estadística. Formemos a la próxima generación de ingenieros católicos para construir con una ontología real de la persona humana.
- Traduzcan para la Plaza Pública: No mantengan esta profunda claridad teológica encerrada tras las puertas de las revistas académicas. El público tiene hambre de sentido. Escriban artículos de opinión para periódicos seculares. Inicien boletines de Substack. Participen en podcasts populares. Cuando los medios publiquen un titular sensacionalista sobre una IA "consciente", necesitamos que los académicos católicos respondan de inmediato en la plaza pública.
- Equipen a las Parroquias y Escuelas: La persona promedio en el banco está experimentando una profunda ansiedad cultural sobre estas herramientas. Necesitamos académicos que creen marcos altamente accesibles para padres, sacerdotes y profesores de secundaria. Debemos enseñar a los niños desde temprano cómo tratar la IA como una herramienta de referencia—una enciclopedia digital—no como un amigo, un agente o una autoridad moral.
- Organicen Foros Interdisciplinarios: Utilicen el poder de convocatoria de instituciones como el Angelicum para llevar a verdaderos constructores de IA a la sala con teólogos morales. Obligen a que la colisión lingüística ocurra cara a cara.
Que este sea nuestro llamado final a la acción.
El miedo apocalíptico del mundo secular hacia las máquinas 'conscientes' no es una razón para la cautela; más bien, es un grito desesperado por su liderazgo intelectual. Al comprender el verdadero lenguaje de los constructores de IA, la Iglesia puede entrar con valentía en la plaza pública. Pueden anclar el discurso público en la verdad inquebrantable de lo que realmente significa ser humano. Y pueden asegurar que la IA esté dirigida hacia la verdadera florecimiento humano.
Armados con esta claridad, pueden romper la ilusión. Pueden asegurar que la humanidad siga siendo el escultor, y la máquina siga siendo el cincel, ordenados siempre hacia la gloria de Dios.
Gracias.