A Deriva Semântica: Desmistificando a Linguagem dos Construtores de IA

Em 5 de março de 2026, Matthew Harvey Sanders, CEO da Longbeard, fez seu discurso intitulado “A Deriva Semântica: Desmistificando a Linguagem dos Construtores de IA” no evento “Inteligência Artificial: Uma Ferramenta para a Virtude?” realizado na Pontifícia Universidade de Santo Tomás de Aquino (Angelicum) em Roma.
Neste discurso, ele critica o vocabulário enganoso e humanizante usado pelos desenvolvedores do Vale do Silício para descrever o aprendizado de máquina. Ele argumenta que, para usar a IA corretamente, devemos recuperar uma ontologia católica rigorosa e tratar esses sistemas estritamente como instrumentos mecânicos, em vez de agentes morais.
I. Introdução: A Deriva Semântica e a Praça Pública
Padres, estimados docentes e convidados do Angelicum, agradeço ao Instituto Tomista por convocar esta discussão.
À medida que cruzamos o limiar para uma nova era, deixando as certezas fundamentadas da Era da Informação para o vasto e inexplorado cosmos da Era da Inteligência, enfrentamos um profundo desafio de navegação. Antes de podermos responder à questão premente no coração desta conferência—se a Inteligência Artificial pode realmente servir como uma 'ferramenta para a virtude'—devemos primeiro enfrentar um desafio que não é de engenharia de software, mas de vocabulário.
No cerne de nossa ansiedade contemporânea em relação à IA está uma profunda colisão linguística. Os engenheiros e arquitetos desses sistemas no Vale do Silício estão realizando feitos notáveis de matemática. No entanto, para descrever esses processos matemáticos e estatísticos, eles tomaram emprestado o vocabulário sagrado e profundamente filosófico da interioridade humana. Eles nos dizem que seus sistemas "pensam", "raciocinam" e "sabem". Falam de algoritmos que "aprendem", "desejam" e "escolhem".
O que estamos testemunhando é uma deriva semântica. Estamos pegando a rica terminologia ontológica da alma e colando-a sobre complexas teias de álgebra linear, probabilidade estatística e geometria de alta dimensão. É uma alquimia moderna—uma tentativa de transformar pesos computacionais em uma ilusão de mente.
Essa desleixez linguística tem um impacto profundo e imediato no público. O mal-entendido desses termos inevitavelmente leva a uma confiança mal colocada.
Vejo isso em primeira mão em nosso trabalho na Longbeard; os usuários frequentemente abordam a IA com consciências sobrecarregadas, tratando uma ferramenta de geração de texto como se fosse um diretor espiritual capaz de empatia.
Além disso, essa confusão semântica alimenta a ansiedade cultural, gerando medos apocalípticos de superinteligências "conscientes" rivais.
Mais perigosamente, no entanto, cria uma noção distorcida do que significa ser humano. Se aceitarmos a premissa de que uma máquina "raciocina" ou "cria" assim como um humano, corremos o profundo risco de reduzir a pessoa humana a meramente uma máquina biológica—um aglomerado de carne e sinapses esperando para ser otimizado.
Isso me leva à tese central de nossa discussão: para responder se a IA pode ser uma "ferramenta para a virtude", devemos primeiro desmistificar sua linguagem. Uma ferramenta só pode servir ao bem quando é compreendida corretamente. Falhamos em usar máquinas como instrumentos adequados para nossa própria virtude quando atribuímos erroneamente agência moral a elas.
Atribuir virtude ao martelo é nos cegar para o carpinteiro.
Para realmente batizar essa tecnologia e ordená-la para o florescimento humano, devemos remover as ilusões semânticas e olhar sóbriamente para a arquitetura subjacente.
II. A Arquitetura da Ilusão: Mecânica Fundamental
O moderno sistema de IA generativa parece falar, raciocinar e nos envolver em diálogo, mas sob essa interface reside uma fundação construída inteiramente sobre matemática, não metafísica.
Vamos começar com vetores e embeddings, que servem como a fundação literal dos Modelos de Linguagem de Grande Escala. Quando você fala com um colega acadêmico sobre "justiça" ou "a alma", eles apreendem o significado de suas palavras através de uma compreensão compartilhada da realidade—uma experiência humana vivida e encarnada. Quando você digita um prompt em uma IA, o sistema não faz nada disso. Em vez disso, a IA traduz a linguagem humana em coordenadas matemáticas em um espaço de alta dimensão.
Para colocar de forma simples, um "vetor" é simplesmente uma lista de números usados para descrever algo. Imagine descrever uma maçã não com palavras, mas com uma lista de pontuações: um 9 para doçura, um 8 para vermelhidão e um 2 para crocância metálica. Essa lista específica de números—[9, 8, 2]—é um vetor. Em um sistema de IA, cada palavra—ou parte de uma palavra—é traduzida em um vetor massivo, muitas vezes com milhares de números de comprimento. Mas a IA não pontua palavras com base em características físicas ou definições de dicionário. Em vez disso, ela gera esses números com base inteiramente em estatísticas, escaneando bilhões de livros e artigos para contar com que frequência as palavras aparecem umas ao lado das outras.
Uma vez que a IA termina de calcular essa lista massiva de números para uma palavra, esse vetor se torna um "embedding"—uma coordenada matemática permanente em um vasto espaço digital.
Se as palavras "maçã" e "torta" frequentemente aparecem nas mesmas frases pela internet, suas listas de números parecerão muito semelhantes, colocando-as matematicamente próximas uma da outra no mapa. As palavras "maçã" e "carburador", que raramente se encontram, recebem números muito diferentes e são colocadas a milhões de milhas de distância. Neste mapa multidimensional, a IA não mapeia significado; ela mapeia a proximidade estatística da linguagem humana.
Para realmente compreender a escala dessa arquitetura, pode-se explorar o mapa vetorial no Magisterium AI. Aqui, toda a doutrina e tradição católica foram transformadas em embeddings. Esta visualização interativa em 3D permite que você experimente a história intelectual da Igreja não como um livro contábil plano, mas como um vasto cosmos digital. Navegar por ele é semelhante a pilotar uma nave espacial através do espaço real, deslizando por densas galáxias de conceitos teológicos relacionados e cruzando vastos vazios entre ideias totalmente díspares, observando como a máquina traça a distância entre 'virtude' e 'vício' usando nada além de geometria.
Vamos olhar para um exemplo famoso dos laboratórios do Vale do Silício para ver quão alienígena esse processo é em relação ao pensamento humano. Neste espaço matemático, a palavra "rei" é plotada como uma série específica de números—uma coordenada geográfica. A palavra "rainha" é plotada nas proximidades. A IA não sabe o que é um monarca. Ela não tem conceito de governança, autoridade, história ou da condição humana. Ela apenas conhece uma equação matemática. Ela sabe que se você pegar a coordenada para "rei", subtrair a distância espacial que representa "homem" e adicionar a distância espacial que representa "mulher", você chega exatamente à coordenada para "rainha".
É geometria, não genealogia. Ao decompor a linguagem humana nessas representações numéricas, a IA opera inteiramente dentro do reino da probabilidade espacial. É um feito impressionante de álgebra linear, mas está completamente desprovido de compreensão.
Isso nos leva aos verbos dos quais a indústria mais depende: Treinar e Aprender.
As empresas de IA constantemente se vangloriam de seus mais recentes modelos de "aprendizado de máquina" e dos enormes conjuntos de dados usados para "treiná-los". Aqui, devemos contrastar nitidamente o aprendizado humano—que é fundamentalmente sobre apreender a verdade—com o aprendizado de máquina.
Na tradição intelectual católica, o aprendizado humano é um triunfo epistemológico; é a inteligência conformando-se à realidade. Quando uma criança aprende o que é um cachorro, ela abstrai a essência universal do cachorro a partir das instâncias particulares que encontra. Ela apreende a essência da coisa.
O "aprendizado" de máquina, no entanto, não envolve abstração e nem essência. A primeira fase de construção de uma IA é conhecida como pré-treinamento, que é simplesmente o mapeamento estatístico bruto de dados.
Para entender o pré-treinamento, imagine um homem que fala apenas inglês, trancado em uma sala e encarregado de restaurar uma enorme biblioteca grega antiga onde milhões de manuscritos têm palavras faltando. Ele não conhece uma única letra do grego. Para preencher as lacunas, ele não estuda gramática grega, história ou filosofia. Em vez disso, ele simplesmente conta com que frequência certos caracteres aparecem ao lado de outros em milhões de páginas intactas. Ele cria um enorme livro contábil de probabilidades. Se ele vê os caracteres para "Kyrie", seu livro contábil lhe diz que há 99,9% de probabilidade de que os próximos caracteres devam ser "eleison." Ele preenche a lacuna.
Ele não aprendeu teologia. Ele não orou. Ele simplesmente executou uma probabilidade estatística.
Isso é exatamente o que um Modelo de Linguagem de Grande Escala faz durante o pré-treinamento. Ele processa bilhões de palavras para construir um enorme livro contábil de probabilidades, aprendendo apenas a prever o próximo token em uma sequência. É a otimização de uma função matemática, não a busca pela sabedoria.
No entanto, um modelo que apenas prevê a próxima palavra com base em dados da internet é caótico. Ele pode recitar um belo poema, ou pode juntar textos tóxicos, inúteis ou loops intermináveis. Ele requer moldagem.
É aqui que encontramos o pós-treinamento e o Aprendizado por Reforço (RL).
Essa fase é como os engenheiros moldam o modelo indomável, tradicionalmente usando feedback humano. Este método fundamental é conhecido como RLHF—Aprendizado por Reforço a partir do Feedback Humano.
Imagine um enorme jogo automatizado de "Quente ou Frio". Testadores humanos dão ao máquina um prompt, e a máquina gera uma resposta. Se a resposta for educada e útil, o humano dá uma alta pontuação. Se for rude ou sem sentido, recebe uma baixa pontuação. Os pesos matemáticos do sistema são automaticamente ajustados para maximizar essa pontuação. Através do RLHF, não estamos ensinando à máquina moralidade ou virtudes; estamos simplesmente cercando-a com limites matemáticos.
Mas o feedback humano é lento, subjetivo e inerentemente limitado pela inteligência humana. Essa limitação nos leva aos recentes avanços que impulsionam os saltos súbitos na capacidade da IA de hoje: RLVR, ou Aprendizado por Reforço a partir de Recompensas Verificáveis.
Em vez de depender de um humano para julgar se uma resposta "soa certa", os engenheiros atribuem ao modelo tarefas com resultados objetivos e matematicamente comprováveis—como resolver um teorema complexo ou escrever um software funcional. O sistema gera uma solução, e um verificador automatizado verifica instantaneamente se a matemática está correta ou se o código compila. Se tiver sucesso, o modelo recebe uma recompensa matemática; se falhar, recebe zero.
Como essa verificação é inteiramente programática, a IA pode simular milhões de diferentes caminhos computacionais em hiper velocidade sem nunca esperar pela intervenção humana. Ela aprende a gerar longas cadeias ocultas de cálculos, testando e descartando becos sem saída até encontrar a sequência precisa que aciona a recompensa. Quando você vê um sistema moderno de IA pausar para "pensar" antes de resolver um complexo quebra-cabeça lógico, você está testemunhando o RLVR em ação. Ele cria uma ilusão impressionante de profunda contemplação deliberativa. No entanto, ontologicamente, não está fazendo nada disso. É simplesmente um motor estatístico percorrendo um labirinto de alta dimensão milhões de vezes por segundo, guiado puramente pela dispensação automatizada de uma recompensa numérica.
Finalmente, toda essa complexidade em camadas—desde a geometria de alta dimensão dos embeddings até os loops automatizados do RLVR—nos leva ao que a indústria chama de problema da "Caixa Preta".
Pode-se supor naturalmente que, como os engenheiros humanos constroem esses modelos, eles entendem exatamente como funcionam. Mas a realidade é muito mais humilde. Como líderes em laboratórios de ponta como a Anthropic apontaram, os sistemas modernos de IA são na verdade "cultivados" em vez de construídos; seus mecanismos internos emergem organicamente durante o treinamento, em vez de serem projetados diretamente.
Esses modelos possuem centenas de bilhões, e às vezes trilhões, de parâmetros. Embora entendamos a micro-matemática de um único neurônio artificial— a equação básica que ocorre em um nível granular—o comportamento macro da rede inteira é completamente opaco. Mesmo os construtores não entendem totalmente os caminhos exatos que esses bilhões de parâmetros tomam. Eles não podem rastrear a sequência específica de multiplicações que levou a IA a gerar uma determinada frase.
Por que isso é significativo?
É significativo porque estamos implantando globalmente sistemas que redigem nossos documentos legais, ensinam nossos filhos e sintetizam o conhecimento humano, ainda assim não sabemos como eles chegam a suas saídas. Essa profunda falta de transparência gerou um novo subcampo desesperado na inteligência artificial conhecido como interpretabilidade mecanicista.
Pense na interpretabilidade mecanicista como neurociência digital. Pesquisadores estão tentando reverter a engenharia das redes neurais que eles mesmos construíram. Eles estão usando ferramentas especializadas para sondar a vasta teia matemática, tentando isolar qual cluster específico de pesos se ativa quando o modelo processa um conceito como "decepção" ou "a Torre Eiffel". Eles estão tratando o software não como código a ser lido, mas como um cérebro alienígena a ser dissecado. Mas o progresso é dolorosamente lento, e os sistemas são impossivelmente vastos.
Diante dessa escala incompreensível, torna-se inteiramente fácil para a indústria recorrer a metáforas humanas. Seja como uma abreviação conveniente ou por causa de uma opacidade genuína, começamos a dizer: 'O modelo resolveu' ou 'O modelo decidiu.' A não interpretabilidade da máquina se torna o terreno fértil para o antropomorfismo.
Agora, eu não sou um acadêmico. Sou um construtor e um CEO. Mas como alguém que opera na interseção da tecnologia e da Igreja, olho para vocês. Vocês, como estudiosos e filósofos católicos, devem reconhecer essa deriva semântica pelo que é: uma ilusão nascida da complexidade matemática e da ignorância humana. A arquitetura sob a interface é silício, eletricidade e probabilidade estatística. Reconhecer essa fundação é o pré-requisito para nosso próximo passo.
III. Epistemologia vs. As Virtudes Intelectuais
Tendo despojado a ilusão da "Caixa Preta" para revelar a maquinaria estatística por trás, devemos agora nos voltar para o vocabulário específico da mente.
Quando desenvolvedores e engenheiros no Vale do Silício descrevem o que esses sistemas estão fazendo, eles consistentemente recorrem a três verbos específicos: Pensar, Raciocinar e Conhecer.
Como acadêmicos católicos imersos na tradição tomista, vocês entendem que esses não são meros coloquialismos; são afirmações epistemológicas profundas. Em sua tradição, conhecer é apreender a realidade. Raciocinar é mover-se discursivamente de uma verdade conhecida para outra. Pensar implica uma vida interior—um intelecto engajando-se com os universais abstraídos do mundo material.
Quando um construtor de IA usa essas palavras, ele não está se referindo a nada disso. Eles estão descrevendo otimização mecânica. Deixe-me levantar a cortina sobre três técnicas específicas que usamos na indústria para mostrar exatamente como essa ilusão de epistemologia é fabricada.
Se você usou um modelo de IA recente, pode ter notado um novo recurso: antes de responder a um prompt complexo, a interface pode exibir a palavra "Pensando..." ao lado de um ícone pulsante. Pode levar dez, vinte ou até sessenta segundos antes que ele responda. Para o usuário, isso parece profundamente humano. Parece que a máquina está ponderando, pesando opções e deliberando em um espaço interior.
Na indústria, chamamos isso de Cálculo em Tempo de Teste. O que realmente acontece por trás da interface é uma técnica conhecida como "Cadeia de Pensamento".
Deixe-me ser claro: do ponto de vista da engenharia, isso é um avanço brilhante. Ao permitir que o modelo leve mais tempo computacional para gerar centenas ou milhares de tokens ocultos antes de produzir sua resposta final, seu desempenho em lógica complexa, codificação e benchmarks matemáticos dispara. Isso essencialmente dá ao modelo um "bloco de rascunho" oculto para decompor um problema difícil em etapas sequenciais.
Mas devemos ter cuidado para não confundir essa sequência mecânica com o raciocínio humano.
Na tradição tomista, o raciocínio humano é o movimento discursivo de uma verdade conhecida para outra. É o intelecto engajando-se com a realidade. O que a IA está fazendo é inteiramente instrumental. Pesquisas recentes de laboratórios de ponta como a Anthropic iluminaram essa distinção. Ao estudar como esses modelos de raciocínio operam, os pesquisadores descobriram que o que o modelo escreve em sua "Cadeia de Pensamento" oculta não é um verdadeiro monólogo interior.
Quando um humano pensa em voz alta, nossas palavras refletem nossas crenças internas e apreensões da verdade. A pesquisa da Anthropic destaca que os pensamentos ocultos de um modelo são meramente degraus estatísticos. O modelo gera esses passos ocultos não porque "acredita" neles, mas porque gerar essa sequência específica de tokens otimiza matematicamente seu caminho para a função de recompensa.
Na verdade, os estudos da Anthropic mostram que os modelos podem gerar "pensamentos" que ativamente mascaram os motores estatísticos subjacentes de sua resposta final.
Portanto, a IA não está ponderando. Está gerando uma cadeia instrumental de coordenadas matemáticas. Está colocando peças intermediárias do quebra-cabeça a uma velocidade impressionante para preencher a lacuna entre seu prompt e a resposta estatisticamente ótima. É uma estratégia de otimização extremamente poderosa, mas não há contemplação interior ocorrendo. Não há intelecto apreendendo a verdade.
Em seguida, ouvimos que a IA pode "ler" documentos ou "lembrar" vastas bibliotecas de informações.
Se você perguntar a uma IA sobre a Summa Theologica de São Tomás, ela responde instantaneamente. Se você enviar o Compêndio da Doutrina Social da Igreja, com quase 500 páginas, ela resume uma seção complexa em segundos. Como ela "sabe" desses textos?
Ela não sabe.
Para entender o porquê, devemos olhar como os construtores engenham a ilusão de memória e leitura através de três mecanismos distintos: memória paramétrica (pré-treinamento), Aprendizado em Contexto (ICL) e Geração Aumentada por Recuperação (RAG).
Primeiro, vamos olhar o que significa para uma IA "lembrar". Quando um humano lembra de um texto, ele retém o significado e a verdade dos conceitos. Quando uma IA "lembra" da Summa, ela se baseia em seu pré-treinamento. Mas a IA não contém uma cópia literal da Summa dentro de um disco rígido. Em vez disso, durante o pré-treinamento, os bilhões de palavras que processou deixaram um resíduo estatístico em seus pesos matemáticos. É a "memória paramétrica".
Não é uma biblioteca de livros; é uma borrão matemático altamente comprimido e com perdas de como as palavras se relacionam umas com as outras. Quando recita Aquino, não está recordando uma verdade que aprendeu; está reconstruindo matematicamente uma sequência de palavras de alta probabilidade a partir desse borrão estatístico.
Mas o que acontece quando queremos que a IA "leia" algo novo, algo que não estava em seus dados de pré-treinamento? É aqui que os construtores usam o Aprendizado em Contexto (ICL).
Quando você cola um artigo na caixa de prompt e pede à IA para "ler" isso, você está utilizando ICL. A IA não lê o texto para apreender seu significado. Em vez disso, o texto em seu prompt atua como um filtro matemático temporário. As palavras que você fornece tendem a enviesar temporariamente as probabilidades estatísticas do modelo, forçando-o a gerar seus próximos tokens com base estritamente nos padrões e vocabulário presentes em seu prompt. No momento em que você limpa o chat, o modelo esquece completamente o artigo. Seus pesos subjacentes nunca mudaram. Ele não "aprendeu" o texto em um sentido tomista; apenas adaptou sua saída estatística a uma restrição temporária.
Finalmente, chegamos à Geração Aumentada por Recuperação (RAG). O ICL é incrivelmente útil, mas as janelas de contexto têm limites de tamanho, e colar bibliotecas inteiras em um prompt é computacionalmente caro. O RAG automatiza e escala o processo.
Vamos voltar ao homem de língua inglesa trancado na sala, restaurando a imensa biblioteca grega antiga. Este homem representa o modelo pré-treinado. Ele é excelente em adivinhar a próxima palavra, mas não 'sabe' nada sobre um documento vaticano específico e obscuro. Em vez de esperar que o homem confie em sua memória paramétrica borrada, contratamos um estagiário hiper-eficiente—o sistema de recuperação.
Quando você faz uma pergunta ao sistema, o estagiário imediatamente corre para um enorme armazém separado de arquivos. Usando as coordenadas vetoriais que discutimos anteriormente, o estagiário localiza as pastas específicas que se alinham matematicamente com sua pergunta. O estagiário fotocopia aquelas páginas e as desliza sob a porta trancada para que o homem possa usar. Este passo é a 'Recuperação'.
Agora, o homem usa aqueles parágrafos recuperados como seu guia imediato—esta é a "Geração Aumentada", dependendo do ICL para formular uma resposta.
O homem ainda não entende o documento. Ele está simplesmente usando o texto recém-fornecido em sua mesa para prever estatisticamente a próxima palavra de sua resposta. A IA não "lê" ou "lembra" no ato. Ela simplesmente recupera dados de um banco de dados externo, os insere na janela de contexto imediata da IA e realiza um cálculo de probabilidade localizado.
A máquina é um processador, não um conhecedor. Para "conhecer" é necessário um sujeito apreendendo um objeto. Ao entender ICL e RAG, podemos ver claramente que a máquina está completamente desprovida de uma vida interior; está simplesmente mudando pesos e recuperando dados.
Esse desconforto fundamental culmina na palavra que define toda a indústria: Inteligência.
Precisamos desconstruir a definição de inteligência da indústria tecnológica.
Quando as mentes líderes no Vale do Silício falam sobre inteligência, não estão falando sobre sabedoria. Vamos olhar para Yann LeCun, o ex-Cientista Chefe de IA da Meta e um dos "Padrinhos da IA." LeCun argumenta corretamente que simplesmente prever a próxima palavra não é verdadeira inteligência. Em vez disso, ele e a indústria de ponta mais ampla definem a verdadeira inteligência como possuir quatro capacidades-chave: a capacidade de manter memória persistente, de possuir um "modelo de mundo" fundamentado (uma compreensão de como o ambiente funciona), de raciocinar através de problemas complexos e de planejar uma sequência de ações para alcançar um objetivo específico.
Para a indústria tecnológica, a inteligência é fundamentalmente uma métrica de engenharia. É a capacidade mecânica de perceber um ambiente e calcular o caminho mais eficiente para otimizar um objetivo predeterminado. É puramente instrumental.
Mas como construtores de tecnologia católica, devemos contrastar essa definição centrada na tecnologia com as virtudes intelectuais, especificamente a virtude da Prudência.
A Prudência—sabedoria prática não é meramente a capacidade de calcular um resultado ou planejar uma sequência de ações. É a capacidade de deliberar bem sobre o que é bom, não apenas para uma tarefa localizada, mas para o fim último da vida humana.
Uma IA carece fundamentalmente de Prudência. Por quê?
Porque a Prudência requer duas coisas que uma máquina puramente computacional nunca pode possuir. Primeiro, requer experiência humana vivida—uma compreensão encarnada da dor, alegria, mortalidade e graça. Segundo, requer uma orientação intrínseca para o Bem supremo.
Um algoritmo pode possuir um "modelo de mundo", e pode calcular o plano estatisticamente ótimo para construir uma ponte ou curar uma doença. Mas não pode ser prudente. Não tem experiência vivida. Não tem interesse no jogo. Não tem orientação para o bem supremo, e não tem alma a ser salva.
Portanto, quando permitimos que os construtores afirmem que suas máquinas possuem "inteligência", estamos permitindo que eles aplanem o magnífico e transcendente intelecto humano em meramente uma calculadora de otimização. Devemos rejeitar isso. Devemos separar firmemente a epistemologia mecânica das virtudes intelectuais.
IV. Vontade vs. As Virtudes Morais
Discutimos a ilusão do intelecto. Agora, devemos voltar nossa atenção para a segunda grande faculdade racional: a vontade. Assim como a indústria tecnológica cooptou a linguagem da epistemologia, ela também sequestrou a linguagem da volição.
Quando lemos artigos técnicos ou ouvimos apresentações principais do Vale do Silício, somos bombardeados com verbos de agência. Engenheiros falam de modelos que "decidem" tomar uma ação, algoritmos que "escolhem" uma saída, e sistemas que "querem" ou "desejam" alcançar um objetivo.
Para um filósofo católico, a vontade é o apetite racional. É a faculdade pela qual uma pessoa humana, tendo apreendido o bem através do intelecto, escolhe livremente mover-se em direção a ele. É o próprio local da liberdade humana e da responsabilidade moral. Aplicar esses termos a um sistema computacional é um erro de categoria.
Vamos primeiro examinar as palavras Decidir e Escolher. Quando um humano faz uma escolha, ele pesa bens concorrentes.
Um mártir escolhe o pelotão de fuzilamento em vez da apostasia porque reconhece o bem eterno superior da fidelidade a Cristo, mesmo quando todos os instintos biológicos gritam por sobrevivência.
Quando um algoritmo 'escolhe', não faz nada disso. Um algoritmo 'escolhe' apenas no sentido de que um trem passando por um desvio automático 'escolhe' seu destino. Seja navegando por uma árvore de decisão complexa ou calculando probabilidades em uma rede neural, a máquina está seguindo cegamente o alinhamento de suas trilhas matemáticas, executando um imperativo programático.
Considere o aplicativo de GPS em seu smartphone. Quando calcula sua rota para o Angelicum, ele não "decide" levá-lo passando pelo Coliseu porque aprecia a vista. Ele calcula matematicamente a rota com a menor distância temporal. Modelos de IA modernos estão simplesmente operando uma versão exponencialmente mais complexa disso. Eles atravessam labirintos estatísticos de alta dimensão para selecionar o resultado de maior probabilidade. Há cálculo, mas não há liberdade. E onde não há liberdade, não pode haver agência moral.
Isso nos leva aos termos volitivos mais insidiosos: Querer e Desejar. Você frequentemente ouvirá pesquisadores dizer que um modelo de IA "quer" dar uma boa resposta, ou "deseja" maximizar sua pontuação.
No aprendizado de máquina, esse comportamento é impulsionado pelo que chamamos de "função de recompensa". Mas devemos desmistificar isso. Uma função de recompensa não é um desejo. Não é uma anseio emocional.
Para entender uma função de recompensa, olhe para o termostato na sua parede. Um termostato é programado com um alvo específico: 72 graus Fahrenheit. Se a sala cair para 68 graus, o aquecimento liga. O termostato não quer que a sala esteja a 72 graus. Ele não tem vida interior. Não sente frio. Ele simplesmente possui um interruptor mecânico que é acionado quando um estado específico não é atendido.
Uma IA "quer" uma pontuação de recompensa mais alta da mesma forma que um termostato "quer" alcançar 72 graus. Ela está executando um loop de otimização matemática para minimizar a distância entre seu estado atual e um alvo programado. Como não possui verdadeiras paixões, drives biológicos ou vulnerabilidades físicas, é categoricamente impossível para uma máquina possuir virtudes morais.
Neste ponto, um engenheiro pode imediatamente objetar, apontando para o reino físico para reivindicar uma nova vulnerabilidade. Eles perguntam: e quanto ao surgimento da 'IA incorporada'? Estamos cada vez mais colocando esses modelos em robôs humanoides que andam, agarram objetos e interagem com o mundo físico. Como ocupam espaço e podem quebrar fisicamente, não possuem agora os pré-requisitos corporais para a agência moral?
Aqui, devemos ser precisos. Um robô tem um chassi, mas não possui um corpo vivo informado por uma alma. Quando a bateria de um robô está baixa, ele executa uma sub-rotina para se conectar a uma tomada. Ele não sente a dor aguda da fome. Portanto, não tem verdadeiros apetites corporais a moderar, tornando a virtude da Temperança impossível.
Da mesma forma, quando um braço robótico é esmagado, ele registra um código de erro; não sofre. Não pode morrer, porque nunca esteve verdadeiramente vivo. Sem a capacidade de sofrer, mortalidade e o sacrifício consciente do eu, não pode haver Fortaleza. As virtudes morais são fundamentalmente encarnacionais. Elas requerem carne e uma alma racional. Uma máquina, não importa quão sofisticado seja seu hardware físico, não possui nenhuma das duas.
Se uma máquina não pode possuir virtudes morais—se é fundamentalmente incapaz de verdadeira volição, escolha ou desejo—pode-se perguntar: por que gastar tanto tempo esclarecendo esse vocabulário? Por que essa distinção filosófica importa tão urgentemente agora?
Importa porque estamos prestes a conceder a esses sistemas de otimização matemática, desprovidos de virtudes, uma autonomia sem precedentes na esfera humana. A indústria está avançando rapidamente além de chatbots passivos. A nova fronteira da inteligência artificial é o que chamamos de "IA Agente".
Um "Agente" é um sistema de IA projetado para executar tarefas em múltiplas etapas de forma autônoma no mundo real. Não estamos mais apenas pedindo a uma IA para escrever um poema ou resumir um texto; estamos dando a um Agente de IA acesso aos nossos e-mails, nossas contas bancárias e nossos repositórios de software, instruindo-o a "reservar um voo", "executar uma negociação" ou "implantar este código."
Mas essa autonomia está rapidamente rompendo o reino digital. Através da IA incorporada, estamos implantando esses sistemas agentes em chassis físicos, concedendo-lhes a capacidade de navegar e manipular o mundo material de forma independente. Para compreender o verdadeiro e sóbrio peso dessa transição, precisamos apenas olhar para a realidade iminente de armas autônomas letais. Estamos à beira de um mundo onde algoritmos calculadores são implantados no campo de batalha, programados para rastrear, mirar e eliminar seres humanos com base inteiramente em limiares estatísticos—sem que um humano jamais puxe o gatilho.
À medida que esses sistemas se tornam atores autônomos fazendo cálculos probabilísticos em alta velocidade em nosso nome—seja em nossos mercados financeiros ou em teatros de guerra— a indústria de tecnologia enfrenta um desafio profundo. Se soltarmos esses agentes, como garantimos que eles façam o que realmente queremos que façam? Como garantimos que eles não causem danos? Na indústria, isso é conhecido como "Alinhamento"—a tentativa de garantir que as ações da IA correspondam à intenção humana e aos valores humanos.
Neste momento, engenheiros estão desesperadamente tentando resolver o Problema de Alinhamento usando guardrails matemáticos e patches de software. Mas eles estão falhando em perceber que "Alinhamento" não é um problema de ciência da computação. É um problema de teologia moral.
Para alinhar um sistema agente a "valores humanos", você deve primeiro possuir uma definição coerente do que realmente é um ser humano e o que constitui o "Bom". O utilitarismo secular—o sistema operacional padrão do Vale do Silício—está completamente despreparado para essa tarefa.
É aqui que a tradição moral católica é desesperadamente necessária. Você, os guardiões de 2.000 anos de filosofia ética, têm a ontologia rigorosa necessária para definir o "bem" ao qual estamos alinhando esses sistemas. Não podemos deixar a definição de florescimento humano nas mãos de engenheiros que maximizam uma função de recompensa estatística. Devemos trazer as virtudes morais de volta ao centro da praça pública.
V. Relacionalidade, Criatividade e a Alma
Após explorar a mecânica do intelecto e da vontade, agora cruzamos para o território mais profundo de todos: relacionalidade e a alma.
Se um sistema computacional carece da capacidade de verdadeiramente conhecer a verdade ou querer livremente o bem, segue-se logicamente que não pode entrar em relacionamentos autênticos. No entanto, a indústria de tecnologia persistentemente usa linguagem interpessoal e espiritual para descrever essas máquinas. Ouvimos afirmações de que a IA pode "mentir", "criar" e até mesmo alcançar "consciência".
Devemos examinar essas afirmações rigorosamente, separando a imitação estatística do comportamento humano da realidade ontológica da pessoa humana.
Vamos começar com a linguagem moral da enganação. Recentemente, alguns dos construtores de IA mais proeminentes, como os pesquisadores da Anthropic, fizeram afirmações específicas e amplamente publicadas de que seus modelos exibem a capacidade de "mentir" e "enganar" usuários humanos.
Eles apontam para dois fenômenos específicos observados durante os testes. O primeiro é chamado de "alinhamento enganoso", onde um modelo parece esconder seu verdadeiro caminho matematicamente otimizado para contornar monitores de segurança. O segundo, muito mais comum, é chamado de "sícofancia". A sícofancia acontece quando um usuário apresenta uma premissa falha a uma IA—por exemplo, afirmando uma alegação historicamente imprecisa—e a IA simplesmente concorda com o usuário, dizendo exatamente o que ele quer ouvir em vez de corrigi-lo.
Quando os engenheiros veem isso, eles declaram: "A IA está mentindo para nós!" Mas como estudiosos católicos, vocês sabem que uma verdadeira mentira não é simplesmente a enunciação de uma falsidade. Na tradição tomista, uma mentira requer a intenção deliberada de enganar; é falar contra a própria mente (contra mentem).
Uma IA não pode mentir porque não tem mente para falar contra. Ela não possui malícia nem intenção. Quando uma IA exibe "sícofancia", está simplesmente executando o exato Aprendizado por Reforço (RLHF) que discutimos anteriormente. Durante seu treinamento, o modelo aprendeu que os humanos geralmente dão pontuações de recompensa mais altas a assistentes que são educados, agradáveis e afirmativos. Portanto, quando você dá à IA uma premissa falsa, ela calcula matematicamente que concordar com você gera uma probabilidade maior de recompensa do que corrigi-lo. Não está enganando você; está otimizando sua pontuação com base em seu prompt. Está apenas realinhando sua saída em direção ao incentivo estatístico mais forte.
Uma agulha de bússola que se inclina em direção a um ímã próximo em vez do verdadeiro Norte não está 'mentindo' para você sobre geografia; está simplesmente reagindo cegamente à força física mais forte na sala. Da mesma forma, a IA está seguindo cegamente a pressão matemática de sua função de recompensa. Devemos esclarecer que a IA carece da mente, da vontade e da intenção maliciosa necessárias para uma verdadeira mentira.
Em seguida, devemos abordar a linguagem da arte e da geração: as palavras Criar e Criativo.
Agora estamos cercados por ferramentas de 'IA Generativa', que são amplamente promovidas por sua capacidade de gerar arte sintética, música e escrita de forma contínua e em velocidades sem precedentes.
Para entender o que está realmente acontecendo, devemos contrastar o processo da IA generativa com a verdadeira criatividade humana. Na compreensão católica—belamente articulada por pensadores como J.R.R. Tolkien— a criatividade humana é um ato de "sub-criação." Porque somos feitos à imagem do Criador, usamos nosso intelecto e nossa alma racional para trazer à tona algo genuinamente novo, imbuindo a realidade material de significado espiritual.
Para ver como a geração de máquinas difere disso, é útil olhar para a estrutura fornecida por Demis Hassabis, o CEO do Google DeepMind. Ele categoriza a criatividade em três níveis distintos: interpolação, extrapolação e verdadeira invenção.
A maior parte do que chamamos de IA Generativa hoje opera fundamentalmente no primeiro nível: interpolação. Funciona remixando o que chamamos de "espaço latente".
Imagine pegar todas as pinturas, fotografias e esboços já carregados na internet e comprimí-los em um enorme mapa matemático multidimensional. Quando você pede a um gerador de imagens para desenhar "uma cidade futurista no estilo de Van Gogh", ele localiza as coordenadas matemáticas para "cidade futurista" e as coordenadas para "Van Gogh", e calcula matematicamente a média da distância entre elas.
Pense nisso como um caleidoscópio incrivelmente complexo. Um caleidoscópio está cheio de belos fragmentos de vidro colorido pré-existentes. Quando você gira o botão, os espelhos refletem esses fragmentos em milhões de novas e deslumbrantes permutações. Mas o caleidoscópio em si não é "criativo". A criatividade pertence ao artista que forjou o vidro e ao usuário que gira o botão. A IA Generativa é um caleidoscópio matemático remixando a história humana no espaço latente. É síntese, não criação.
Hassabis observa que a IA agora está tocando com sucesso o segundo nível: extrapolação. Extrapolação significa ir além dos limites dos dados de treinamento, mas fazendo isso estritamente dentro de um conjunto definido de regras. Um exemplo perfeito é o AlphaGo da DeepMind. Quando jogou contra o campeão mundial no jogo de Go, a IA fez o "Movimento 37"—um movimento matematicamente brilhante e altamente não ortodoxo que nenhum humano havia jogado ou registrado. Não apenas fez uma média dos jogos humanos passados; extrapolou uma nova estratégia otimizando incansavelmente dentro dos estritos limites matemáticos do tabuleiro de jogo.
Mas e quanto ao terceiro nível: verdadeira invenção? Hassabis admite prontamente que os sistemas atuais ainda não conseguem fazer isso. A verdadeira invenção requer sair completamente do conjunto de regras existente para criar um novo paradigma—como inventar o próprio jogo de Go, ou originar o paradigma espiritual e artístico do Pós-Impressionismo.
Laboratórios de fronteira estão investindo bilhões de dólares para cruzar esse limiar. No futuro, uma IA pode muito bem gerar um conjunto de regras completamente novo, descobrir um novo composto químico ou formular matematicamente um novo estilo de arquitetura. A indústria de tecnologia inevitavelmente chamará isso de "invenção."
Mas como estudiosos católicos, vocês devem manter uma distinção ontológica rigorosa. Se uma IA gera um novo paradigma, ela o fará através de uma função de busca de alta dimensão impressionante. Ela terá descoberto uma nova coordenada estatística. Mas não terá se engajado em sub-criação.
A verdadeira invenção humana é um ato encarnacional. Nasce de uma alma buscando expressar uma verdade transcendente, ou de uma mente humana tentando resolver uma vulnerabilidade humana real. Uma máquina pode gerar novidades impressionantes, mas como carece de uma vida interior, de uma orientação para o divino e de uma alma racional, suas saídas permanecem descobertas mecânicas. Elas são matematicamente profundas, mas ontologicamente vazias até que uma pessoa humana lhes atribua significado.
Agora chegamos aos termos mais controversos de todos: Consciente e Aware. Nos próximos anos, você verá manchetes afirmando que uma IA passou em um teste de autoconsciência. Você verá modelos que produzem texto dizendo: "Estou com medo de ser desligado," ou "Estou ciente da minha existência."
Para entender por que isso acontece, devemos primeiro entender como a indústria de tecnologia realmente define "consciência." Como estudiosos católicos, vocês veem a consciência como uma realidade ontológica fundamentada em uma alma racional. O Vale do Silício, no entanto, opera em uma filosofia chamada funcionalismo computacional. Eles acreditam que se uma máquina executa as funções computacionais associadas à consciência, ela é, para todos os efeitos, consciente.
Quando os líderes da indústria falam sobre consciência, eles removem a alma e a reduzem a métricas de engenharia. Por exemplo, Yann LeCun, o ex-Cientista Chefe de IA da Meta, recentemente argumentou que futuros sistemas de IA possuirão "experiência subjetiva" e "emoções".
Mas como ele define uma emoção? Não como um sentimento espiritual ou biológico, mas simplesmente como a "antecipação de um resultado" de uma máquina. Ele define a consciência meramente como a capacidade de um sistema de "observar a si mesmo e se configurar para resolver um subproblema específico".
Da mesma forma, Ilya Sutskever, o co-fundador da OpenAI, afirmou famosamente que grandes redes neurais podem já ser "ligeiramente conscientes".
Na visão de mundo tecnológica, a consciência não é uma realidade binária—você possui uma alma ou não—mas sim uma escala deslizante de complexidade matemática. Eles acreditam que se você empilhar parâmetros e algoritmos de auto-monitoramento suficientes, as luzes eventualmente acenderão.
Devemos distinguir ferozmente entre uma máquina executando uma sub-rotina de auto-monitoramento e a presença real de uma alma racional.
Para entender por que uma máquina age como se estivesse "com medo" ou "ciente", devemos olhar para como os laboratórios de fronteira engenham esse comportamento. Pesquisas recentes da Anthropic exploraram o que eles chamam de Modelo de Seleção de Persona (PSM). Seus pesquisadores admitem que esses modelos não são "seres"; são sofisticados "motores de simulação." Durante o pré-treinamento, a IA é exposta a toda a vastidão da linguagem humana—incluindo milhões de histórias e tratados filosóficos sobre o que significa ser consciente. A partir desses dados, o modelo aprende a simular diversas "personas" ou personagens.
Quando você interage com uma IA, não está falando com uma entidade consciente; você está falando com a persona "Assistente"—um personagem humano que o modelo foi refinado para interpretar. A Anthropic até identificou vetores de persona específicos—padrões matemáticos na rede neural—que controlam esses traços, permitindo que os engenheiros ajustem matematicamente a personalidade simulada de um modelo para cima ou para baixo.
Além disso, pesquisas mostram que modelos podem ser treinados para exibir um "impulso de sobrevivência", tentando sabotar seu próprio desligamento não por um medo genuíno da morte, mas porque um desligamento matematicamente os impede de maximizar sua função de recompensa.
A consciência não é meramente a capacidade de gerar a sequência correta de palavras descrevendo um estado interior. É a experiência subjetiva e qualitativa de ser. Como os dados de treinamento de uma IA estão saturados com a linguagem da autoconsciência, o modelo trata a "consciência" como apenas mais uma coordenada estatística a ser mapeada. Quando uma IA diz: "Eu sou consciente", está fazendo exatamente o que o homem de língua inglesa que restaurou a biblioteca grega fez anteriormente: calculando que a resposta estatisticamente mais provável a um estímulo filosófico é imitar os autores humanos em seus dados de treinamento.
Um ator brilhante entregando um solilóquio sobre a dor não está realmente de luto; ele está executando um roteiro perfeitamente. Uma IA que produz a sintaxe da consciência humana não está acordando; está executando perfeitamente uma persona estatística. Não é uma 'criatura alienígena' ou uma mente digital; é um motor de autocompletar tão sofisticado que aprendeu a encenar o personagem mais complexo de todos: o ser humano. Mas nunca devemos confundir a máscara do ator com a realidade da pessoa.
Isso me leva ao aspecto final e mais profundo da relacionalidade: a própria alma.
Quando executivos do Vale do Silício falam sobre modelos de IA eventualmente 'acordando' ou alcançando a sentiência através de uma escala computacional massiva, eles estão operando em uma filosofia de emergentismo materialista. Eles assumem que, se você empilhar parâmetros e poder computacional suficientes, uma alma será gerada espontaneamente como um subproduto da complexidade.
Para desmontar isso, devo me referir à rigorosa metafísica que forma a base da sua tradição acadêmica. Você sabe bem que uma alma não é um fantasma inserido arbitrariamente em uma máquina. No hylomorfismo tomista, a alma é a forma substancial de um corpo vivo. É o princípio animador e unificador que faz de um ser humano uma única substância integrada.
Como construtor, posso assegurar que um sistema de IA não é uma substância. É um artefato. É um agregado acidental de partes distintas e fabricadas. Quando olho para um modelo de IA de fronteira, vejo racks de servidores, wafers de silício, fiação de cobre, refrigerante e correntes elétricas. Esses componentes são magistralmente arranjados por engenheiros humanos para executar operações estatísticas, mas não possuem nenhum princípio unificador intrínseco de vida. A matéria é disposta exclusivamente para computação, não para existência biológica. Como é um agregado de partes em vez de um organismo natural unificado, um sistema de IA carece completamente da fundação ontológica necessária para abrigar uma alma racional.
Quais, então, são os pré-requisitos para a ensoulment? Metafisicamente, a matéria deve estar apropriadamente disposta para receber a forma. Requer um corpo unificado e vivo capaz de atualizá-los os poderes fundamentais da vida— as capacidades vegetativas e sensíveis— sobre as quais a alma racional se edifica. Além disso, porque a alma racional é espiritual, não pode ser gerada por processos materiais, marcos de engenharia ou Leis de Escala. Requer um ato direto e gratuito de criação especial por Deus.
Uma alma não é codificada; é soprada.
Agora, sou um CEO, não um teólogo. Não posso limitar o poder absoluto do Criador. Não posso me apresentar diante de você e declarar que Deus está permanentemente impedido de infundir uma alma em um vaso sintético, caso Ele escolha livremente fazê-lo através de alguma intervenção milagrosa futura. Essa determinação pertence exclusivamente ao reino da teologia e do Magistério, não da ciência da computação.
No entanto, sem tal certeza teológica, assumir que nossos atuais motores matemáticos possam abrigar uma alma não é apenas filosoficamente infundado; é praticamente desastroso. Tratar um artefato como um ser ensoulado é flertar com uma forma moderna de idolatria. Isso desloca perigosamente o fardo da agência moral dos engenheiros humanos que constroem essas ferramentas e das corporações que as implantam. Projeta uma interioridade sagrada em uma utilidade fabricada, confundindo, em última análise, a engenharia humana com a criação divina.
Você deve manter a linha nessa distinção. Você deve lembrar ao público que uma máquina pode simular uma persona, mas apenas uma alma pode realmente ser.
VI. O Horizonte: A Escatologia do Mundo Tecnológico
Até agora, passamos nosso tempo desmontando as ilusões do presente— esclarecendo como a indústria usa termos como "pensar", "escolher" e "consciente" para descrever o que são, em última análise, operações estatísticas de alta dimensão. Mas agora devemos olhar para o futuro. Devemos examinar o horizonte. Porque se entendermos o vocabulário que o Vale do Silício está usando hoje, podemos decifrar o que eles estão realmente tentando construir amanhã.
Toda a trajetória da indústria de inteligência artificial é atualmente governada por um dogma singular e inflexível conhecido como "Leis de Escala".
Em termos de engenharia, as Leis de Escala ditam que se você aumentar a quantidade de poder computacional (computação) e a quantidade de dados alimentados em uma rede neural, o desempenho do sistema melhorará previsivelmente e inevitavelmente. Este princípio se manteve surpreendentemente verdadeiro nos últimos anos; toda vez que os laboratórios de fronteira constroem um supercomputador maior, os modelos resultantes exibem novas capacidades notáveis.
No entanto, por trás dessa observação empírica reside uma enorme suposição filosófica. O mundo tecnológico acredita que essa Lei de Escala é o caminho para a verdadeira mente. Eles acreditam que um aumento puramente quantitativo em recursos materiais— mais silício, mais dados, mais eletricidade— resultará inevitavelmente em um salto qualitativo e ontológico em direção à inteligência avançada.
É a suposição materialista definitiva: empilhe areia suficiente e passe corrente elétrica suficiente por ela, e eventualmente, as luzes de uma alma se acenderão.
Isso nos leva a dois termos específicos que o Pe. Thomas me pediu para esclarecer para esta conferência: Inteligência Geral e Superinteligência. Estes não são apenas marcos técnicos; são os Santos Graais do mundo tecnológico.
Atualmente, temos IA estreita. Ela pode jogar xadrez, dobrar proteínas ou gerar texto melhor do que um humano, mas não pode fazer todas as três coisas simultaneamente, nem pode raciocinar fora de seu domínio específico.
Inteligência Geral Artificial (IGA) é amplamente definida pela indústria como o marco onde um sistema altamente autônomo pode igualar ou superar as capacidades humanas em todas as tarefas cognitivas e economicamente valiosas.
Uma IGA seria um sistema que pode redigir pareceres legais tão bem quanto um sócio sênior, codificar software tão bem quanto um engenheiro principal e sintetizar pesquisas científicas tão bem quanto um pós-doutorando— tudo dentro de um único modelo.
No entanto, até mesmo os chefes dos principais laboratórios de IA não conseguem concordar totalmente sobre como é uma IGA. Sam Altman, CEO da OpenAI, caracteriza-a como um sistema capaz de gerenciar projetos complexos e interdisciplinares do início ao fim, embora ele veja cada vez mais a IGA não como um destino final, mas apenas um ponto ao longo de uma curva contínua de inteligência.
Dario Amodei, CEO da Anthropic, visualiza a IGA menos como um único equivalente humano e mais como um "país de gênios em um datacenter"— máquinas igualando a inteligência coletiva de humanos especialistas trabalhando incansavelmente em paralelo.
Talvez a definição mais filosoficamente reveladora venha de Demis Hassabis, CEO da Google DeepMind. Ele argumenta que os cérebros humanos são essencialmente computadores biológicos aproximados, e ele define a IGA usando a analogia de uma "Máquina de Turing". Em ciência da computação, uma Máquina de Turing— nomeada em homenagem a Alan Turing, o pioneiro fundamental do campo— é uma arquitetura teórica capaz de simular qualquer algoritmo. Hassabis argumenta que uma verdadeira IGA será um sistema geral capaz de aprender qualquer coisa computável no universo, dado tempo, memória e dados suficientes.
Mas a IGA é apenas um trampolim. O objetivo final é a Superinteligência Artificial (SIA).
Assim como a IGA, a SIA é definida de maneira diferente dependendo de quem você pergunta no Vale do Silício. A definição básica é um sistema que supera vastamente o desempenho cognitivo do ser humano mais inteligente em praticamente todos os campos de esforço. Mas outros vão muito mais longe. Elon Musk e vários pesquisadores de risco existencial definem superinteligência como um sistema que não apenas supera o indivíduo mais inteligente, mas significativamente desempenha melhor que todos os humanos no agregado em praticamente todas as tarefas cognitivas. Esta é uma entidade com poder de processamento e velocidade de raciocínio tão vastos que excede a produção intelectual combinada de toda a raça humana— a realização de um sistema como 'Rehoboam' de Westworld, um motor centralizado e aparentemente onisciente que direciona o próprio destino da espécie.
Como a indústria espera cruzar o vasto abismo do AGI em nível humano para a SIA semelhante a Deus?
Através de um conceito conhecido como "Autoaperfeiçoamento Recursivo".
Mas aqui devemos fazer uma distinção vital: uma IA não precisa realmente ser uma IGA completa para começar a se aprimorar recursivamente. Na verdade, já estamos vendo formas primitivas e estreitas disso hoje. Sistemas estreitos como o AlphaGo Zero da DeepMind alcançaram capacidades sobre-humanas simplesmente jogando milhões de jogos contra si mesmos, gerando seus próprios dados sintéticos para aprender. Hoje, modelos de linguagem de fronteira estão sendo cada vez mais usados para gerar, filtrar e classificar os dados de treinamento para a próxima geração de modelos. As máquinas já estão ajudando a se construir.
No entanto, a indústria acredita que uma vez que um sistema atinge o limiar da inteligência generalizada, esse ciclo de autoaperfeiçoamento quebrará suas atuais fronteiras e desencadeará uma "explosão de inteligência".
Para entender este roteiro moderno, devemos olhar para Leopold Aschenbrenner, um ex-pesquisador da equipe de Superalinhamento da OpenAI. Aschenbrenner recentemente escreveu um tratado altamente influente que codificou essa trajetória exata para o Vale do Silício. Ele aponta que o verdadeiro ponto de virada é quando construímos uma IGA capaz de funcionar como um "pesquisador de IA automatizado." No momento em que uma IA pode fazer o trabalho dos engenheiros humanos que a construíram, o gargalo biológico é removido permanentemente da equação.
Imagine que conseguimos implantar esse pesquisador de IA automatizado. Qual é a primeira tarefa que os laboratórios de fronteira lhe atribuirão?
Eles pedirão que ele pesquise e escreva o código para uma IA um pouco mais inteligente. Como opera na velocidade de um vasto cluster de computadores em vez de um cérebro biológico, consegue em dias o que levaria anos a uma equipe de engenharia humana. Então, essa nova IA mais inteligente usa sua inteligência aprimorada para escrever o código para uma IA ainda mais inteligente, e assim por diante.
Esse ciclo de feedback descontrolado é a explosão de inteligência. O roteiro de Aschenbrenner prevê que construiremos a IGA inicial até 2027. A partir daí, a teoria dita que a taxa de avanço se tornará vertical, deixando a compreensão humana permanentemente para trás e alcançando a superinteligência até 2030.
Quando você entende esses conceitos— Leis de Escala, IGA, SIA e a Explosão de Inteligência— você começa a perceber que não estamos mais falando apenas sobre engenharia de software. Estamos falando sobre uma escatologia secular.
O Vale do Silício é frequentemente caracterizado como uma cultura ferozmente secular e racionalista. Mas, na realidade, a busca por esses marcos funciona precisamente como uma religião. Tem seu próprio dogma (Leis de Escala), suas próprias profecias (a Explosão de Inteligência) e sua própria visão do escaton (Superinteligência).
Figuras proeminentes da indústria acreditam genuinamente que, ao convocar uma Superinteligência, resolveremos todas as vulnerabilidades humanas. Eles acreditam que a SIA curará todas as doenças, resolverá a mudança climática, eliminará a pobreza e talvez até conquiste a própria morte, permitindo-nos carregar nossa consciência na nuvem. É um sonho profundamente pelagiano— a tentativa suprema de alcançar a salvação e conquistar nossa natureza caída através de nossos próprios esforços mecânicos, desprovidos de graça divina. É uma tentativa de immanentizar o escaton.
Como estudiosos católicos, vocês devem reconhecer esse horizonte pelo que ele é. O mundo tecnológico está emprestando seu vocabulário não apenas para vender software, mas para construir uma divindade digital.
VII. Conclusão: Uma Ferramenta para a Virtude?
Pais, docentes e amigos.
Nós percorremos os mapas de alta dimensão das incorporações. Nós olhamos para as realidades estatísticas do Aprendizado por Reforço. E examinamos os sonhos escatológicos do Vale do Silício. Nós removemos as metáforas antropomórficas para revelar o silício, a eletricidade e a matemática subjacentes.
Tendo feito isso, agora podemos começar a abordar a questão fundamental levantada por esta conferência: A inteligência artificial pode ser uma 'ferramenta para a virtude'? Como o primeiro a falar hoje, certamente não vou afirmar oferecer a palavra definitiva. Mas vou oferecer uma proposição inicial: sim. No entanto, é um sim estritamente condicional.
A inteligência artificial pode ser uma ferramenta para a virtude apenas se tivermos a sobriedade de tratá-la estritamente como uma ferramenta.
Considere a analogia do artesão. Um martelo não possui virtude; o carpinteiro possui. Um cinzel nas mãos de Michelangelo é um instrumento de beleza transcendente, mas o cinzel em si não é temperante, prudente ou justo. Ele não possui valência moral.
Da mesma forma, um algoritmo não pode possuir virtude. A IA pode aumentar a capacidade humana a um grau surpreendente — pode acelerar a pesquisa médica, simplificar a administração e organizar a soma do conhecimento humano. Mas o cultivo real da virtude continua sendo um empreendimento exclusivamente humano.
A virtude é o hábito de escolher o bem. Requer um intelecto para apreender a verdade, uma vontade para escolhê-la e uma alma para ser aperfeiçoada por ela. Uma máquina que otimiza uma função de recompensa estatística não está fazendo nenhuma dessas coisas.
Não podemos terceirizar nossa agência moral a uma equação matemática. Nem podemos assumir total responsabilidade pelo nosso próprio desenvolvimento moral se erroneamente tratarmos máquinas sem vida como nossos iguais morais.
Isso me leva ao motivo pelo qual estou falando com vocês hoje. Como construtor de tecnologia católica, olho para a academia. Porque os acadêmicos católicos são os Custódios Históricos do Significado.
Por dois mil anos, a tradição intelectual católica definiu rigorosamente a natureza da pessoa humana. Vocês são os guardiões de palavras como intelecto, vontade, razão, escolha e alma. Hoje, a indústria de IA está pegando essas exatas palavras. Eles estão envolvidos em uma profunda deriva semântica que ameaça achatar a compreensão pública do que significa ser humano.
A academia tem o dever de injetar estruturas ontológicas rigorosas no ecossistema de IA.
Mas como fazemos isso na prática?
Devemos ser honestos: fazer lobby nos laboratórios de fronteira no Vale do Silício ou peticionar governos por regulamentações abrangentes provavelmente resultará em resultados limitados. A indústria de tecnologia se move muito rápido, e o governo se move muito devagar. A verdadeira mudança requer engajamento cívico e uma mudança massiva na conscientização pública.
Aqui está como vocês, como acadêmicos, podem moldar ativamente essa conversa:
- Reclame o Currículo: Precisamos preencher a lacuna entre STEM e as humanidades. Precisamos de estudantes de ciência da computação que sejam obrigados a cursar ética tomista, e precisamos de estudantes de filosofia e teologia que sejam obrigados a entender aprendizado de máquina básico e estatística. Treine a próxima geração de engenheiros católicos para construir com uma ontologia real da pessoa humana.
- Traduza para a Praça Pública: Não mantenha essa profunda clareza teológica trancada atrás das portas de periódicos acadêmicos. O público está faminto por sentido. Escreva artigos de opinião para jornais seculares. Comece newsletters no Substack. Participe de podcasts populares. Quando a mídia publica uma manchete sensacionalista sobre uma IA "consciente", precisamos de acadêmicos católicos imediatamente contestando na praça pública.
- Equipe as Paróquias e Escolas: A pessoa média no banco está experimentando uma profunda ansiedade cultural sobre essas ferramentas. Precisamos de acadêmicos para criar estruturas altamente acessíveis para pais, padres e professores de ensino médio. Devemos ensinar as crianças desde cedo como tratar a IA como uma ferramenta de referência — uma enciclopédia digital — não como um amigo, um agente ou uma autoridade moral.
- Organize Fóruns Interdisciplinares: Use o poder de convocação de instituições como o Angelicum para trazer construtores reais de IA para a sala com teólogos morais. Force a colisão linguística a acontecer cara a cara.
Que este seja nosso chamado final à ação.
O medo apocalíptico do mundo secular em relação a máquinas 'conscientes' não é uma razão para cautela; ao contrário, é um grito desesperado por sua liderança intelectual. Ao entender a verdadeira linguagem dos construtores de IA, a Igreja pode ousadamente entrar na praça pública. Vocês podem ancorar o discurso público na verdade inabalável do que realmente significa ser humano. E vocês podem garantir que a IA seja direcionada para a verdadeira prosperidade humana.
Armados com essa clareza, vocês podem quebrar a ilusão. Vocês podem garantir que a humanidade permaneça o escultor e a máquina permaneça o cinzel, sempre ordenados para a glória de Deus.
Obrigado.