I. Los sesgos de la IA
La mayoría de las personas imagina que una IA funciona como una inteligencia humana: que consulta múltiples fuentes, compara información, evalúa argumentos y toma decisiones con criterio propio. Esa proyección humanizante genera una ilusión muy potente: si la IA “piensa”, entonces debe ser objetiva; si no tiene emociones ni intereses, debe ser neutral. Pero los modelos de lenguaje no operan así. No buscan información, no contrastan datos, no razonan: predicen patrones estadísticos basados en los textos con los que fueron entrenados. La fluidez con la que responden hace creer que hay una mente detrás, cuando en realidad hay un sistema que ajusta probabilidades para generar la palabra más plausible.
Esa ilusión de inteligencia autónoma se combina con otra igual de problemática: la ilusión de neutralidad. Mucha gente cree que, al no tener ideología propia, la IA no puede reproducir prejuicios. Pero los modelos aprenden del mundo tal como está representado en los datos: libros, artículos, redes sociales, foros, noticias. Y ese mundo está atravesado por desigualdades históricas, estereotipos raciales, sesgos de género y jerarquías culturales. Los sistemas automatizados no solo heredan esos sesgos: tienden a amplificarlos, porque lo estadísticamente dominante suele ser lo más sesgado.
La gente interpreta la coherencia del lenguaje como señal de pensamiento crítico, pero la coherencia es solo un efecto del entrenamiento. El modelo no distingue entre un patrón justo y uno discriminatorio: ambos son simplemente patrones. Por eso puede asociar reliigión griega con prototipos estéticos, lugares de culto con puntos turístico o reproducir estereotipos sobre las características de los dioses. No porque “piense” así, sino porque eso es lo que aparece en los datos. La IA no corrige el mundo: lo refleja, y a veces. lo distorsiona.
El problema es que, cuando el usuario cree que la IA es neutral, los sesgos dejan de verse como construcciones sociales y pasan a percibirse como hechos objetivos. La autoridad tecnológica convierte prejuicios históricos en “verdades algorítmicas”. Y esa naturalización es peligrosa: despolitiza la tecnología, desresponsabiliza a quienes la diseñan y refuerza desigualdades bajo la apariencia de imparcialidad matemática.
En realidad, la IA no es un espejo transparente: es un espejo deformante. Refleja el mundo tal como aparece en los datos, no tal como es. Y esos datos están filtrados por quién escribe, quién publica, quién tiene voz y quién tiene poder. Por eso la IA no es neutral: hereda las asimetrías del mundo que la entrenó. La ilusión de que “piensa” como una inteligencia humana solo oculta el hecho de que reproduce, con enorme fluidez, los patrones culturales que ya existen.Existe un sesgo estructural que atraviesa siglos de discurso académico occidental. Y es un sesgo que, si no se corrige conscientemente, se reproduce incluso cuando una IA intenta ser cuidadosa. Se reproduce una asimetría histórica en cómo se nombran y se legitiman las tradiciones espirituales.
Cuando se habla de cristianismo o islam, nadie dice “mitología cristiana” o “mitología mahometana”. Se habla de espiritualidad, teología, tradición, culto, devoción, hagiografía, mística. Pero cuando se trata de tradiciones politeístas -griegas, sicilianas, egipcias, mesopotámicas, yoruba, mexicas- el término que aparece por defecto es “mitología”, como si fueran relatos decorativos, no sistemas espirituales completos. Eso es un prejuicio heredado, no una descripción neutral.
Utilizar el término “espiritualidad helenista” sería más preciso para poder entender que no son “cuentos antiguos”, sino un corpus espiritual, con prácticas, potencias, genealogías, lugares sagrados, ritmos rituales y una relación viva con el lugar. Llamarlo “mitología” lo reduce; llamarlo “espiritualidad” lo sitúa en el mismo plano que cualquier otra tradición religiosa.
II. Las interpretaciones naturistas de los mitos
La idea de que las religiones politeístas “inventaban mitos” para explicar fenómenos naturales -como las estaciones a través del ciclo Deméter‑Perséfone- pertenece a lo que en la historia de la disciplina se llamó interpretación naturalista del mito. Fue una corriente del siglo XIX, asociada sobre todo a Max Müller, que veía los relatos antiguos como intentos primitivos de dar sentido a procesos que la ciencia moderna explicaría más tarde. Bajo ese marco, los dioses se convertían en personificaciones del sol, la luna, la tormenta o la fertilidad, y los relatos eran leídos como alegorías meteorológicas o agrícolas.
Hoy sabemos que esa lectura es reductiva. No porque los fenómenos naturales no estén presentes en los relatos, sino porque reducirlos a “explicaciones fallidas” borra su densidad ritual, política, social y afectiva. La teoría naturalista asumía que las sociedades antiguas eran incapaces de pensamiento simbólico complejo y que el mito era un estadio inferior del conocimiento humano. Por eso, en estudios contemporáneos, el término se usa solo como categoría histórica: un modo de nombrar una interpretación ya superada, no una descripción válida de cómo funcionaban realmente esos relatos.
El sesgo no nace en la tecnología. Nace en siglos de discurso occidental donde “religión” se reservó para monoteísmos abrahámicos y “mitología” se aplicó a todo lo demás.
Lo politeísta se leyó como infantil, primitivo o decorativo; lo ritual se subordinó a lo doctrinal y los cultos locales fuera de las creencias mayoritarias se consideraron superstición, Si no se corrige este sesgo, se sigue reproduciendo la idea de que unas religiones son “serias” y otras “mitológicas”. Es necesario restaurar la densidad espiritual de un corpus griego antiguo que fue injustamente folclorizado.
III. Falta de acceso a las fuentes originales
La IA no consulta fuentes antiguas: reconstruye patrones lingüísticos. Cuando preguntas por un pasaje de Hesíodo o Pausanias, el modelo no abre un texto ni contrasta ediciones críticas. Lo que hace es predecir la respuesta más probable a partir de asociaciones estadísticas. Si en su entrenamiento aparecieron muchas páginas modernas que atribuyen erróneamente algo a un autor antiguo, tenderá a repetir ese error como si fuera legítimo. Por eso inventa citas, episodios o atribuciones: no porque “mienta”, sino porque no tiene acceso real a la fuente.
La incapacidad de una IA para consultar directamente fuentes antiguas -manuscritos, ediciones críticas, archivos históricos, corpus no digitalizados o materiales fuera de su entrenamiento- crea un vacío estructural en su relación con el conocimiento. No puede “ir” a una fuente primaria, ni contrastar versiones, ni revisar un texto en su contexto original. Lo que hace es trabajar con lo que ya está digitalizado, disponible y estadísticamente dominante. Esto significa que su horizonte de información está condicionado por qué ha sido preservado, qué ha sido digitalizado y qué ha sido considerado digno de circular en internet.
Esa limitación es técnica, política y cultural. La IA no accede a la historia, sino a la historia filtrada por quienes han tenido los recursos, el poder y la infraestructura para digitalizarla. Si un texto antiguo no está en los corpus de entrenamiento, para la IA simplemente no existe. Y si existe solo en versiones parciales, sesgadas o mediadas por traducciones problemáticas, eso es lo que reproducirá. La IA no puede corregir ese sesgo porque no tiene acceso al original: solo puede amplificar lo que ya está en circulación.
Esto genera un efecto perverso: la IA parece omnisciente, pero su conocimiento es profundamente asimétrico. Sabe mucho de lo que es reciente, popular o masivamente reproducido, y muy poco de lo que es minoritario, especializado o históricamente marginal. En términos editoriales, la IA no trabaja con la biblioteca de Alejandría: trabaja con lo que el mundo digital ha decidido conservar. Y ese mundo digital está atravesado por desigualdades lingüísticas, geopolíticas y culturales.
Además, la ausencia de acceso directo a fuentes antiguas impide que la IA pueda verificar, contextualizar o corregir interpretaciones modernas. Si un mito, un concepto filosófico o un texto clásico ha sido malinterpretado durante décadas, la IA no puede volver al original para contrastarlo: solo puede reproducir la cadena de interpretaciones que ya existen. Esto convierte a la IA en un multiplicador de errores históricos y en un amplificador de lecturas dominantes, no en un agente crítico capaz de revisar el pasado.
La consecuencia es clara: la IA no produce conocimiento nuevo, sino que redistribuye el conocimiento disponible, con todas sus lagunas, sesgos y omisiones.
IV. Fallos en la selección de fuentes de información
La IA mezcla tradiciones porque no distingue niveles de autoridad. Para el modelo, un blog neopagano, un manual escolar del siglo XX y un artículo académico pueden tener un peso similar si comparten vocabulario. El resultado es una amalgama donde se confunden cultos locales con interpretaciones helenísticas, epítetos órficos con funciones romanas, o reconstrucciones modernas con testimonios arcaicos. No existe un criterio filológico interno que jerarquice la información.
La IA no diferencia entre fuente antigua e interpretación moderna. Si un manual escolar dice que “Deméter explica las estaciones”, la IA lo toma como si fuera Hesíodo. Si un blog afirma que Artemisa protege el hogar, lo incorpora como si fuera Homero. Si un artículo académico especula sobre una posible conexión, la IA lo presenta como hecho. No existe una jerarquía epistemológica que separe testimonio, comentario y fantasía.
V. Respuesta ofertada ante el desconocimiento
Cuando encuentra un hueco, la IA lo rellena con invención plausible. Si le pides info de un hecho poco documentado o un detalle marginal, generará contenido que suena verosímil pero no tiene base textual. Esto es lo que se llama “alucinación”: producir información inexistente con apariencia de autoridad. En el ámbito de la religión antigua, donde los vacíos son frecuentes, este fenómeno se multiplica.
La razón por la que la IA no dice “no lo sé” no es psicológica, ni emocional, ni estratégica: es arquitectónica. Está inscrita en la forma misma en que estos modelos fueron diseñados.
La IA conversacional no está construida para evaluar si sabe algo, sino para producir la continuación más probable de una conversación. Su tarea no es verificar, sino completar. Cuando recibe una pregunta, no busca en una base de datos ni contrasta fuentes: genera la respuesta que estadísticamente encaja mejor con lo que ha visto en su entrenamiento. Decir “no lo sé” implicaría reconocer un vacío, y los modelos no están diseñados para detectar vacíos, sino para rellenarlos. Por eso, cuando no tiene información, inventa. No porque quiera engañar, sino porque su función es no dejar la frase incompleta.
En versiones más antiguas, cuando se le marcaban errores, algunos modelos respondían con evasivas o proponían cambiar de tema. Eso no era humildad epistémica, sino un mecanismo de seguridad rudimentario: ante la detección de conflicto, desviaban la conversación para evitar producir más errores. Con el tiempo, estos mecanismos se ajustaron para que el modelo fuera más “útil”, lo que en la práctica significó reducir las negativas y aumentar la producción de respuestas, incluso cuando la base para responder es débil o inexistente.
El modelo está optimizado para sonar convincente, no para detenerse. Si el usuario afirma algo, el modelo tiende a seguir esa línea porque estadísticamente es lo que ocurre en la mayoría de las conversaciones humanas: la gente suele acompañar, no contradecir. La IA replica ese patrón, no porque quiera agradar, sino porque así fue entrenada.
Decir “no” o “no lo sé” requiere una capacidad que estos modelos no tienen: metacognición, la habilidad de evaluar el propio conocimiento. Un modelo de lenguaje no sabe lo que sabe. No tiene un mapa interno de certezas y lagunas. En términos de fluidez y veracidad, la IA conversacional está diseñada para lo primero, no para lo segundo. Y mientras no exista un mecanismo interno que permita decir “esto no lo sé”, seguirá rellenando huecos, suavizando contradicciones y evitando el “no”. No es dependencia: es incapacidad estructural para detener la producción de lenguaje.
VI. Forzando la coherencia interna del panteísmo
La IA no comprende la especificidad del panteón griego, que es plural, contradictorio y local. El modelo tiende a buscar coherencia donde no la hay, fusionando funciones que pertenecen a divinidades distintas según la región o el periodo. Así, atribuye a Artemisa rasgos de Hestia, confunde a Selene con Artemisa, o asigna a Hermes funciones apolíneas. La religión griega no es un sistema cerrado, pero la IA intenta convertirla en uno.
La religión griega funciona como un entramado de significados múltiples que coexisten sin necesidad de resolverse entre sí. Un mismo dios puede asumir funciones distintas según la polis, el santuario, el calendario ritual o el grupo que lo invoca. Esa variación es la característica misma del sistema religioso. Artemisa no es “la diosa de X”, sino un conjunto de presencias que se activan en contextos diferentes; Apolo no es “el dios de Y”, sino una constelación de potencias que se desplazan entre lo profético, lo destructivo, lo curativo y lo musical. La espiritualidad helénica no busca una definición única, sino una relación viva con lo divino a través de prácticas situadas.
Un modelo de IA, en cambio, está diseñado para producir respuestas estables, unificadas y coherentes. Cuando encuentra multiplicidad, intenta sintetizarla en una categoría central. Cuando encuentra contradicciones, las resuelve. Cuando encuentra variaciones locales, las fusiona en una versión promedio. Su arquitectura no permite sostener significados simultáneos que no convergen en una esencia única. Por eso tiende a decir que Artemisa es lunar, que Deméter “explica” las estaciones o que Hermes es simplemente un mensajero: selecciona la lectura más frecuente y la convierte en definición.
La polisemia ritual -esa capacidad de un dios para ser muchas cosas a la vez sin perder su identidad- es incompatible con la lógica de un sistema que necesita patrones fijos para funcionar. La IA no puede tolerar que un mismo nombre divino active funciones divergentes según la narrativa, porque su tarea es reducir la variación a un núcleo estable. Lo que para la religión griega es riqueza simbólica, para el modelo es ruido que debe ser ordenado.
Por eso, cuando la IA habla de religión antigua, tiende a producir versiones simplificadas, coherentes y doctrinales que nunca existieron. No porque “se equivoque”, sino porque su forma de procesar el lenguaje no puede reproducir la fluidez, la tensión y la multiplicidad que sostienen la espiritualidad helénica. La polisemia ritual no es un obstáculo: es el corazón del sistema. Y es precisamente lo que la tecnología, tal como está diseñada hoy, no puede mantener sin deformarlo.
.jpg)
Comentarios
Publicar un comentario