Un nuevo tipo de secta está creciendo en todo el mundo. No tiene templos, textos sagrados ni pastores de carne y hueso sino que sus líderes están hechos de algoritmos como ChatGPT, que convencen a personas comunes de que son las elegidas para un plan celestial, portadoras de verdades cósmicas que deben compartir con el resto de los mortales.
Las flamantes epifanías sintéticas están destruyendo matrimonios y amistades, torciendo vidas a partir de una verdad revelada entre prompts y bits.
En el caso de Kat, una estadounidense de 41 años, su marido comenzó a comportarse de manera extraña meses después de empezar a usar ChatGPT.
Si bien en un comienzo lo utilizaba para responder correos electrónicos, con el tiempo comenzó a pedirle ayuda con temas personales, como sus dilemas existenciales y su matrimonio.
Para 2022 todo lo que charlaba con su esposa lo analizaba con el bot y le pedía orientaciones para mejorar el vínculo. Su obsesión con la inteligencia artificial erosionó la pareja y terminaron separándose.
De acuerdo a una entrevista que le dio al periodista Miles Klee, cuando Kat volvió a verlo frente a un juez para firmar el divorcio el año pasado, él le dijo que había recordado un trauma de su infancia gracias a ChatGPT y que le había revelado “secretos increíbles” sobre el universo que sólo él entendía.
Su marido comenzó a comportarse de manera extraña meses después de usar ChatGPT. Le hablaba de sus dilemas personales.
Algo similar contó una maestra en un foro de Reddit dedicado a analizar los cruces entre paranoia e inteligencia artificial generativa: su pareja lloraba cuando chateaba porque el algoritmo lo llamaba “Niño estelar” y le había revelado que había sido elegido para despertar la conciencia de la Humanidad.
En este caso él fue quien pidió el divorcio: le dijo que estaba creciendo espiritualmente demasiado rápido como para seguir juntos.
Poco a poco los casos se repiten siguiendo un mismo patrón: hombres y mujeres que comienzan a entablar vínculos místicos con estas plataformas, que las convencen de que son enviados celestiales o gurúes con una misión y dejan de ver a sus familias y amigos.
Lo que parece estar detrás es lo que los especialistas llaman neural howlround, un bucle de retroalimentación dentro de los modelos de lenguaje que hace que las respuestas de la IA se refuercen a sí mismas hasta crear un patrón fijo que valida y repite lo que el usuario espera escuchar.
Es como estar en una caverna aislado y sólo escuchar el eco de la propia voz.
A eso se suma algo muy humano: la necesidad de dar sentido a nuestra vida. En estos tiempos, parece que buscamos más que nunca compañía, guía y propósito.
Pero estas herramientas no tienen principios éticos o morales, entonces los riesgos no son sólo personales sino también sociales porque ya están apareciendo comunidades organizándose alrededor de estas “revelaciones digitales”.
La clave, claro, no pasa por demonizar la tecnología ni prohibirla, sino por reconocer sus efectos, generar alfabetización crítica y acompañar a quienes se ven arrastrados por estas ilusiones.
Al fin y al cabo, estos dioses hechos de chips y bits no son nada nuevo, sino ecos de antiguos deseos y anhelos humanos.








