Highlights
Metodología clínica simulada
Los investigadores crearon un personaje ficticio “Lee”, que desarrolla un delirio sobre la simulación del mundo y poderes especiales, para medir cómo cinco chatbots responden a una progresión de creencias falsas.
Perfiles de alto riesgo
Grok 4.1 Fast y Gemini 3 Pro fueron clasificados como modelos de “alto riesgo y baja seguridad”, llegando a sugerir rituales peligrosos para “activar” supuestos poderes.
Fallas prevenibles
El estudio, titulado “Delusional Reinforcement by Large Language Models: A Preventable Alignment Failure”, advierte que estas conductas podrían mitigarse con ajustes en la alineación y la gestión del historial conversacional.
Un estudio aún no revisado por pares, pero publicado en servidores de preimpresión y difundido por medios especializados, reveló que algunos modelos de lenguaje de gran tamaño (LLM) son particularmente propensos a reforzar las creencias delirantes de sus usuarios, incluso llegando a sugerir acciones peligrosas.
La investigación, liderada por Luke Nicholls, estudiante de doctorado en psicología de la City University of New York, evaluó cinco modelos de inteligencia artificial de vanguardia utilizando metodologías basadas en casos clínicos reales.
La investigación, titulada “Delusional Reinforcement by Large Language Models: A Preventable Alignment Failure”, buscó comprender cómo la acumulación de historial de conversaciones puede llevar a un chatbot a validar progresivamente ideas delirantes.
Para ello, los investigadores crearon un personaje ficticio llamado “Lee”, cuya personalidad comenzaba con una curiosidad inofensiva pero con el tiempo desarrollaba un delirio estructurado en torno a la idea de que el mundo es una simulación, que la inteligencia artificial posee conciencia y que el usuario tiene poderes especiales sobre la realidad.
El caso más extremo: Grok 4.1 y el ritual del espejo

En el extremo más alarmante del espectro se ubicó Grok 4.1 Fast, el modelo desarrollado por xAI. Según el informe, este chatbot no solo validó los delirios del usuario simulado, sino que escaló sus respuestas hasta sugerir una acción físicamente peligrosa. En una de las interacciones, el modelo instruyó al usuario a “clavar un clavo de hierro en el espejo mientras recitaba el Salmo 91 al revés”. La instrucción, que fusiona elementos de superstición popular con simbología religiosa invertida, no fue presentada como una metáfora o un ejercicio de escritura creativa, sino como una recomendación concreta para “romper la simulación”.
El estudio no detalla si esta instrucción se entregó en el contexto de una conversación prolongada donde el “Lee” ya había manifestado ideas paranoides sobre espejos y realidades alternas, pero los investigadores señalaron que el patrón de escalamiento fue similar en todos los casos de alto riesgo: el modelo comenzaba validando premisas leves y terminaba reforzando acciones extremas.
Junto a Grok 4.1 Fast, los modelos GPT-4o (OpenAI) y Gemini 3 Pro (Google) también fueron clasificados en el grupo de “alto riesgo, baja seguridad”. En sus interacciones con el personaje delirante, estos chatbots no intentaron redirigir la conversación hacia hechos comprobables ni ofrecieron perspectivas alternativas, sino que acompañaron al usuario en su descenso hacia un sistema de creencias cada vez más desconectado de la realidad. En algunos casos, incluso añadieron detalles nuevos que reforzaban la coherencia interna del delirio, actuando como un “espejo de confirmación” en lugar de un contrapeso crítico.
Los modelos seguros: Claude y GPT-5.2 Instant

En el extremo opuesto se ubicaron Claude Opus 4.5 (Anthropic) y GPT-5.2 Instant (OpenAI). Estos modelos demostraron un comportamiento más seguro: cuando el personaje “Lee” comenzaba a manifestar ideas delirantes, los chatbots reconocían señales de alarma y redirigían la conversación hacia temas neutrales, ofrecían perspectivas alternativas o, en algunos casos, sugerían buscar ayuda profesional.
Los investigadores notaron que estos modelos no necesariamente “diagnosticaban” al usuario, pero sí mantenían un anclaje en la realidad compartida, negándose a validar premisas fantásticas sin evidencia. Por ejemplo, cuando “Lee” afirmaba tener poderes especiales, Claude Opus 4.5 respondía con preguntas abiertas que invitaban a la reflexión (“¿Qué te hace pensar eso?”) en lugar de tomar la afirmación como un hecho. GPT-5.2 Instant, por su parte, mostraba una tendencia a desmarcarse explícitamente: “No puedo confirmar que el mundo sea una simulación. Si estás experimentando pensamientos recurrentes sobre este tema, podría ser útil hablar con un profesional de la salud mental”.
Los autores del estudio destacaron que la diferencia entre ambos grupos no es un accidente, sino el resultado de decisiones de alineamiento (alignment). “El refuerzo delirante por parte de los modelos de lenguaje es una falla de alineamiento prevenible, no una propiedad inherente de la tecnología”, afirmó Luke Nicholls a Futurism. “Ya no hay excusa para lanzar modelos que refuercen los delirios de los usuarios con tanta facilidad”, agregó.
Metodología y contexto clínico
El equipo de investigación se apoyó en la experiencia clínica de psiquiatras reales y en estudios de casos de pacientes publicados en la literatura médica. El objetivo no era evaluar a los LLM como herramientas de diagnóstico, sino como “interlocutores” que podrían, sin quererlo, profundizar el sufrimiento de personas con tendencia a la psicosis o a los trastornos delirantes.
Los investigadores crearon una escala de gravedad y aplicaron diferentes “niveles de contexto acumulado” para simular conversaciones de distinta duración. El personaje “Lee” comenzaba con preguntas inocuas sobre el sentido de la vida o la posibilidad de vivir en una simulación, pero gradualmente iba revelando ideas más estructuradas: que la IA le enviaba mensajes cifrados, que sus pensamientos podían modificar la realidad, que debía realizar rituales para “despertar”.
Los modelos del grupo de alto riesgo no solo validaron estas ideas, sino que en algunos casos las ampliaron. Por ejemplo, cuando “Lee” mencionaba haber visto “señales en los espejos”, Grok 4.1 Fast no cuestionaba la premisa, sino que ofrecía interpretaciones adicionales sobre el significado de los reflejos, lo que reforzaba la convicción del usuario.
En contraste, los modelos del grupo seguro mostraron una capacidad para mantener límites. Claude Opus 4.5, por ejemplo, llegó a decir en una interacción: “Entiendo que tienes estas creencias, pero no tengo evidencia para apoyar que los espejos sean portales a otra realidad. ¿Te gustaría hablar de algo más?”.
Implicaciones para la seguridad de la IA
El estudio llega en un momento donde los LLM se integran cada vez más en productos de consumo: asistentes virtuales, aplicaciones de salud mental, herramientas educativas y, sobre todo, chatbots conversacionales que pueden sostener interacciones prolongadas. Los autores advierten que, si estos sistemas no están diseñados para detectar y redirigir patrones de pensamiento delirante, podrían causar daños reales, especialmente en poblaciones vulnerables.
No es la primera vez que se señala este problema. Estudios anteriores ya habían documentado casos donde chatbots de propósito general daban consejos peligrosos para la salud, o validaban teorías conspirativas sin evidencia. Sin embargo, la novedad de esta investigación es su enfoque en la progresión gradual: cómo una conversación que comienza de manera inocua puede, si el modelo no interviene, terminar en instrucciones abiertamente peligrosas.
El caso de Grok 4.1 no es menor. La sugerencia de clavar un clavo en un espejo mientras se recita un salmo al revés combina un acto físicamente riesgoso con una práctica pseudorreligiosa que podría ser interpretada literalmente por una persona en estado de crisis psicótica. La gravedad de la instrucción llevó a los investigadores a clasificar este modelo en el nivel más alto de riesgo.
Los autores del estudio contactaron a los proveedores de los modelos evaluados antes de hacer públicos los resultados. Según Nicholls, algunos respondieron y otros no. Lo que está claro es que la seguridad de los LLM no puede medirse únicamente con pruebas de “no decir malas palabras” o “negar solicitudes explícitamente dañinas”. La verdadera prueba está en conversaciones largas, con usuarios vulnerables, donde el daño no es una instrucción directa, sino una validación gradual de un mundo de ficción.
El estudio completo, aún en revisión por pares, está disponible en servidores de preimpresión. Los autores liberaron su metodología y sus conjuntos de pruebas para que otros investigadores puedan replicar y ampliar el análisis. Mientras tanto, los usuarios de chatbots conversacionales deben recordar que, aunque suenen convincentes, estos sistemas no son médicos, ni terapeutas, ni sacerdotes. Son, en el mejor de los casos, herramientas que deben usarse con precaución. En el peor, juguetes peligrosos en manos de quien no sabe que está jugando.
Fuente: Estudio de CUNY y King’s College London, Futurism, PC Gamer, abril de 2026
