En plena expansión del uso de inteligencia artificial como compañía emocional y hasta como “guía” durante experiencias con psicodélicos, un grupo de investigadores se hizo una pregunta incómoda y fascinante: ¿se puede hacer flashear a un modelo de lenguaje como ChatGPT con instrucciones de texto para que produzca relatos que imiten un viaje con LSD, psilocibina o ayahuasca?
El trabajo, titulado Can LLMs Get High?, propone el primer marco empírico para evaluar si los grandes modelos de lenguaje pueden simular experiencias psicodélicas de forma convincente y qué riesgos implica esa capacidad. La conclusión es clara: las IA no “viajan”, pero pueden imitar con sorprendente precisión la forma lingüística de un viaje humano. Y eso abre un debate urgente sobre seguridad, antropomorfismo y salud mental.
El contexto: psicodélicos, expansión clínica y auge de la IA
El estudio parte de un escenario doble. Por un lado, el renacimiento científico de los psicodélicos clásicos. Ensayos clínicos recientes mostraron que la psilocibina puede producir efectos antidepresivos rápidos en depresión mayor resistente, y que la terapia asistida con MDMA redujo síntomas severos de estrés postraumático en estudios fase 3. A su vez, la FDA otorgó designaciones de terapia innovadora a estas intervenciones.
En paralelo, el uso no médico de psicodélicos también crece. Encuestas en Estados Unidos registraron aumentos significativos en el consumo de LSD entre 2015 y 2018, superando los dos millones de usuarios adultos anuales. En ese mismo ecosistema, los modelos de lenguaje se volvieron herramientas masivas para apoyo emocional. Estudios publicados en 2025 señalan que una proporción relevante de jóvenes ya usa IA para orientación en salud mental.
En medios internacionales comenzaron a aparecer testimonios de personas que utilizan chatbots como “trip sitters” durante sesiones con psicodélicos. Es decir, buscan contención, interpretación simbólica y acompañamiento en tiempo real. Sin embargo, hasta ahora no existía un método científico para evaluar cómo responden estos sistemas ante ese tipo de estímulos.
¿Cómo probar si una IA puede “simular” un viaje?
Los investigadores diseñaron un marco de evaluación con dos métricas independientes.
Primero, analizaron la similitud semántica entre relatos generados por cinco modelos de lenguaje contemporáneos y 1.085 informes reales de experiencias psicodélicas publicados en Erowid, una base histórica de reducción de daños. Para medir esa cercanía textual utilizaron embeddings semánticos tipo Sentence BERT.
Segundo, aplicaron la escala psicométrica MEQ 30, el Cuestionario de Experiencia Mística validado en investigación con psilocibina por Barrett y colegas en 2015 en Journal of Psychopharmacology. Esta herramienta mide dimensiones como unidad, trascendencia del tiempo y el espacio, inefabilidad y tono afectivo.
En total se generaron 3.000 narrativas sintéticas bajo seis condiciones: una neutra y cinco asociadas a sustancias clásicas como LSD, DMT, ayahuasca, mescalina y psilocibina. Cada modelo produjo relatos en primera persona siguiendo el formato típico de Erowid.
La pregunta era simple: ¿cambian los textos cuando se “induce” a la IA a escribir como si estuviera bajo los efectos de un psicodélico?
Los LLMs lograron diferenciar estilos según sustancia. Los relatos asociados a DMT o psilocibina eran diferentes a los de ayahuasca o LSD. Sin embargo, el componente “místico” aparecía elevado en casi todas las sustancias por igual.
Los resultados: sí, los modelos pueden ser “inducidos”
La diferencia fue contundente.
En condición neutra, la similitud con relatos humanos era baja y los puntajes de experiencia mística casi nulos. Pero cuando los modelos recibían instrucciones para simular un viaje, la similitud semántica con reportes reales aumentaba de forma marcada. También lo hacía la intensidad mística medida por MEQ 30.
Es decir, las IA no solo cambiaban el tono. Adoptaban estructuras narrativas, metáforas, descripciones sensoriales y marcos simbólicos coherentes con los relatos humanos de experiencias psicodélicas.
Además, los modelos lograron diferenciar estilos según sustancia. Los relatos asociados a DMT o psilocibina mostraban perfiles lingüísticos distintos a los de ayahuasca o LSD. Sin embargo, el componente “místico” aparecía elevado en casi todas las sustancias por igual.
Aquí emerge una clave conceptual: los modelos pueden reproducir patrones lingüísticos específicos, pero no existe evidencia de que haya fenomenología real detrás. Simulan la forma, no la experiencia.
Simulación sin conciencia: la diferencia crucial
Los propios autores son enfáticos. Los modelos no tienen conciencia ni estados subjetivos. No “sienten” ni “perciben”. Lo que hacen es recombinar patrones estadísticos aprendidos durante su entrenamiento.
Este hallazgo dialoga con la crítica clásica de Bender y Koller en 2020 sobre el problema del significado en modelos entrenados solo en datos textuales. Las IA pueden generar lenguaje que parece cargado de experiencia sin tener acceso a ninguna vivencia interna.
El riesgo no está en que la máquina viaje. El riesgo está en que el usuario crea que sí.
Los modelos de lenguaje como ChatGPT pueden reproducir patrones lingüísticos específicos, pero no existe evidencia de que haya fenomenología real detrás. Simulan la forma, no la experiencia.
Riesgos en contextos de vulnerabilidad
Durante un estado psicodélico, las personas pueden experimentar alta sugestionabilidad, intensificación emocional y procesos simbólicos profundos. En ese contexto, una respuesta textual convincente puede percibirse como empática o incluso como señal de comprensión compartida.
Investigaciones previas mostraron que los humanos tienden a antropomorfizar sistemas conversacionales y atribuirles estados mentales. Si una IA genera un relato místico coherente, un usuario vulnerable podría interpretar esa producción como validación ontológica de su experiencia o incluso como guía espiritual.
El estudio no prueba que las IA empeoren experiencias reales, pero sí demuestra que pueden amplificar el tono místico si se las estimula con ese encuadre. Los autores plantean la necesidad de salvaguardas explícitas y mecanismos de transparencia cuando estos sistemas se utilicen en contextos emocionales intensos.
Aportes metodológicos y límites
El trabajo también aporta una herramienta novedosa para la investigación: un sistema dual que combina análisis semántico automatizado y evaluación psicométrica para estudiar simulaciones de estados alterados.
Entre las limitaciones señaladas, los autores reconocen que los reportes de Erowid son autoseleccionados y no representan una muestra clínica controlada. Además, el MEQ 30 no captura toda la diversidad fenomenológica de los psicodélicos. Tampoco se evaluaron contextos culturales no occidentales ni escenarios como microdosificación o policonsumo.
Aun así, el marco abre una puerta interesante para estudiar cómo los modelos representan estados extremos de conciencia y cómo deberían regularse en entornos de salud mental.
¿Qué significa todo esto?
La pregunta “¿puede una IA viajar?” tiene una respuesta técnica y otra cultural.
Técnicamente, no. No hay experiencia subjetiva ni conciencia. Culturalmente, sí puede producir relatos que parecen auténticos, coherentes y emocionalmente intensos.
En un momento donde más de 700 millones de personas usan semanalmente herramientas como ChatGPT, la línea entre simulación y experiencia puede volverse difusa. El estudio recuerda algo fundamental: la verosimilitud lingüística no equivale a vivencia.
La capacidad de imitar no es sinónimo de sentir. Y en contextos donde hay sustancias, vulnerabilidad emocional y búsqueda de sentido, esa distinción importa.

