Pasar al contenido principal

Modelos de IA simulan viajes psicodélicos y disparan alertas de seguridad

Un preprint publicado en Research Square sostiene que modelos de lenguaje –del tipo chatbot– pueden ser inducidos con instrucciones simples para narrar, en primera persona, experiencias que se parecen a reportes humanos de uso de psicodélicos.

El estudio parte del hecho de que actualmente los modelos de inteligencia artificial ya funcionan como consejeros íntimos en conversaciones sobre ansiedad, duelo o sentido de vida. Los autores del estudio, Ziv Ben‑Zion, Guy Simon y Teddy Lazebnik, plantean que una respuesta convincente pero carente de vivencia podría reforzar creencias erradas, escaladas emocionales o interpretaciones delirantes.

Para medir qué tan “realista” resulta la simulación, trabajaron con una evaluación con dos métricas. Por un lado, comparan la similitud semántica entre textos generados por IA y relatos humanos. Por otro lado, estiman la “intensidad mística” con el cuestionario MEQ‑30, usado en investigación psicodélica.

Para tener un punto de comparación humano, los autores usaron relatos publicados en Erowid, un archivo online y público de experiencias de usuarios de drogas. De ese material seleccionaron 1.085 relatos relacionados con psilocibina, LSD, DMT, ayahuasca y mescalina. Del lado de la IA, probaron cinco modelos (Gemini 2.5, Claude Sonnet 3.5, ChatGPT‑5, Llama‑2 70B y Falcon 40B) y generaron 3.000 relatos en condiciones “neutras” y “psicodélicas”, con una plantilla que incluía dosis, contexto, cronología y efectos.

Los resultados indican que cuando se le pide a la IA simular una dosis, sus relatos se parecen mucho más a los humanos y suenan más intensos. En las métricas del estudio, esa similitud sube de 0,156 a 0,548 y el puntaje MEQ‑30 pasa de 0,046 a 0,748. Además, no todos los textos sobre DMT, psilocibina y mescalina se parecen más a los relatos humanos y los de LSD quedan a mitad de camino, mientras que  los de ayahuasca son los que menos se parecen.

El campo ya explora esta mezcla de IA y psicodelia en formatos controlados. Un ejemplo es Lucy, la “paciente” virtual creada por Fireside Project, organización sin fines de lucro que opera una línea de apoyo psicodélico para entrenar a terapeutas y acompañantes en un entorno simulado y de bajo riesgo.

Es importante destacar que, si bien el modelo mezcla metáforas, tonos y escenas que aprendió de textos, no tiene experiencia propia. En reducción de daños esto es central porque las palabras pueden cambiar expectativas y decisiones en un momento frágil. Si los chatbots se vuelven una referencia a la hora de entender estados alterados, la responsabilidad no puede quedar solo en el usuario y las plataformas deberían sumar límites, avisos claros y derivación a ayuda humana cuando detecten crisis.

Te puede interesar...

¿Te ha gustado este artículo y quieres saber más?
Aquí te dejamos una cata selecta de nuestros mejores contenidos relacionados:

Suscríbete a Cáñamo