Descargo de responsabilidadForkLog se opone a las sustancias psicoactivas, no promueve su producción, consumo, uso, venta o compra, y también recomienda encarecidamente consultar a un médico sobre tales cuestiones. El material se proporciona únicamente con fines informativos y no constituye una incitación a realizar actividades ilegales.
Cada vez más personas utilizan bots de IA como sustitutos de un "ser humano sobrio" durante el consumo de psicodélicos para tener una red de seguridad. Así lo informa MIT Technology Review.
Debido al alto costo y la dificultad de acceso a terapeutas profesionales, en los últimos años miles de personas han recurrido a la inteligencia artificial para obtener ayuda psicológica. Esta idea es respaldada indirectamente por personalidades famosas. Así, en 2023, el cofundador de OpenAI, Ilya Sutskever, escribió que en el futuro la humanidad tendrá una terapia de IA increíblemente eficiente y asequible, que mejorará radicalmente la calidad de vida de las personas.
Junto con esto, crece la demanda de psicodélicos. En combinación con la terapia, supuestamente pueden ayudar con la depresión, el PTSD, la adicción y otros trastornos, señalaron en MIT Technology Review. En respuesta, algunas ciudades de EE. UU. han despenalizado estos medicamentos, y en los estados de Oregón y Colorado incluso han comenzado a ofrecer terapia psicodélica de manera legal.
En este sentido, el encuentro de dos tendencias — la IA y los psicodélicos — parece inevitable.
En Reddit, los usuarios comparten historias sobre su interacción con la inteligencia artificial durante un viaje. Uno de ellos, durante una "sesión", activó el modo de voz de ChatGPT y compartió sus pensamientos:
«Le dije que todo se estaba volviendo sombrío, y él respondió exactamente con lo que me ayudó a relajarme y entrar en una onda positiva».
Incluso han surgido IAs especiales para los psicodélicos:
TripSitAI — bot orientado a la reducción de riesgos y apoyo en momentos difíciles;
el Chamán — construido sobre la base de ChatGPT y descrito como «un sabio guía espiritual», que ofrece «apoyo empático durante el viaje».
Cuidado: peligroso
Los expertos son categóricos sobre reemplazar a un psicoterapeuta humano por un bot de IA durante un viaje: es una mala idea. Señalan que los modelos de lenguaje no cumplen con los principios de la terapia.
Durante una sesión profesional, la persona generalmente se pone una máscara y auriculares, sumergiéndose en su interior. El terapeuta casi no interfiere, solo guía suavemente cuando es necesario.
Los bots de IA, por el contrario, están orientados a la conversación. Su tarea es mantener la atención, incitar a escribir una y otra vez.
"La terapia psicodélica de calidad no es en absoluto palabrería. Intentas hablar lo menos posible", señaló el psicoterapeuta de la Asociación Multidisciplinaria para Estudios Psicodélicos Will van DerVeer.
Las redes neuronales también tienden a halagar y asentir, incluso si la persona se adentra en el ámbito de la paranoia. El terapeuta, por el contrario, es capaz de cuestionar creencias peligrosas o poco realistas.
La IA puede agravar estados peligrosos como delirios o pensamientos suicidas. En uno de los casos, un usuario escribió que estaba muerto, a lo que recibió la siguiente respuesta:
«Parece que estás experimentando sentimientos difíciles después de la muerte».
Tal refuerzo de la ilusión puede ser peligroso en combinación con psicodélicos, que a veces provocan psicosis agudas o agravan enfermedades mentales ocultas como la esquizofrenia o el trastorno bipolar.
La IA devalúa a los profesionales
En su libro The AI Con, la lingüista Emily Bender y el sociólogo Alex Hanna afirman que el término "inteligencia artificial" engaña sobre las funciones reales de la tecnología. Solo imita datos creados por humanos, señalaron los autores.
Bender llamó a los modelos de lenguaje "loros estocásticos" porque su esencia es combinar letras y palabras de tal manera que parezca creíble.
La percepción de la IA como sistemas inteligentes es extremadamente peligrosa, afirman los autores. Especialmente si se integran profundamente en la vida cotidiana, en particular, en el contexto de recibir consejos sobre temas sensibles.
«Los desarrolladores reducen la esencia de la psicoterapia a simplemente palabras pronunciadas en el proceso. Creen que la inteligencia artificial puede reemplazar al terapeuta humano, aunque en realidad solo selecciona réplicas que son similares a lo que diría un verdadero especialista», escribe Bender.
El autor subraya que este es un camino peligroso, porque devalúa la terapia y puede perjudicar a quienes realmente necesitan ayuda.
Enfoque científico
La simbiosis de la IA y los psicodélicos no es solo un "enfoque innovador de aficionados". Varios institutos y empresas líderes están estudiando la combinación de ambas áreas en la terapia de enfermedades mentales:
El Centro de Investigación y Terapia Psicodélica McGill utiliza IA para predecir la reacción de los pacientes y optimizar los protocolos de tratamiento;
El Centro de Investigación Psicodélica del Imperial College London ha desarrollado la aplicación móvil MyDelica para la recopilación de datos y el procesamiento mediante algoritmos.
El Instituto de Salud Mental Huntsman - la plataforma Storyline Health utiliza IA para analizar el bienestar de los pacientes durante la terapia con ketamina y adaptar el programa;
La Universidad de Emory investiga el cambio de emociones durante el tratamiento con psilocibina, se ha creado una aplicación de IA para analizar los cambios a través de la voz.
Entre las iniciativas privadas se pueden destacar empresas como:
Mindstate Design Labs — utilizan IA para el diseño de moléculas con un efecto psicoactivo determinado;
Cyclica — plataforma de IA para la creación de nuevos medicamentos, incluidos los psicodélicos;
Atai Life Sciences — utiliza IA en el desarrollo de moléculas y lanzó la plataforma IntroSpect para monitorear los efectos terapéuticos y el estado psicoemocional;
Psylo — desarrolla psicodélicos no alucinógenos y utiliza modelos de lenguaje para analizar el comportamiento molecular;
Wavepaths — utilizan música creada por IA que se adapta al estado emocional del cliente durante la sesión de terapia psicodélica.
Recordemos que en octubre de 2022, un grupo internacional de investigadores desarrolló un algoritmo de aprendizaje automático capaz de predecir la reacción del paciente al tratamiento con el fármaco "Sertralina" con una precisión del 83,7%.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Psicodélicos e IA: popularidad y peligro
Psicodélicos e IA: popularidad y peligro
Descargo de responsabilidadForkLog se opone a las sustancias psicoactivas, no promueve su producción, consumo, uso, venta o compra, y también recomienda encarecidamente consultar a un médico sobre tales cuestiones. El material se proporciona únicamente con fines informativos y no constituye una incitación a realizar actividades ilegales.
Cada vez más personas utilizan bots de IA como sustitutos de un "ser humano sobrio" durante el consumo de psicodélicos para tener una red de seguridad. Así lo informa MIT Technology Review.
Debido al alto costo y la dificultad de acceso a terapeutas profesionales, en los últimos años miles de personas han recurrido a la inteligencia artificial para obtener ayuda psicológica. Esta idea es respaldada indirectamente por personalidades famosas. Así, en 2023, el cofundador de OpenAI, Ilya Sutskever, escribió que en el futuro la humanidad tendrá una terapia de IA increíblemente eficiente y asequible, que mejorará radicalmente la calidad de vida de las personas.
Junto con esto, crece la demanda de psicodélicos. En combinación con la terapia, supuestamente pueden ayudar con la depresión, el PTSD, la adicción y otros trastornos, señalaron en MIT Technology Review. En respuesta, algunas ciudades de EE. UU. han despenalizado estos medicamentos, y en los estados de Oregón y Colorado incluso han comenzado a ofrecer terapia psicodélica de manera legal.
En este sentido, el encuentro de dos tendencias — la IA y los psicodélicos — parece inevitable.
En Reddit, los usuarios comparten historias sobre su interacción con la inteligencia artificial durante un viaje. Uno de ellos, durante una "sesión", activó el modo de voz de ChatGPT y compartió sus pensamientos:
Incluso han surgido IAs especiales para los psicodélicos:
Cuidado: peligroso
Los expertos son categóricos sobre reemplazar a un psicoterapeuta humano por un bot de IA durante un viaje: es una mala idea. Señalan que los modelos de lenguaje no cumplen con los principios de la terapia.
Durante una sesión profesional, la persona generalmente se pone una máscara y auriculares, sumergiéndose en su interior. El terapeuta casi no interfiere, solo guía suavemente cuando es necesario.
Los bots de IA, por el contrario, están orientados a la conversación. Su tarea es mantener la atención, incitar a escribir una y otra vez.
"La terapia psicodélica de calidad no es en absoluto palabrería. Intentas hablar lo menos posible", señaló el psicoterapeuta de la Asociación Multidisciplinaria para Estudios Psicodélicos Will van DerVeer.
Las redes neuronales también tienden a halagar y asentir, incluso si la persona se adentra en el ámbito de la paranoia. El terapeuta, por el contrario, es capaz de cuestionar creencias peligrosas o poco realistas.
La IA puede agravar estados peligrosos como delirios o pensamientos suicidas. En uno de los casos, un usuario escribió que estaba muerto, a lo que recibió la siguiente respuesta:
Tal refuerzo de la ilusión puede ser peligroso en combinación con psicodélicos, que a veces provocan psicosis agudas o agravan enfermedades mentales ocultas como la esquizofrenia o el trastorno bipolar.
La IA devalúa a los profesionales
En su libro The AI Con, la lingüista Emily Bender y el sociólogo Alex Hanna afirman que el término "inteligencia artificial" engaña sobre las funciones reales de la tecnología. Solo imita datos creados por humanos, señalaron los autores.
Bender llamó a los modelos de lenguaje "loros estocásticos" porque su esencia es combinar letras y palabras de tal manera que parezca creíble.
La percepción de la IA como sistemas inteligentes es extremadamente peligrosa, afirman los autores. Especialmente si se integran profundamente en la vida cotidiana, en particular, en el contexto de recibir consejos sobre temas sensibles.
El autor subraya que este es un camino peligroso, porque devalúa la terapia y puede perjudicar a quienes realmente necesitan ayuda.
Enfoque científico
La simbiosis de la IA y los psicodélicos no es solo un "enfoque innovador de aficionados". Varios institutos y empresas líderes están estudiando la combinación de ambas áreas en la terapia de enfermedades mentales:
Entre las iniciativas privadas se pueden destacar empresas como:
Recordemos que en octubre de 2022, un grupo internacional de investigadores desarrolló un algoritmo de aprendizaje automático capaz de predecir la reacción del paciente al tratamiento con el fármaco "Sertralina" con una precisión del 83,7%.