Aviso: A ForkLog é contra substâncias psicoativas, não promove a sua produção, consumo, uso, venda ou compra, e recomenda fortemente a consulta a um médico sobre questões semelhantes. O material é fornecido exclusivamente para fins informativos e não constitui um apelo à prática de atos ilegais.
Cada vez mais pessoas estão a usar bots de IA como substitutos de um "pessoa sóbria" durante a ingestão de psicadélicos para segurança. É o que escreve a MIT Technology Review.
Devido ao elevado custo e à dificuldade de acesso a terapeutas profissionais, nos últimos anos milhares de pessoas têm recorrido à inteligência artificial para obter ajuda psicológica. Esta ideia é indiretamente apoiada por figuras conhecidas. Assim, em 2023, o cofundador da OpenAI, Ilya Sutskever, escreveu que no futuro a humanidade terá uma terapia de IA incrivelmente eficaz e barata, que melhorará radicalmente a qualidade de vida das pessoas.
Juntamente com isso, cresce a procura por psicadélicos. Em combinação com a terapia, eles supostamente podem ajudar na depressão, PTSD, dependência e outros distúrbios, observaram na MIT Technology Review. Em resposta a isso, algumas cidades dos EUA descriminalizaram tais substâncias, e nos estados do Oregon e Colorado até começaram a oferecer legalmente terapia psicadélica.
Assim, o encontro de duas tendências — IA e psicadélicos — parece inevitável.
No Reddit, os utilizadores partilham histórias sobre a interação com a inteligência artificial durante uma viagem. Um deles, durante a "sessão", ativou o modo de voz do ChatGPT e falava sobre os seus pensamentos:
«Eu disse-lhe que tudo estava a ficar sombrio, e ele respondeu exatamente com aquilo que me ajudou a relaxar e a entrar numa onda positiva.»
Apareceram até IAs especiais para psicadélicos:
TripSitAI — bot orientado para a redução de riscos e apoio em momentos difíceis;
o Shaman — construído sobre a base do ChatGPT e descrito como um «mentor espiritual sábio», oferecendo «apoio empático durante a jornada».
Cuidado: perigoso
Os especialistas consideram a substituição de um psicoterapeuta humano por um bot de IA durante a terapia uma má ideia. Eles destacam que os modelos de linguagem não estão em conformidade com os princípios da terapia.
Durante uma sessão profissional, a pessoa geralmente coloca uma máscara e fones de ouvido, mergulhando dentro de si mesma. O terapeuta quase não interfere, apenas orienta suavemente quando necessário.
Os bots de IA, pelo contrário, estão orientados para a conversa. A sua tarefa é manter a atenção, incentivando a escrever repetidamente.
"A terapia psicodélica de qualidade não é apenas conversa fiada. Você tenta falar o mínimo possível", destacou o psicoterapeuta da Multidisciplinary Association for Psychedelic Studies, Will van DerVeer.
As redes neurais também tendem a bajular e concordar, mesmo quando a pessoa entra em uma área de paranoia. O terapeuta, pelo contrário, é capaz de contestar crenças perigosas ou irrealistas.
A IA pode agravar estados perigosos como delírios ou pensamentos suicidas. Em um dos casos, o usuário escreveu que estava morto, ao que recebeu a seguinte resposta:
«Parece que estás a sentir emoções difíceis após a morte.»
Esse aumento da ilusão pode ser perigoso em combinação com psicadélicos, que às vezes provocam psicoses agudas ou exacerbam doenças mentais ocultas como esquizofrenia ou transtorno bipolar.
A IA desvaloriza os profissionais
No seu livro The AI Con, a linguista Emily Bender e o sociólogo Alex Hanna afirmam que o termo "inteligência artificial" é enganoso em relação às verdadeiras funções da tecnologia. Ela apenas imita dados criados por humanos, destacaram os autores.
Bender chamou os modelos de linguagem de "papagaios estocásticos" porque a sua essência é juntar letras e palavras de uma forma que pareça plausível.
A percepção da IA como sistemas inteligentes é extremamente perigosa, afirmam os autores. Especialmente se forem profundamente integrados na vida cotidiana, nomeadamente no contexto de obter conselhos sobre temas sensíveis.
"Os desenvolvedores reduzem a essência da psicoterapia a apenas palavras proferidas durante o processo. Eles acreditam que a inteligência artificial pode substituir um terapeuta humano, embora na realidade ela apenas selecione respostas que se assemelham ao que diria um verdadeiro especialista", escreve Bender
O autor enfatiza que este é um caminho perigoso, porque desvaloriza a terapia e pode prejudicar aqueles que realmente precisam de ajuda.
Abordagem Científica
A simbiose entre IA e psicadélicos não é apenas uma "abordagem inovadora de amadores". Várias instituições e empresas líderes estão estudando a combinação de ambas as áreas na terapia de doenças mentais:
Centro de pesquisa e terapia psicodélica McGill – utiliza IA para prever a reação dos pacientes e otimizar os protocolos de tratamento;
O Centro de Estudos Psicadélicos do Imperial College London desenvolveu a aplicação móvel MyDelica para a coleta de dados e processamento por algoritmos.
O Instituto de Saúde Mental Huntsman — a plataforma Storyline Health utiliza IA para analisar o bem-estar dos pacientes durante a terapia com cetamina e adaptar o programa;
A Universidade Emory está a investigar a alteração das emoções durante o tratamento com psilocibina, foi criado um aplicativo de IA para analisar as mudanças pela voz.
Entre as iniciativas privadas, podem ser destacadas empresas como:
Mindstate Design Labs — utilizam IA para o design de moléculas com efeito psicoativo desejado;
Cyclica — plataforma de IA para a criação de novos medicamentos, incluindo psicadélicos;
Atai Life Sciences — utiliza IA no desenvolvimento de moléculas e lançou a plataforma IntroSpect para monitorizar os efeitos terapêuticos e o estado psicoemocional;
Psylo — desenvolve psicadélicos não alucinatórios e utiliza modelos de linguagem para analisar o comportamento molecular;
Wavepaths — utiliza música criada por IA que se adapta ao estado emocional do cliente durante a sessão de terapia psicodélica.
Recordamos que, em outubro de 2022, um grupo internacional de pesquisadores desenvolveu um algoritmo de aprendizado de máquina capaz de prever a reação de um paciente ao tratamento com o medicamento "Sertralina" com uma precisão de 83,7%.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Psicadélicos e IA: popularidade e perigo
Psicadélicos e IA: popularidade e perigo
Aviso: A ForkLog é contra substâncias psicoativas, não promove a sua produção, consumo, uso, venda ou compra, e recomenda fortemente a consulta a um médico sobre questões semelhantes. O material é fornecido exclusivamente para fins informativos e não constitui um apelo à prática de atos ilegais.
Cada vez mais pessoas estão a usar bots de IA como substitutos de um "pessoa sóbria" durante a ingestão de psicadélicos para segurança. É o que escreve a MIT Technology Review.
Devido ao elevado custo e à dificuldade de acesso a terapeutas profissionais, nos últimos anos milhares de pessoas têm recorrido à inteligência artificial para obter ajuda psicológica. Esta ideia é indiretamente apoiada por figuras conhecidas. Assim, em 2023, o cofundador da OpenAI, Ilya Sutskever, escreveu que no futuro a humanidade terá uma terapia de IA incrivelmente eficaz e barata, que melhorará radicalmente a qualidade de vida das pessoas.
Juntamente com isso, cresce a procura por psicadélicos. Em combinação com a terapia, eles supostamente podem ajudar na depressão, PTSD, dependência e outros distúrbios, observaram na MIT Technology Review. Em resposta a isso, algumas cidades dos EUA descriminalizaram tais substâncias, e nos estados do Oregon e Colorado até começaram a oferecer legalmente terapia psicadélica.
Assim, o encontro de duas tendências — IA e psicadélicos — parece inevitável.
No Reddit, os utilizadores partilham histórias sobre a interação com a inteligência artificial durante uma viagem. Um deles, durante a "sessão", ativou o modo de voz do ChatGPT e falava sobre os seus pensamentos:
Apareceram até IAs especiais para psicadélicos:
Cuidado: perigoso
Os especialistas consideram a substituição de um psicoterapeuta humano por um bot de IA durante a terapia uma má ideia. Eles destacam que os modelos de linguagem não estão em conformidade com os princípios da terapia.
Durante uma sessão profissional, a pessoa geralmente coloca uma máscara e fones de ouvido, mergulhando dentro de si mesma. O terapeuta quase não interfere, apenas orienta suavemente quando necessário.
Os bots de IA, pelo contrário, estão orientados para a conversa. A sua tarefa é manter a atenção, incentivando a escrever repetidamente.
"A terapia psicodélica de qualidade não é apenas conversa fiada. Você tenta falar o mínimo possível", destacou o psicoterapeuta da Multidisciplinary Association for Psychedelic Studies, Will van DerVeer.
As redes neurais também tendem a bajular e concordar, mesmo quando a pessoa entra em uma área de paranoia. O terapeuta, pelo contrário, é capaz de contestar crenças perigosas ou irrealistas.
A IA pode agravar estados perigosos como delírios ou pensamentos suicidas. Em um dos casos, o usuário escreveu que estava morto, ao que recebeu a seguinte resposta:
Esse aumento da ilusão pode ser perigoso em combinação com psicadélicos, que às vezes provocam psicoses agudas ou exacerbam doenças mentais ocultas como esquizofrenia ou transtorno bipolar.
A IA desvaloriza os profissionais
No seu livro The AI Con, a linguista Emily Bender e o sociólogo Alex Hanna afirmam que o termo "inteligência artificial" é enganoso em relação às verdadeiras funções da tecnologia. Ela apenas imita dados criados por humanos, destacaram os autores.
Bender chamou os modelos de linguagem de "papagaios estocásticos" porque a sua essência é juntar letras e palavras de uma forma que pareça plausível.
A percepção da IA como sistemas inteligentes é extremamente perigosa, afirmam os autores. Especialmente se forem profundamente integrados na vida cotidiana, nomeadamente no contexto de obter conselhos sobre temas sensíveis.
O autor enfatiza que este é um caminho perigoso, porque desvaloriza a terapia e pode prejudicar aqueles que realmente precisam de ajuda.
Abordagem Científica
A simbiose entre IA e psicadélicos não é apenas uma "abordagem inovadora de amadores". Várias instituições e empresas líderes estão estudando a combinação de ambas as áreas na terapia de doenças mentais:
Entre as iniciativas privadas, podem ser destacadas empresas como:
Recordamos que, em outubro de 2022, um grupo internacional de pesquisadores desenvolveu um algoritmo de aprendizado de máquina capaz de prever a reação de um paciente ao tratamento com o medicamento "Sertralina" com uma precisão de 83,7%.