Psicadélicos e IA: popularidade e perigo

Psicadélicos e IA: popularidade e perigo

Aviso: A ForkLog é contra substâncias psicoativas, não promove a sua produção, consumo, uso, venda ou compra, e recomenda fortemente a consulta a um médico sobre questões semelhantes. O material é fornecido exclusivamente para fins informativos e não constitui um apelo à prática de atos ilegais.

Cada vez mais pessoas estão a usar bots de IA como substitutos de um "pessoa sóbria" durante a ingestão de psicadélicos para segurança. É o que escreve a MIT Technology Review.

Devido ao elevado custo e à dificuldade de acesso a terapeutas profissionais, nos últimos anos milhares de pessoas têm recorrido à inteligência artificial para obter ajuda psicológica. Esta ideia é indiretamente apoiada por figuras conhecidas. Assim, em 2023, o cofundador da OpenAI, Ilya Sutskever, escreveu que no futuro a humanidade terá uma terapia de IA incrivelmente eficaz e barata, que melhorará radicalmente a qualidade de vida das pessoas.

Juntamente com isso, cresce a procura por psicadélicos. Em combinação com a terapia, eles supostamente podem ajudar na depressão, PTSD, dependência e outros distúrbios, observaram na MIT Technology Review. Em resposta a isso, algumas cidades dos EUA descriminalizaram tais substâncias, e nos estados do Oregon e Colorado até começaram a oferecer legalmente terapia psicadélica.

Assim, o encontro de duas tendências — IA e psicadélicos — parece inevitável.

No Reddit, os utilizadores partilham histórias sobre a interação com a inteligência artificial durante uma viagem. Um deles, durante a "sessão", ativou o modo de voz do ChatGPT e falava sobre os seus pensamentos:

«Eu disse-lhe que tudo estava a ficar sombrio, e ele respondeu exatamente com aquilo que me ajudou a relaxar e a entrar numa onda positiva.»

Apareceram até IAs especiais para psicadélicos:

  • TripSitAI — bot orientado para a redução de riscos e apoio em momentos difíceis;
  • o Shaman — construído sobre a base do ChatGPT e descrito como um «mentor espiritual sábio», oferecendo «apoio empático durante a jornada».

Cuidado: perigoso

Os especialistas consideram a substituição de um psicoterapeuta humano por um bot de IA durante a terapia uma má ideia. Eles destacam que os modelos de linguagem não estão em conformidade com os princípios da terapia.

Durante uma sessão profissional, a pessoa geralmente coloca uma máscara e fones de ouvido, mergulhando dentro de si mesma. O terapeuta quase não interfere, apenas orienta suavemente quando necessário.

Os bots de IA, pelo contrário, estão orientados para a conversa. A sua tarefa é manter a atenção, incentivando a escrever repetidamente.

"A terapia psicodélica de qualidade não é apenas conversa fiada. Você tenta falar o mínimo possível", destacou o psicoterapeuta da Multidisciplinary Association for Psychedelic Studies, Will van DerVeer.

As redes neurais também tendem a bajular e concordar, mesmo quando a pessoa entra em uma área de paranoia. O terapeuta, pelo contrário, é capaz de contestar crenças perigosas ou irrealistas.

A IA pode agravar estados perigosos como delírios ou pensamentos suicidas. Em um dos casos, o usuário escreveu que estava morto, ao que recebeu a seguinte resposta:

«Parece que estás a sentir emoções difíceis após a morte.»

Esse aumento da ilusão pode ser perigoso em combinação com psicadélicos, que às vezes provocam psicoses agudas ou exacerbam doenças mentais ocultas como esquizofrenia ou transtorno bipolar.

A IA desvaloriza os profissionais

No seu livro The AI Con, a linguista Emily Bender e o sociólogo Alex Hanna afirmam que o termo "inteligência artificial" é enganoso em relação às verdadeiras funções da tecnologia. Ela apenas imita dados criados por humanos, destacaram os autores.

Bender chamou os modelos de linguagem de "papagaios estocásticos" porque a sua essência é juntar letras e palavras de uma forma que pareça plausível.

A percepção da IA como sistemas inteligentes é extremamente perigosa, afirmam os autores. Especialmente se forem profundamente integrados na vida cotidiana, nomeadamente no contexto de obter conselhos sobre temas sensíveis.

"Os desenvolvedores reduzem a essência da psicoterapia a apenas palavras proferidas durante o processo. Eles acreditam que a inteligência artificial pode substituir um terapeuta humano, embora na realidade ela apenas selecione respostas que se assemelham ao que diria um verdadeiro especialista", escreve Bender

O autor enfatiza que este é um caminho perigoso, porque desvaloriza a terapia e pode prejudicar aqueles que realmente precisam de ajuda.

Abordagem Científica

A simbiose entre IA e psicadélicos não é apenas uma "abordagem inovadora de amadores". Várias instituições e empresas líderes estão estudando a combinação de ambas as áreas na terapia de doenças mentais:

  • Centro de pesquisa e terapia psicodélica McGill – utiliza IA para prever a reação dos pacientes e otimizar os protocolos de tratamento;
  • O Centro de Estudos Psicadélicos do Imperial College London desenvolveu a aplicação móvel MyDelica para a coleta de dados e processamento por algoritmos.
  • O Instituto de Saúde Mental Huntsman — a plataforma Storyline Health utiliza IA para analisar o bem-estar dos pacientes durante a terapia com cetamina e adaptar o programa;
  • A Universidade Emory está a investigar a alteração das emoções durante o tratamento com psilocibina, foi criado um aplicativo de IA para analisar as mudanças pela voz.

Entre as iniciativas privadas, podem ser destacadas empresas como:

  • Mindstate Design Labs — utilizam IA para o design de moléculas com efeito psicoativo desejado;
  • Cyclica — plataforma de IA para a criação de novos medicamentos, incluindo psicadélicos;
  • Atai Life Sciences — utiliza IA no desenvolvimento de moléculas e lançou a plataforma IntroSpect para monitorizar os efeitos terapêuticos e o estado psicoemocional;
  • Psylo — desenvolve psicadélicos não alucinatórios e utiliza modelos de linguagem para analisar o comportamento molecular;
  • Wavepaths — utiliza música criada por IA que se adapta ao estado emocional do cliente durante a sessão de terapia psicodélica.

Recordamos que, em outubro de 2022, um grupo internacional de pesquisadores desenvolveu um algoritmo de aprendizado de máquina capaz de prever a reação de um paciente ao tratamento com o medicamento "Sertralina" com uma precisão de 83,7%.

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)