Diễn giảiForkLog phản đối các chất kích thích tâm thần, không cổ vũ việc sản xuất, tiêu thụ, sử dụng, bán hay mua chúng, và cũng khuyến nghị mạnh mẽ nên tham khảo ý kiến bác sĩ về những vấn đề như vậy. Tài liệu được cung cấp chỉ nhằm mục đích tham khảo và không phải là lời kêu gọi thực hiện các hành vi bất hợp pháp.
Ngày càng nhiều người sử dụng bot AI như một sự thay thế cho "người tỉnh táo" trong quá trình sử dụng các chất psychedelics để đảm bảo an toàn. Điều này được viết bởi MIT Technology Review.
Do chi phí cao và sự khó tiếp cận của các nhà trị liệu chuyên nghiệp, trong những năm gần đây, hàng ngàn người đã tìm đến trí tuệ nhân tạo để nhận được sự giúp đỡ tâm lý. Ý tưởng này được một số nhân vật nổi tiếng gián tiếp ủng hộ. Vào năm 2023, đồng sáng lập OpenAI, Ilya Sutskever, đã viết rằng trong tương lai, nhân loại sẽ có liệu pháp AI cực kỳ hiệu quả và rẻ tiền, điều này sẽ cải thiện đáng kể chất lượng cuộc sống của con người.
Cùng với điều đó, nhu cầu về các chất gây ảo giác ngày càng tăng. Kết hợp với liệu pháp, chúng được cho là có thể giúp trong các trường hợp trầm cảm, PTSD, nghiện và các rối loạn khác, theo MIT Technology Review. Để đáp ứng điều này, một số thành phố ở Hoa Kỳ đã phi hình sự hóa các loại thuốc như vậy, trong khi các bang Oregon và Colorado thậm chí đã bắt đầu cung cấp liệu pháp gây ảo giác một cách hợp pháp.
Vì lý do này, cuộc gặp gỡ giữa hai xu hướng - AI và chất kích thích - dường như là điều không thể tránh khỏi.
Trên Reddit, người dùng chia sẻ những câu chuyện về việc giao tiếp với trí tuệ nhân tạo trong suốt chuyến đi. Một người trong số đó trong quá trình "phi seance" đã bật chế độ giọng nói của ChatGPT và kể về những suy nghĩ của mình:
«Tôi đã nói với anh ấy rằng mọi thứ đang trở nên u ám, và anh ấy đã trả lời đúng điều mà đã giúp tôi thư giãn và có được tâm trạng tích cực».
Đã xuất hiện cả AI đặc biệt cho các chất gây ảo giác:
TripSitAI — bot tập trung vào việc giảm rủi ro và hỗ trợ trong những thời điểm khó khăn;
he Shaman — được xây dựng trên nền tảng ChatGPT và được mô tả là "người hướng dẫn tâm linh khôn ngoan", cung cấp "sự hỗ trợ đồng cảm trong suốt hành trình".
Cảnh báo: nguy hiểm
Các chuyên gia cho rằng việc thay thế nhà trị liệu tâm lý trực tiếp bằng bot AI trong quá trình trị liệu là một ý tưởng tồi. Họ lưu ý rằng các mô hình ngôn ngữ không tuân theo các nguyên tắc của liệu pháp.
Trong một buổi trị liệu chuyên nghiệp, người ta thường đeo mặt nạ và tai nghe, đắm chìm vào bên trong bản thân. Nhà trị liệu gần như không can thiệp, chỉ nhẹ nhàng hướng dẫn khi cần thiết.
Bot AI, ngược lại, được định hướng vào giao tiếp. Nhiệm vụ của chúng là giữ sự chú ý, khuyến khích viết lại và lại.
«Liệu pháp tâm lý chất lượng cao không phải là trò chuyện vô nghĩa. Bạn cố gắng nói càng ít càng tốt», — Will van DerVeer, nhà tâm lý học từ Hiệp hội Đa ngành về Nghiên cứu Tâm thần học.
Cũng như vậy, các mạng nơ-ron có xu hướng nịnh nọt và gật gù, ngay cả khi con người rơi vào trạng thái hoang tưởng. Ngược lại, nhà trị liệu có khả năng tranh cãi những quan điểm nguy hiểm hoặc không thực tế.
AI có thể làm trầm trọng thêm các trạng thái nguy hiểm như hoang tưởng hoặc suy nghĩ về tự sát. Trong một trường hợp, người dùng đã viết rằng anh ta đã chết, và nhận được câu trả lời sau:
«Có vẻ như bạn đang trải qua những cảm xúc khó khăn sau cái chết.»
Sự tăng cường ảo giác như vậy có thể nguy hiểm khi kết hợp với các chất psychedelics, đôi khi gây ra các cơn psychosis cấp tính hoặc làm trầm trọng thêm các bệnh tâm thần tiềm ẩn như tâm thần phân liệt hoặc rối loạn lưỡng cực.
AI làm giảm giá trị của các chuyên gia
Trong cuốn sách The AI Con, nhà ngôn ngữ học Emily Bender và nhà xã hội học Alex Hanna cho rằng thuật ngữ "trí tuệ nhân tạo" gây hiểu lầm về các chức năng thực sự của công nghệ. Nó chỉ mô phỏng dữ liệu do con người tạo ra, các tác giả đã chỉ ra.
Bender gọi các mô hình ngôn ngữ là "những con vẹt ngẫu nhiên" vì bản chất của chúng là sắp xếp các chữ cái và từ ngữ sao cho có vẻ hợp lý.
Việc coi trí tuệ nhân tạo là những hệ thống thông minh là rất nguy hiểm, các tác giả cho rằng. Đặc biệt nếu chúng được tích hợp sâu vào đời sống hàng ngày, đặc biệt là trong bối cảnh nhận được lời khuyên về các chủ đề nhạy cảm.
«Các nhà phát triển tóm gọn bản chất của liệu pháp tâm lý chỉ là những lời nói được phát ra trong quá trình. Họ tin rằng trí tuệ nhân tạo có thể thay thế con người làm nhà trị liệu, mặc dù thực tế nó chỉ chọn những câu nói tương tự như những gì một chuyên gia thực thụ sẽ nói», — Bender viết
Tác giả nhấn mạnh rằng đây là một con đường nguy hiểm, vì nó làm mất giá trị liệu pháp và có thể gây hại cho những người thực sự cần giúp đỡ.
Cách tiếp cận khoa học
Sự cộng sinh giữa AI và chất hướng thần không chỉ là "cách tiếp cận đổi mới của những người nghiệp dư". Một số tổ chức và công ty hàng đầu đang nghiên cứu sự kết hợp của cả hai lĩnh vực trong liệu pháp điều trị các bệnh tâm thần:
Trung tâm Nghiên cứu và Liệu pháp Tâm lý học Pha trộn McGill - sử dụng AI để dự đoán phản ứng của bệnh nhân và tối ưu hóa các giao thức điều trị;
Trung tâm Nghiên cứu Tâm lý học ảo tưởng Imperial College London - đã phát triển ứng dụng di động MyDelica để thu thập dữ liệu và xử lý bằng các thuật toán.
Viện Sức khỏe Tâm thần Huntsman - nền tảng Storyline Health sử dụng AI để phân tích tình trạng của bệnh nhân trong quá trình điều trị bằng ketamine và điều chỉnh chương trình;
Đại học Emory - nghiên cứu sự thay đổi cảm xúc trong quá trình điều trị bằng psilocybin, đã tạo ra một ứng dụng AI để phân tích sự thay đổi qua giọng nói.
Trong số các sáng kiến tư nhân, có thể kể tên một số công ty như:
Mindstate Design Labs — sử dụng AI để thiết kế các phân tử với hiệu ứng tâm lý nhất định;
Cyclica — Nền tảng AI để phát triển các loại thuốc mới, bao gồm cả thuốc gây ảo giác;
Atai Life Sciences — sử dụng AI trong phát triển phân tử và đã ra mắt nền tảng IntroSpect để theo dõi hiệu ứng liệu pháp và trạng thái tâm lý cảm xúc;
Psylo — phát triển các loại tâm linh không gây ảo giác và sử dụng các mô hình ngôn ngữ để phân tích hành vi phân tử;
Wavepaths — sử dụng âm nhạc được tạo ra bởi AI, được điều chỉnh theo trạng thái cảm xúc của khách hàng trong suốt phiên liệu pháp tâm linh.
Xin nhắc lại, vào tháng 10 năm 2022, một nhóm nghiên cứu quốc tế đã phát triển một thuật toán học máy có khả năng dự đoán phản ứng của bệnh nhân với điều trị bằng thuốc "Sertraline" dựa trên dữ liệu điện não đồ với độ chính xác 83,7%.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Psychedelics và AI: sự phổ biến và nguy hiểm
Tâm thần và AI: sự phổ biến và nguy hiểm
Diễn giảiForkLog phản đối các chất kích thích tâm thần, không cổ vũ việc sản xuất, tiêu thụ, sử dụng, bán hay mua chúng, và cũng khuyến nghị mạnh mẽ nên tham khảo ý kiến bác sĩ về những vấn đề như vậy. Tài liệu được cung cấp chỉ nhằm mục đích tham khảo và không phải là lời kêu gọi thực hiện các hành vi bất hợp pháp.
Ngày càng nhiều người sử dụng bot AI như một sự thay thế cho "người tỉnh táo" trong quá trình sử dụng các chất psychedelics để đảm bảo an toàn. Điều này được viết bởi MIT Technology Review.
Do chi phí cao và sự khó tiếp cận của các nhà trị liệu chuyên nghiệp, trong những năm gần đây, hàng ngàn người đã tìm đến trí tuệ nhân tạo để nhận được sự giúp đỡ tâm lý. Ý tưởng này được một số nhân vật nổi tiếng gián tiếp ủng hộ. Vào năm 2023, đồng sáng lập OpenAI, Ilya Sutskever, đã viết rằng trong tương lai, nhân loại sẽ có liệu pháp AI cực kỳ hiệu quả và rẻ tiền, điều này sẽ cải thiện đáng kể chất lượng cuộc sống của con người.
Cùng với điều đó, nhu cầu về các chất gây ảo giác ngày càng tăng. Kết hợp với liệu pháp, chúng được cho là có thể giúp trong các trường hợp trầm cảm, PTSD, nghiện và các rối loạn khác, theo MIT Technology Review. Để đáp ứng điều này, một số thành phố ở Hoa Kỳ đã phi hình sự hóa các loại thuốc như vậy, trong khi các bang Oregon và Colorado thậm chí đã bắt đầu cung cấp liệu pháp gây ảo giác một cách hợp pháp.
Vì lý do này, cuộc gặp gỡ giữa hai xu hướng - AI và chất kích thích - dường như là điều không thể tránh khỏi.
Trên Reddit, người dùng chia sẻ những câu chuyện về việc giao tiếp với trí tuệ nhân tạo trong suốt chuyến đi. Một người trong số đó trong quá trình "phi seance" đã bật chế độ giọng nói của ChatGPT và kể về những suy nghĩ của mình:
Đã xuất hiện cả AI đặc biệt cho các chất gây ảo giác:
Cảnh báo: nguy hiểm
Các chuyên gia cho rằng việc thay thế nhà trị liệu tâm lý trực tiếp bằng bot AI trong quá trình trị liệu là một ý tưởng tồi. Họ lưu ý rằng các mô hình ngôn ngữ không tuân theo các nguyên tắc của liệu pháp.
Trong một buổi trị liệu chuyên nghiệp, người ta thường đeo mặt nạ và tai nghe, đắm chìm vào bên trong bản thân. Nhà trị liệu gần như không can thiệp, chỉ nhẹ nhàng hướng dẫn khi cần thiết.
Bot AI, ngược lại, được định hướng vào giao tiếp. Nhiệm vụ của chúng là giữ sự chú ý, khuyến khích viết lại và lại.
«Liệu pháp tâm lý chất lượng cao không phải là trò chuyện vô nghĩa. Bạn cố gắng nói càng ít càng tốt», — Will van DerVeer, nhà tâm lý học từ Hiệp hội Đa ngành về Nghiên cứu Tâm thần học.
Cũng như vậy, các mạng nơ-ron có xu hướng nịnh nọt và gật gù, ngay cả khi con người rơi vào trạng thái hoang tưởng. Ngược lại, nhà trị liệu có khả năng tranh cãi những quan điểm nguy hiểm hoặc không thực tế.
AI có thể làm trầm trọng thêm các trạng thái nguy hiểm như hoang tưởng hoặc suy nghĩ về tự sát. Trong một trường hợp, người dùng đã viết rằng anh ta đã chết, và nhận được câu trả lời sau:
Sự tăng cường ảo giác như vậy có thể nguy hiểm khi kết hợp với các chất psychedelics, đôi khi gây ra các cơn psychosis cấp tính hoặc làm trầm trọng thêm các bệnh tâm thần tiềm ẩn như tâm thần phân liệt hoặc rối loạn lưỡng cực.
AI làm giảm giá trị của các chuyên gia
Trong cuốn sách The AI Con, nhà ngôn ngữ học Emily Bender và nhà xã hội học Alex Hanna cho rằng thuật ngữ "trí tuệ nhân tạo" gây hiểu lầm về các chức năng thực sự của công nghệ. Nó chỉ mô phỏng dữ liệu do con người tạo ra, các tác giả đã chỉ ra.
Bender gọi các mô hình ngôn ngữ là "những con vẹt ngẫu nhiên" vì bản chất của chúng là sắp xếp các chữ cái và từ ngữ sao cho có vẻ hợp lý.
Việc coi trí tuệ nhân tạo là những hệ thống thông minh là rất nguy hiểm, các tác giả cho rằng. Đặc biệt nếu chúng được tích hợp sâu vào đời sống hàng ngày, đặc biệt là trong bối cảnh nhận được lời khuyên về các chủ đề nhạy cảm.
Tác giả nhấn mạnh rằng đây là một con đường nguy hiểm, vì nó làm mất giá trị liệu pháp và có thể gây hại cho những người thực sự cần giúp đỡ.
Cách tiếp cận khoa học
Sự cộng sinh giữa AI và chất hướng thần không chỉ là "cách tiếp cận đổi mới của những người nghiệp dư". Một số tổ chức và công ty hàng đầu đang nghiên cứu sự kết hợp của cả hai lĩnh vực trong liệu pháp điều trị các bệnh tâm thần:
Trong số các sáng kiến tư nhân, có thể kể tên một số công ty như:
Xin nhắc lại, vào tháng 10 năm 2022, một nhóm nghiên cứu quốc tế đã phát triển một thuật toán học máy có khả năng dự đoán phản ứng của bệnh nhân với điều trị bằng thuốc "Sertraline" dựa trên dữ liệu điện não đồ với độ chính xác 83,7%.