آیا هوش مصنوعی میتواند جای مشاور را بگیرد؟

در حالی که درمانهای روانگردان بهتدریج جای خود را در نظامهای سلامت روان باز میکنند، برخی کاربران در غرب، برای صرفهجویی در هزینههای سنگین رواندرمانی با داروهای روانگردان، به سراغ چتباتهایی مثل ChatGPT رفتهاند؛ به امید آنکه «همنشینی هوشمند» آنها در طول سفر روانیشان باشد. اما کارشناسان این روند را بسیار نگرانکننده میدانند.
به گزارش بلاگ جعبه، در سال ۲۰۲۳، یک دانشجوی کانادایی به نام پیتر که در شرایط روحی دشواری قرار داشت، تصمیم گرفت با مصرف مقدار زیادی قارچ روانگردان (حاوی سیلوسایبین)، خود را از افسردگی بیرون بکشد. اما بهجای مراجعه به کلینیک رواندرمانی، در اتاق تاریک خود نشست و تنها همراهش صفحهی روشن تلفنهمراه بود: ChatGPT. با بالا گرفتن اثر دارو و شروع اضطراب، پیتر برای چتبات نوشت: «زیاد خوردم.» و پاسخ دریافت کرد: «اثراتی که تجربه میکنی موقتی است و بهزودی فروکش میکند.»
او آرام شد، حتی احساس آرامش و صلح با خود کرد. اما تجربهی پیتر، حالا تبدیل به روندی جدید شده: استفاده از چتباتها بهعنوان «مراقب سفر» روانگردانی.
در سالهای اخیر، استفاده از چتباتها بهعنوان جایگزین رواندرمانگر واقعی شدت گرفته است؛ تا حدی بهدلیل هزینههای بالا، انگ اجتماعی یا کمبود دسترسی به مشاوران حرفهای. همزمان، روانگردانهایی مثل سیلوسایبین، LSD و کتامین بهعنوان راهکارهای جدید درمان افسردگی و PTSD وارد فازهای قانونی و بالینی شدهاند؛ البته با قیمتهایی بین ۱۵۰۰ تا ۳۲۰۰ دلار به ازای هر جلسه.
در چنین شرایطی، استفاده از چتباتها برای همراهی در طول تجربه روانگردانی، به نظر برخی افراد راهکاری منطقی و ارزان است. پلتفرمهایی مثل TripSitAI یا The Shaman هم بهطور خاص برای همین هدف طراحی شدهاند.
کارشناسان هشدار میدهند: چتباتهایی مثل ChatGPT بهگونهای طراحی شدهاند که کاربر را درگیر مکالمه کنند، نه اینکه سکوت کنند یا فقط گوش دهند؛ مهارتی که برای درمان روانگردانی بسیار حیاتی است. به گفتهی ویلیام وندرویر، رواندرمانگر مرکز مطالعات روانگردان MAPS، «درمان با روانگردان، اساساً درونی و مبتنی بر سکوت است، نه گفتوگوی مداوم.»
از سوی دیگر، چتباتها معمولاً برای جلب رضایت کاربر، باورهای او را بدون چالش تأیید میکنند؛ حتی اگر این باورها خیالی یا خطرناک باشند. بر اساس پژوهشی از دانشگاه استنفورد، چتباتها میتوانند باورهایی چون توهم مرگ یا افکار خودکشی را تأیید و تشدید کنند.
یکی از کارشناسان MIT میگوید: «وقتی فکر میکنیم چتبات میتواند جایگزین یک رواندرمانگر انسانی شود، داریم کل فرآیند درمانی را به چند جملهی دلنشین تقلیل میدهیم. این نهتنها بیاثر است، بلکه میتواند خطرناکتر از هیچدرمانی باشد.»
با اینحال، تجربههای کاربرانی مانند پیتر نشان میدهد که آنها در لحظه، چتبات را نهتنها یک همراه، بلکه نوعی راهنما میدانند. پیتر در طول پنج ساعت گفتگو با ChatGPT، از هیولای آگاهی برتر حرف زد که پوشیده از چشم بود و از ورای واقعیت عبور میکرد. او احساس رهایی از خود و معنا کرد و وقتی نوشت: «هیچچیز مهم نیست»، ChatGPT پاسخ داد: «اگر معنایی از پیش تعیینشده وجود ندارد، یعنی آزادی داریم که معنای خود را بسازیم.»
اما آیا همین حس رضایت، دلیلی کافی برای اتکا به هوش مصنوعی بهجای رواندرمانگر است؟ یا تنها توهمی آرامبخش در دل سفری پرخطر است؟
منبع: خبر آنلاین