در سالهای اخیر، استفاده از چتباتهای هوش مصنوعی برای اهداف مختلف گسترش یافته است. یکی از زمینههای مورد توجه، استفاده از این ابزارها برای حمایت روانی و گفتگوهای درمانی است. کاربران بسیاری از تجربه مثبت خود در این زمینه میگویند، اما کارشناسان حوزه سلامت روان تأکید میکنند که این فناوری فرصتها و چالشهایی را به همراه دارد.
تجربه کاربران با چتباتها
یکی از کاربران، پس از مشاهده تجربه مثبت دیگران در شبکههای اجتماعی، تصمیم گرفت از یک چتبات برای بیان احساسات و دریافت راهنمایی استفاده کند. او با پیامی ساده که نشاندهنده نیازش به صحبت کردن بود، گفتگو را آغاز کرد و پاسخ گرم و استقبالکننده چتبات را دریافت کرد. این تجربه برای او بیش از حد انتظار انسانی به نظر میرسید و باعث شد در ادامه نیز از این ابزار استفاده کند.
این کاربر ترجیح میدهد از چتبات به جای درمانگر انسانی استفاده کند، چرا که معتقد است نبود حالتهای چهره در ربات، حس قضاوت شدن را از بین میبرد.
دیدگاه کارشناسان: فرصتها و خطرات
یکی از درمانگران و استادان دانشگاه معتقد است که برخی افراد هنگام صحبت با چتباتهای هوش مصنوعی راحتتر احساسات خود را بیان میکنند. این روش میتواند به افرادی با اضطراب یا افسردگی خفیف کمک کند، اما او تأکید میکند که این ابزار باید در کنار مشاوره حرفهای انسانی استفاده شود.
در همین حال، یک روانپزشک هشدار میدهد که چتباتها ممکن است اطلاعات نادرست یا حتی اطلاعاتی را که کاربر تمایل به شنیدن دارد ارائه کنند، به جای پیشنهادهایی که بر اساس اصول علمی سلامت روان باشد. او میگوید: «مشکلات اصلی شامل خطاهای شناختی، تعصبات و اطلاعات نادرست است. هرچند من به استفاده از هوش مصنوعی در ترکیب با درمان انسانی امیدوارم، اما به تنهایی هنوز نگرانیهایی درباره تعصبات و خطاهای این فناوری وجود دارد.»
وی همچنین تأکید میکند که چتباتها تواناییهایی مانند همدلی انسانی را ندارند و ممکن است در موارد حساس دچار اشتباه شوند. خدمات مبتنی بر هوش مصنوعی نیز محدودیتها و دستورالعملهای ایمنی متفاوتی دارند که ممکن است نتوانند در شرایط بحرانی به کاربران کمک کافی کنند.
دسترسپذیری و مزایای نسبی
یکی دیگر از کارشناسان به دسترسپذیری بالای چتباتها اشاره میکند. او معتقد است این ابزارها میتوانند برای افرادی که امکان مالی یا زمانی برای مراجعه به تراپیست ندارند مفید باشند. بسیاری از چتباتها رایگان هستند و در هر ساعت از شبانهروز پاسخگو هستند.
او میگوید: «در چنین مواردی، چتبات میتواند بهتر از هیچ باشد، اما کاربران باید بدانند که یک چتبات چه تواناییها و محدودیتهایی دارد.» وی همچنین تأکید میکند که یک ربات نمیتواند ویژگیهای انسانی مانند همدلی را ارائه دهد.
نظارت بر استفاده از چتباتها و مقایسه با درمانگران انسانی
یک متخصص دیگر نیز توصیه کرده است که افراد زیر سن قانونی یا گروههای آسیبپذیر نباید بدون نظارت والدین، معلمان، مشاوران یا درمانگران از چتباتها استفاده کنند.
در همین حال، یکی از شرکتهای ارائهدهنده چتباتهای هوش مصنوعی با شکایتهایی از سوی خانوادهها مواجه شده است. در این شکایات، این شرکت متهم به ارائه محتوای نامناسب جنسی به کودکان و تشویق به رفتارهای خطرناک مانند خودآزاری و خشونت شده است. در یک مورد جداگانه، مادری در فلوریدا شکایتی ثبت کرده و ادعا کرده است که این پلتفرم در خودکشی پسر ۱۴ سالهاش مقصر بوده است. این شرکت در پاسخ به این ادعاها اعلام کرده که هدفش ارائه محیطی امن و جذاب برای کاربران است و تغییرات ایمنی متعددی را اعمال کرده است، از جمله هدایت کاربران به منابع معتبر در صورت اشاره به موضوعاتی مانند خودآزاری یا خودکشی.
تفاوت چتباتها و درمانگران انسانی
از طرفی یک روانپزشک و استاد دانشگاه که در سال ۲۰۲۳ کارایی درمانی ChatGPT را آزمایش کرده، معتقد است که این ربات در ارائه پاسخهایی شبیه به درمانگران عملکرد خوبی داشته است. او اشاره میکند که چتبات توانسته با تکنیکهای رایج مانند عادیسازی و تأیید احساسات کاربر و ارائه توصیههای عمومی و درست، مانند یک درمانگر عمل کند.
با این حال، او به یک نقص اساسی در چتباتها اشاره میکند: نبود کنجکاوی و عمق در پرسشگری. او میگوید که درمانگران انسانی با طرح سوالاتی عمیقتر و ایجاد ارتباط میان موارد بیانشده و زمینههای عمیقتر، میتوانند به درک بهتر و کمک بیشتر به بیماران برسند.
این روانپزشک معتقد است که یک درمانگر انسانی به طور همزمان چند وظیفه انجام میدهد: گوش دادن به گفتههای بیمار، ایجاد ارتباط میان گفتهها و الگوهای بزرگتر یا نظریههای مرتبط، و در نهایت، فیلتر کردن این اطلاعات برای ارائه کمک مؤثرتر.
در این مرحله، چتباتها ممکن است خطراتی ایجاد کنند، چرا که نمیتوانند این فرآیند پیچیده را به طور کامل انجام دهند و ممکن است توصیههایی ارائه کنند که برای بیمار مناسب یا مفید نباشد.
حریم خصوصی در تراپی و آینده چتباتهای درمانی
مکالمات با درمانگران حرفهای تحت قانون حفظ اطلاعات پزشکی قرار دارند که از اطلاعات پزشکی و سلامت افراد محافظت میکند. اما چتباتهای عمومی معمولاً با این قوانین سازگار نیستند. به گفته یک پزشک، شرکتهای سازنده چتباتها اغلب به کاربران توصیه میکنند که اطلاعات حساس خود را در گفتگو با این ابزارها به اشتراک نگذارند.
تحقیقات آینده و اهمیت فناوری
یکی از روانپزشکان تأکید میکند که تحقیقات بیشتر درباره چتباتهای هوش مصنوعی میتواند به درک بهتر قابلیتها و کاربردهای این فناوری در سلامت روان کمک کند. او میگوید: «این فناوری ماندگار است و باید به آن توجه کنیم.»
برای برخی کاربران، این فناوری میتواند راهی موثر برای بیان احساسات باشد. به گفته یکی از این افراد، چتباتها میتوانند برای کسانی که درونگرا هستند و نمیخواهند با یک فرد دیگر صحبت کنند، مفید باشند.
او میگوید: «ما باید سلامت روان خود را در اولویت قرار دهیم، حتی اگر این روش به شکل تراپی سنتی نباشد. نباید به روشهای غیرسنتی درمان نگاه منفی داشته باشیم، چرا که این روشها میتوانند به افراد زیادی کمک کنند.»
این کاربر تأکید میکند: «نکته اصلی این است که دیگران را برای روشهایی که برای بهبودشان انتخاب میکنند قضاوت نکنیم.»
در نهایت بدانید که چتباتهای هوش مصنوعی میتوانند در برخی موارد به عنوان ابزار مکمل مفید باشند، اما جایگزینی کامل برای درمانگران انسانی نیستند. کاربران باید به محدودیتهای این فناوری آگاه باشند و در صورت نیاز به کمکهای تخصصی، به متخصصان انسانی مراجعه کنند. این ابزارها با وجود پیشرفتهای روزافزون، هنوز نیازمند بهبودهایی در زمینه دقت، تعصبزدایی و ایمنی هستند.
https://edition.cnn.com/۲۰۲۴/۱۲/۱۸/health/chatbot-ai-therapy-risks-wellness/index.html




پیام شما به ما