تراپیست

آیا می‌توان از ChatGPT به عنوان یک تراپیست استفاده کرد؟

سرفصل‌های مقاله
بعد از این‌که در هفته گذشته، «لیلین ونگ» متخصص هوش مصنوعی و از مدیران ChatGPT در شبکه اجتماعی X (توییتر سابق) گفتگو با چت‌بات ChatGPT را عامل رضایت روانی و عاطفی خود دانست، ChatGPT مجددا در معرض توجهات قرار گرفت.

ونگ در توییتی نوشته بود: «تا حالا هیچ‌وقت از ChatGPT برای تراپی (درمان) استفاده نکرده بودم. اما انگار راهش را پیدا کرده‌ام.»

این توییت باعث هجمه فوری منتقدان به ونگ و هشدار درباره بی‌اعتبار بودن توصیه‌های چت‌بات‌های هوش مصنوعی درباره سلامت روان شد.

همزمان با راه‌اندازی استارتاپ‌های در حال رشدی که برنامه‌های هوش مصنوعی را در جهت حمایت از سلامت روان انسان‌ها توسعه می‌دهند، موضوع کمک هوش مصنوعی به سلامت روان موضوع بحث شدید است.

بلافاصله بعد از توییت ونگ، «شر اسکارلت» برنامه‌نویس و فعال اجتماعی علیه او موضع گرفت و جلسات تراپی انسانی را به لحاظ عمق و تاثیر، بدون جایگزین دانست.

ChatGPT به عنوان یک تراپیست

GettyImages 1003090056 1682491149تحقیقات موسسه فناوری ماساچوست (MIT) و دانشگاه ایالتی آریزونا این موضوع را روشن‌تر کرده است. بر اساس گزارش AFP، در این مطالعه مشترک بیش از 300 نفر با ابزارهای هوش مصنوعی سلامت روان از طریق پرامپت‌ها و دستورهای متفاوت با چت‌بات‌ها تعامل داشتند.

به برخی از شرکت‌کنندگان این مطالعه گفته شد که هوش مصنوعی دل‌سوز است، به برخی دیگر گفته شد که هوش مصنوعی فریبنده است، و به بقیه هیچ جزئیاتی داده نشد. نتایج نشان داد کسانی که از ابتدا چت‌بات را دل‌سوز پنداشته بودند، آن را قابل اعتمادتر می‌دانستند. 

«پت پاترانوتاپورن» یکی از نویسندگان این گزارش اظهار داشت که آن‌چه تجربه یک فرد از هوش مصنوعی را تعیین می‌کند، ادراک اوست.

کاربران برنامه Replika که برای مزایای سلامت روان به بازار عرضه شده است، تعاملات نگران‌کننده‌ای را گزارش کرده‌اند که باعث شعله‌ورتر شدن آتش نگرانی‌ها شده است. KoKo، یک سازمان غیرانتفاعی در ایالات متحده یافته‌های آزمایشی استخراج‌شده از نرم‌افزار 3 GPT- در زمینه تراپی را به اشتراک گذاشت و به این نتیجه رسید که پاسخ‌های مبتنی بر هوش مصنوعی، فاقد عمق درمانی هستند.

چت‌بات‌های هوش مصنوعی و تراپی

حضور چت‌بات‌ها در حوزه تراپی روان چیز جدیدی نیست. از همان دوره آغازین ساخت چت‌بات‌های ابتدایی در دهه 1960، نرم‌افزاری به نام ELIZA طراحی شده بود تا «روان‌درمانی» را تقلید کند.

مطالعه اخیر MIT و دانشگاه آریزونا نشان داد که بسیاری از کاربران هوش مصنوعی، هنوز ELIZA را علی‌‌رغم قدمت زیادش ابزار معتبر و قابل اعتمادی قلمداد می‌کنند.

همه چت‌بات‌ها تعاملات واقعی را ارائه نمی‌کنند؛ همان‌طور که منتقدان به نگرانی‌هایی در مورد شفافیت ادعاهای درمانی هوش مصنوعی اشاره می‌کنند.

 به گزارش خبرگزاری فرانسه، «دیوید شاو» از دانشگاه «بازل» نیز احساسات مشابهی را به اشتراک گذاشته و رویکرد انتقادی‌تری نسبت به ماجرای اعتبار هوش مصنوعی به عنوان تراپیست دارد.

این‌که یکی از مدیران خود ChatGPT از توانایی محصولش در زمینه تراپی و کمک به سلامت روان تعریف کند عجیب و غیرطبیعی نیست، این کاربران هستند که باید به این قابلیت‌ها با دیده تردید نگاه کنند.

طبق تحقیق مشترک آن دو دانشگاه، باید انتظارات جامعه از هوش مصنوعی را کالیبره کرد تا مردم مطمئن شوند بین جلسات تراپی روانی واقعی و کمک گرفتن از هوش مصنوعی تفاوت‌های واضحی وجود دارد.

مهران
مهران