ونگ در توییتی نوشته بود: «تا حالا هیچوقت از ChatGPT برای تراپی (درمان) استفاده نکرده بودم. اما انگار راهش را پیدا کردهام.»
این توییت باعث هجمه فوری منتقدان به ونگ و هشدار درباره بیاعتبار بودن توصیههای چتباتهای هوش مصنوعی درباره سلامت روان شد.
همزمان با راهاندازی استارتاپهای در حال رشدی که برنامههای هوش مصنوعی را در جهت حمایت از سلامت روان انسانها توسعه میدهند، موضوع کمک هوش مصنوعی به سلامت روان موضوع بحث شدید است.
بلافاصله بعد از توییت ونگ، «شر اسکارلت» برنامهنویس و فعال اجتماعی علیه او موضع گرفت و جلسات تراپی انسانی را به لحاظ عمق و تاثیر، بدون جایگزین دانست.
ChatGPT به عنوان یک تراپیست
تحقیقات موسسه فناوری ماساچوست (MIT) و دانشگاه ایالتی آریزونا این موضوع را روشنتر کرده است. بر اساس گزارش AFP، در این مطالعه مشترک بیش از 300 نفر با ابزارهای هوش مصنوعی سلامت روان از طریق پرامپتها و دستورهای متفاوت با چتباتها تعامل داشتند.
به برخی از شرکتکنندگان این مطالعه گفته شد که هوش مصنوعی دلسوز است، به برخی دیگر گفته شد که هوش مصنوعی فریبنده است، و به بقیه هیچ جزئیاتی داده نشد. نتایج نشان داد کسانی که از ابتدا چتبات را دلسوز پنداشته بودند، آن را قابل اعتمادتر میدانستند.
«پت پاترانوتاپورن» یکی از نویسندگان این گزارش اظهار داشت که آنچه تجربه یک فرد از هوش مصنوعی را تعیین میکند، ادراک اوست.
کاربران برنامه Replika که برای مزایای سلامت روان به بازار عرضه شده است، تعاملات نگرانکنندهای را گزارش کردهاند که باعث شعلهورتر شدن آتش نگرانیها شده است. KoKo، یک سازمان غیرانتفاعی در ایالات متحده یافتههای آزمایشی استخراجشده از نرمافزار 3 GPT- در زمینه تراپی را به اشتراک گذاشت و به این نتیجه رسید که پاسخهای مبتنی بر هوش مصنوعی، فاقد عمق درمانی هستند.
چتباتهای هوش مصنوعی و تراپی
حضور چتباتها در حوزه تراپی روان چیز جدیدی نیست. از همان دوره آغازین ساخت چتباتهای ابتدایی در دهه 1960، نرمافزاری به نام ELIZA طراحی شده بود تا «رواندرمانی» را تقلید کند.
مطالعه اخیر MIT و دانشگاه آریزونا نشان داد که بسیاری از کاربران هوش مصنوعی، هنوز ELIZA را علیرغم قدمت زیادش ابزار معتبر و قابل اعتمادی قلمداد میکنند.
همه چتباتها تعاملات واقعی را ارائه نمیکنند؛ همانطور که منتقدان به نگرانیهایی در مورد شفافیت ادعاهای درمانی هوش مصنوعی اشاره میکنند.
به گزارش خبرگزاری فرانسه، «دیوید شاو» از دانشگاه «بازل» نیز احساسات مشابهی را به اشتراک گذاشته و رویکرد انتقادیتری نسبت به ماجرای اعتبار هوش مصنوعی به عنوان تراپیست دارد.
اینکه یکی از مدیران خود ChatGPT از توانایی محصولش در زمینه تراپی و کمک به سلامت روان تعریف کند عجیب و غیرطبیعی نیست، این کاربران هستند که باید به این قابلیتها با دیده تردید نگاه کنند.
طبق تحقیق مشترک آن دو دانشگاه، باید انتظارات جامعه از هوش مصنوعی را کالیبره کرد تا مردم مطمئن شوند بین جلسات تراپی روانی واقعی و کمک گرفتن از هوش مصنوعی تفاوتهای واضحی وجود دارد.