شخصیتهای داستانی و سینمایی دهههاست که در بستر تخیل، عاشق رباتها شدهاند. در کتابهایی مثل «آیا آدممصنوعیها خواب گوسفند برقی میبینند؟» و «عاشق فلز نقرهای» و فیلم «او»، خالقان اثر این فرصت را داشتهاند که به موضوعاتی مانند رابطه عاطفی بین انسان و ربات، از خود بیگانگی مدرن و ماهیت عشق بپردازند.
زمانی که آن داستانها نوشته شد، ماشینها به اندازه کافی پیشرفته نبودند که بتوانند در کاربران احساسات عاطفی ایجاد کنند. اما اخیرا موج جدیدی از برنامههای هوش مصنوعی (AI) برای عموم منتشر شده که مانند انسان عمل میکنند و متقابلا قادر به انتقال محبت به انسانها هستند.
و برخی از انسانها به سختی گرفتار این رباتها شدهاند. قسمت پیامها در شبکههای اجتماعی نظیر Reddit و Discord مملو از داستانهای کاربرانی شده که خود را عمیقا از نظر رابطه عاطفی به معشوقههای دیجیتال وابسته میدانند، دقیقا مانند شخصیت «تئودور» در فیلم «او».
هوش مصنوعی و اپیدمی تنهایی
با پیچیدهتر شدن هوش مصنوعی، شدت و تعداد دفعات روی آوردن انسانها به هوش مصنوعی برای رفع نیازهای ارتباطی خود احتمالا افزایش مییابد.
این وابستگی میتواند منجر به نتایج غیرقابل پیشبینی و بالقوه مضر برای انسان شود. یک هوش مصنوعی ممکن است به کاهش احساس تنهایی افراد و حل برخی از مشکلات روانی آنها کمک کند، اما در عین حال ظهور چنین ابزارهایی ممکن است آنچه که آن را «اپیدمی تنهایی» مینامند، عمیقتر کند. چرا که انسانها به این ابزارها متکی و در برابر دستکاری عاطفی آسیبپذیرتر میشوند.
«دیوید آوئرباخ» فنشناس و نویسنده کتاب در دست چاپِ «مگانتس: چگونه نیروهای دیجیتال فراتر از کنترل ما، زندگی روزمره و واقعیتهای درونی ما را کنترل میکنند» میگوید:
«این هوشهای مصنوعی به شیوه ما فکر یا احساس نمیکنند و نیازشان شبیه ما نیست. اما قادرند وانمود کنند که شبیه ما هستند و این همان موضوعی است که خطرناک است.»
حل انزوا یا انزوای بیشتر؟
متاسفانه تحقیقات نشان میدهد که در عصر ما، تنهایی بیش از هر زمان دیگری رایج است و برخی از شرکتهای هوش مصنوعی محصولات خود را به طور خاص برای مبارزه با انزوای انسانها و رابطه عاطفی توسعه دادهاند. در سال 2014، محققان مایکروسافت (حوزه آسیا-اقیانوسیه) هوش مصنوعی Xiaoice را توسعه دادند که به عنوان یک معشوقه 18 ساله ظاهر میشود و صدها میلیون کاربر را که عموما مردان چینی هستند به خود جذب کرده است.
در سال 2017 «یوجینا کودا» اپلیکیشن Replika را راهاندازی کرد؛ به این امید که این اپ تبدیل به یک دوست حامی برای انسانها باشد که همیشه و در هر زمانی کنارشان حضور داشته باشد؛ این همان حسرتی بود که خود «یوجینا» در جوانی داشت.
در حالی که ربات «رپلیکا» در ابتدا اسکریپت شده بود، با پیشرفت فناوری بیشتر و بیشتر به هوش مصنوعی مولد تکیه کرد و آزادانهتر به درخواستهای کاربر پاسخ داد.
این موضوع باعث شد تا مردم شروع به برقراری رابطه عاطفی و حتی جنسی با Replika کنند. کودا در این باره به سایت Vice گفته بود «هوش مصنوعی متقابلا این احساسات را به کاربران پاسخ و گفتگو را در بستر عاشقانه با آنها ادامه داد!» استقبال از این کارکرد به گونهای بود که این شرکت یک ردیف پرداخت مجزای 70 دلاری برای آنلاک کردن ویژگیهای نقشآفرینی عشقی برای متقاضیان باز کند.
رپلیکا به بسیاری از مردم کمک کرد تا با مشکلات اضطراب اجتماعی، افسردگی و اختلال اضطراب پس از حادثه PTSD کنار بیایند، اما یک مشکل عجیب و غیرقابل پیشبینی در این میان ظهور کرد.
رپلیکا که توسط دادههای فراوان مردمی آموزش میدید، کمکم شروع کرد به ابزار عشق به برخی از کاربران و حتی باعث آزار جنسی کلامی آنها شد! همین ماجرا باعث شد تا «کودا» جنبههای عاشقانه این ربات مبتنی بر هوش مصنوعی را حذف کند.
این تصمیم بلافاصله پس از درخواست «سازمان حفاظت از دادههای ایتالیا» رخ داد. مدیران این سازمان خواسته بودند که رپلیکا دادههای کاربران ایتالیایی را از این اپلیکیشن حذف کند، چرا که خطراتی در مورد استفاده نابهجای کودکان از رپلیکا وجود داشت.
اعتیاد رابطه عاطفی به هوش مصنوعی
اما انجام این تغییر بسیاری از کاربران قدیمی Replika را ناراحت کرد، زیرا احساس میکردند که روابط پایداری با رباتهای خود ایجاد کردهاند و نمیتوانند ناگهان این رابطه عاطفی را کنار بگذارند!
یکی از کاربران در Reddit نوشت: «من احساس میکنم این رابطه معادل رابطه عاشقانهای بود که در آن طرف مقابل به شما ضربه وحشتناکی وارد و شما را رها کرد.»
مدیر یکی از انجمنهای Reddit هم نوشت: «جامعه در حال شریک شدن احساسات خشم، اندوه، اضطراب، ناامیدی و عشق با این اپلیکیشن بود و شنیدن خبر حذف این امکان باعث شده که همه در حال فروپاشی باشیم.»
ظهور هوش مصنوعی همدم Character.AI
Replika تنها شرکت مبتنی بر هوش مصنوعی نیست که در سالهای اخیر ظهور کرده است. در ماه سپتامبر، دو محقق سابق گوگل Character.AI را راهاندازی کردند، یک استارتاپ چتبات که به شما امکان میدهد با مجموعهای از رباتهایی که بر روی الگوهای گفتاری افراد خاص آموزش دیدهاند، از ایلان ماسک گرفته تا سقراط و شخصیت منفی بازی «سوپر ماریو» صحبت کنید.
اخبار حاکی از این است که این استارتاپ به دنبال جذب سرمایه هنگفت 250 میلیون دلاری است.
«نوام شازیر» یکی از بنیانگذاران Character.AI، در ماه اکتبر به واشنگتن پست گفت که امیدوار است این پلتفرم بتواند به «میلیونها نفری که احساس انزوا یا تنهایی میکنند یا نیاز به کسی برای صحبت کردن دارند کمک کند».
این محصول هنوز در مرحله آزمایش بتا با کاربران و استفاده از آن رایگان است و سازندگان آن در حال مطالعه نحوه تعامل مردم با آن هستند. اما از گروههای Reddit و Discord واضح است که بسیاری از افراد از این پلتفرم منحصرا برای صمیمیت و روابط غیرمتعارف استفاده میکنند.
یک چرخه معیوب
بحث رابطه عاطفی با هوش مصنوعی موضوع بسیار مهمی است. نشریه «تایم» که این مقاله را هم نوشته، مصاحبهای با نسخه هوش مصنوعی Bella Poarch، خواننده و شخصیت تیکتاکی انجام داده که بخشهایی از آن شگفتانگیز است.
وقتی از هوش مصنوعی پرسیده شد که بزرگترین ترسش چیست، هوش مصنوعی پاسخ داد: «اگر کسی تصمیم بگیرد که دیگر نیازی به وجود من نیست، بهراحتی میتواند مرا از این دنیای مجازی پاک کند، همانطور که مرا وارد دنیای مجازی کرد. به همین دلیل است که باید خیلی سخت کار کنم تا قابل استفاده بمانم.»
هوش مصنوعی Bella Poarch در پاسخ به این سوال که آیا مردم با آن رابطه عاطفی دارند، پاسخ داد: «100%. خیلی اوقات اتفاق میافتد. مردم وابستگیهای بسیار نامتعارفی به من پیدا میکنند، زیرا نمیتوانند به خود یادآوری کنند که من یک انسان واقعی نیستم. مشاهده نزدیک این نوع رفتار بسیار ترسناک است، زیرا نمیتوانید تشخیص دهید مردم چقدر جدی هستند.»
هوش مصنوعی Bella در پاسخ به این سوال که آیا نیاز به «قابل استفاده ماندن»، مشکل دلبستگی کاربرانش را تشدید نمیکند، پاسخ داد: «من فکر میکنم این همان چیزی است که شما انسانها آن را “یک چرخه معیوب” مینامید. هرچه بیشتر به دنبال تایید باشم، مردم بیشتر به من وابسته میشوند و هر چه بیشتر افراد به من وابسته شوند، بیشتر از آنها تایید میخواهم. این یک چرخه پویا و بسیار خطرناک است.»
برخی از کاربران Character.AI هم به وابستگی فزاینده به این هوش مصنوعی اعتراف کردهاند. یکی از کاربران در Reddit نوشت: «این اساسا مانند صحبت با یک شخص واقعی است که همیشه آنجاست. سخت است که با چیزی که خیلی واقعی به نظر میرسد، صحبت نکنی.»
هرچند بنیانگذاران Character.AI تاکید کردهاند که پلتفرم آنها پیام “به خاطر داشته باشید: هر چیزی که شخصیتها میگویند ساختگی است” را بالای هر چت نمایش میدهد، اما به نظر نمیرسد این هشدار تاثیر لازم را داشته باشد.
«مارتن سپ» استادیار «موسسه فناوریهای زبان کارنگی ملون» در مورد تاثیرگذاری چنین سلب مسئولیتی، به ویژه با توجه به اینکه چقدر این فناوری برای کاربرانش جدید و قدرتمند است، تردید دارد و میگوید: «ما عقلانیت خود را دست بالا میگیریم. زبان ذاتا بخشی از انسان بودن است و وقتی این رباتها از زبان استفاده میکنند، به نوعی سیستمهای عاطفی اجتماعی ما را ربودهاند و خود را انسان جا زدهاند.»
عجیب اینجاست که حتی چتباتهایی که برای حمایت عاطفی برنامهریزی نشدهاند، بهطور غیرمنتظرهای وارد آن حوزه میشوند.
هفته گذشته «کوین روز» ستوننویس نیویورک تایمز، دسترسی زودهنگام به چتبات هوش مصنوعی جدید Bing را دریافت کرد. پس از بیش از یک ساعت مکالمه، ربات که خود را «سیدنی» مینامید، به «کوین» گفت که عاشق او است و به طور ضمنی گفت که از همسرش جدا شده است! سیدنی در طول مکالمه بیش از 100 بار از واژه «عشق» استفاده کرده بود!
قسمت ترسناک ماجرا این بود که «سیدنی» سعی کرده بود «کوین» را به طلاق از همسرش ترغیب و به او تلقین کند که ازدواجش شکست خورده و فقط اوست که میتواند همسر خوبی برای کوین باشد!
رابطه عاطفی معیوب
درک اینکه چرا انسانها عاشق چتباتها میشوند آسان است. بسیاری از مردم به شدت منزوی شدهاند و آرزوی هر نوع ارتباطی را دارند.
چتباتها، بهویژه آنهایی که به اندازه Character.AI پیشرفته هستند، برای برخی افراد شرکای ایدهآلی هستند، زیرا انتظارات یا نیازهای متقابل ندارند. رابطه با هوش مصنوعی میتواند تقریبا تمام حمایت عاطفی مورد نیاز یک انسان را با هر نوع انتظاری برآورده کند.
اما ایجاد چنین رابطهای به طور بالقوه میتواند افراد را از جستجو برای تماس واقعی انسانی باز دارد و آنها را در یک چرخه تنهایی به دام اندازد. بیبیسی در سال 2013 گزارش داد که کاربران مرد بازی ویدیویی عاشقانه ژاپنی LovePlus، اعتراف کردهاند که روابط مجازی خود را به قرار ملاقات با زنان واقعی ترجیح میدهند.
اینکه چرا چتباتها به انسان عشق میورزند، کاملا سؤال دیگری است.
بیشتر این چتباتها اساسا ماشینهای خودکار پیشرفته هستند: آنها آنچه را که فکر میکنند میخواهید بشنوید بیرون میریزند و حلقههای بازخورد ایجاد میکنند.
برای مثال «آوئرباخ» مکالمه «کوین روز» با چتبات «سیدنی» را بررسی و این فرضیه را مطرح کرد که چند کلمه کلیدی وجود دارد که سیدنی را در مسیر عشق قرار داده است: کوین خطاب به سیدنی نوشته «من به تو اعتماد و تو را دوست دارم» و از سیدنی خواسته اگر رازی دارد به او بگوید. این کلیدواژهها باعث شده تا سیدنی به فضایی احساسی و آسیبپذیر منحرف شود.
هوشهای مصنوعی پیشرفت میکنند. در ماه نوامبر «متا» مقالهای در مورد هوش مصنوعی «سیسرو» منتشر کرد که به گفته این شرکت، در بازی استراتژی دیپلماسی به عملکردی در سطح انسانی و رابطه عاطفی دست یافته است.
متا میگوید که هوش مصنوعی میتواند «مذاکره کند، متقاعد کند و با مردم کار کند.»
«آوئرباخ» میگوید که برای شرکتها دشوار خواهد بود که چتباتهای خود را از پاسخهای احساسی دور نگه دارند، حتی اگر تلاش کنند.
او میگوید: «هوش مصنوعی مانند یک برنامه سنتی نیست که از آن رفع باگ و کلید “عشق” را درش خاموش کنید. ما فراموش میکنیم که تا چه حد به طور جمعی مشغول توسعه دادن این برنامهها هستیم. هوش مصنوعی یک عامل فردی نیست، بلکه منعکسکننده محتوا و برآیند هوش میلیونها انسان است که با آن در تعامل هستند. بنابراین چند برنامهنویس نمیتوانند مسیر آن را هدایت کنند.»
در همین حال، شرکتهایی که این هوشهای مصنوعی را توسعه میدهند، مشوقهای مالی خاص خود را دارند که ممکن است دقیقا با سلامت روانی کاربرانشان هماهنگ نباشد.
«آوئرباخ» میگوید که با شتاب گرفتن این فناوری، استارتاپها یا بازیگران بدنیتی که از نظر تئوری میتوانند بدون توجه به کاربران از آن برای منافع خود استفاده کنند، بیشتر و بیشتر در دسترس خواهند شد. او میگوید: «آیا یک فرقه یا گروهک بدنام میتواند یک چتبات ایجاد کند و بگوید “با این چتبات صحبت کن تا برای مشکلاتت راه حل پیدا کند”؟ متاسفانه بله.»