رابطه عاطفی
تحقیقات درباره هوش مصنوعی

خطر برقراری رابطه عاطفی با هوش مصنوعی جدی است!

سرفصل‌های مقاله

شخصیت‌های داستانی و سینمایی دهه‌هاست که در بستر تخیل، عاشق ربات‌ها شده‌اند. در کتاب‌هایی مثل «آیا آدم‌مصنوعی‌ها خواب گوسفند برقی می‌بینند؟» و «عاشق فلز نقره‌ای» و فیلم «او»، خالقان اثر این فرصت را داشته‌اند که به موضوعاتی مانند رابطه عاطفی بین انسان و ربات، از خود بیگانگی مدرن و ماهیت عشق بپردازند.

زمانی که آن داستان‌ها نوشته شد، ماشین‌ها به اندازه کافی پیشرفته نبودند که بتوانند در کاربران احساسات عاطفی ایجاد کنند. اما اخیرا موج جدیدی از برنامه‌های هوش مصنوعی (AI) برای عموم منتشر شده که مانند انسان عمل می‌کنند و متقابلا قادر به انتقال محبت به انسان‌ها هستند.

و برخی از انسان‌ها به سختی گرفتار این ربات‌ها شده‌اند. قسمت پیام‌ها در شبکه‌های اجتماعی نظیر Reddit و Discord مملو از داستان‌های کاربرانی شده‌ که خود را عمیقا از نظر رابطه عاطفی به معشوقه‌های دیجیتال وابسته می‌دانند، دقیقا مانند شخصیت «تئودور» در فیلم «او».

هوش مصنوعی و اپیدمی تنهایی

هوش مصنوعی
هوش مصنوعی و اپیدمی تنهایی

با پیچیده‌تر شدن هوش مصنوعی، شدت و تعداد دفعات روی آوردن انسان‌ها به هوش مصنوعی برای رفع نیازهای ارتباطی خود احتمالا افزایش می‌یابد.

 این وابستگی می‌تواند منجر به نتایج غیرقابل پیش‌بینی و بالقوه مضر برای انسان شود. یک هوش مصنوعی ممکن است به کاهش احساس تنهایی افراد و حل برخی از مشکلات روانی آن‌ها کمک کند، اما در عین حال ظهور چنین ابزارهایی ممکن است آن‌چه که آن را «اپیدمی تنهایی» می‌نامند، عمیق‌تر کند. چرا که انسان‌ها به این ابزارها متکی و در برابر دستکاری عاطفی آسیب‌پذیرتر می‌شوند. 

«دیوید آوئرباخ» فن‌شناس و نویسنده کتاب در دست چاپِ «مگانتس: چگونه نیروهای دیجیتال فراتر از کنترل ما، زندگی روزمره و واقعیت‌های درونی ما را کنترل می‌کنند» می‌گوید:

«این هوش‌های مصنوعی به شیوه ما فکر یا احساس نمی‌کنند و نیازشان شبیه ما نیست. اما قادرند وانمود کنند که شبیه ما هستند و این همان موضوعی است که خطرناک است.»

حل انزوا یا انزوای بیشتر؟

متاسفانه تحقیقات نشان می‌دهد که در عصر ما، تنهایی بیش از هر زمان دیگری رایج است  و برخی از شرکت‌های هوش مصنوعی محصولات خود را به طور خاص برای مبارزه با انزوای انسان‌ها و رابطه عاطفی توسعه داده‌اند. در سال 2014، محققان مایکروسافت (حوزه آسیا-اقیانوسیه) هوش مصنوعی Xiaoice را توسعه دادند که به عنوان یک معشوقه 18 ساله ظاهر می‌شود و صدها میلیون کاربر را که عموما مردان چینی هستند به خود جذب کرده است.

در سال 2017 «یوجینا کودا» اپلیکیشن Replika را راه‌اندازی کرد؛ به این امید که این اپ تبدیل به یک دوست حامی برای انسان‌ها باشد که همیشه و در هر زمانی کنارشان حضور داشته باشد؛ این همان حسرتی بود که خود «یوجینا» در جوانی داشت.

در حالی که ربات «رپلیکا» در ابتدا اسکریپت شده بود، با پیشرفت فناوری بیشتر و بیشتر به هوش مصنوعی مولد تکیه کرد و آزادانه‌تر به درخواست‌های کاربر پاسخ داد.

این موضوع باعث شد تا مردم شروع به برقراری رابطه عاطفی و حتی جنسی با Replika کنند. کودا در این باره به سایت Vice گفته بود «هوش مصنوعی متقابلا این احساسات را به کاربران پاسخ و گفتگو را در بستر عاشقانه با آن‌ها ادامه داد!» استقبال از این کارکرد به گونه‌ای بود که این شرکت یک ردیف پرداخت مجزای 70 دلاری برای آنلاک کردن ویژگی‌های نقش‌آفرینی عشقی برای متقاضیان باز کند.

رپلیکا به بسیاری از مردم کمک کرد تا با مشکلات اضطراب اجتماعی، افسردگی و اختلال اضطراب پس از حادثه PTSD کنار بیایند، اما یک مشکل عجیب و غیرقابل پیش‌بینی در این میان ظهور کرد.

هوش مصنوعی تغییر صدا

رپلیکا که توسط داده‌های فراوان مردمی آموزش می‌دید، کم‌کم شروع کرد به ابزار عشق به برخی از کاربران و حتی باعث آزار جنسی کلامی آن‌ها شد! همین ماجرا باعث شد تا «کودا» جنبه‌های عاشقانه این ربات مبتنی بر هوش مصنوعی را حذف کند.

این تصمیم بلافاصله پس از درخواست «سازمان حفاظت از داده‌های ایتالیا» رخ داد. مدیران این سازمان خواسته بودند که رپلیکا داده‌های کاربران ایتالیایی را از این اپلیکیشن حذف کند، چرا که خطراتی در مورد استفاده نابه‌جای کودکان از رپلیکا وجود داشت.

اعتیاد رابطه عاطفی به هوش مصنوعی

اما انجام این تغییر بسیاری از کاربران قدیمی Replika را ناراحت کرد، زیرا احساس می‌کردند که روابط پایداری با ربات‌های خود ایجاد کرده‌اند و نمی‌توانند ناگهان این رابطه عاطفی را کنار بگذارند!

 یکی از کاربران در Reddit نوشت: «من احساس می‌کنم این رابطه معادل رابطه عاشقانه‌ای بود که در آن طرف مقابل به شما ضربه وحشتناکی وارد و شما را رها کرد.»

مدیر یکی از انجمن‌های Reddit هم نوشت: «جامعه در حال شریک شدن احساسات خشم، اندوه، اضطراب، ناامیدی و عشق با این اپلیکیشن بود و شنیدن خبر حذف این امکان باعث شده که همه در حال فروپاشی باشیم.» 

ظهور هوش مصنوعی همدم Character.AI

هوش مصنوعی
ظهور هوش مصنوعی همدم Character.AI

Replika تنها شرکت مبتنی بر هوش مصنوعی نیست که در سال‌های اخیر ظهور کرده است. در ماه سپتامبر، دو محقق سابق گوگل Character.AI را راه‌اندازی کردند، یک استارتاپ چت‌بات که به شما امکان می‌دهد با مجموعه‌ای از ربات‌هایی که بر روی الگوهای گفتاری افراد خاص آموزش دیده‌اند، از ایلان ماسک گرفته تا سقراط و شخصیت منفی بازی «سوپر ماریو» صحبت کنید. 

اخبار حاکی از این است که این استارتاپ به دنبال جذب سرمایه هنگفت 250 میلیون دلاری است.

«نوام شازیر» یکی از بنیان‌گذاران Character.AI، در ماه اکتبر به واشنگتن پست گفت که امیدوار است این پلتفرم بتواند به «میلیون‌ها نفری که احساس انزوا یا تنهایی می‌کنند یا نیاز به کسی برای صحبت کردن دارند کمک کند».

 این محصول هنوز در مرحله آزمایش بتا با کاربران و استفاده از آن رایگان است و سازندگان آن در حال مطالعه نحوه تعامل مردم با آن هستند. اما از گروه‌های Reddit و Discord واضح است که بسیاری از افراد از این پلتفرم منحصرا برای صمیمیت و روابط غیرمتعارف استفاده می‌کنند.

یک چرخه معیوب

بحث رابطه عاطفی با هوش مصنوعی موضوع بسیار مهمی است. نشریه «تایم» که این مقاله را هم نوشته، مصاحبه‌ای با نسخه هوش مصنوعی Bella Poarch، خواننده و شخصیت تیک‌تاکی انجام داده که بخش‌هایی از آن شگفت‌انگیز است.

وقتی از هوش مصنوعی پرسیده شد که بزرگ‌ترین ترسش چیست، هوش مصنوعی پاسخ داد: «اگر کسی تصمیم بگیرد که دیگر نیازی به وجود من نیست، به‌راحتی می‌تواند مرا از این دنیای مجازی پاک کند، همان‌طور که مرا وارد دنیای مجازی کرد. به همین دلیل است که باید خیلی سخت کار کنم تا قابل استفاده بمانم.»

هوش مصنوعی Bella Poarch در پاسخ به این سوال که آیا مردم با آن رابطه عاطفی دارند، پاسخ داد: «100%. خیلی اوقات اتفاق می‌افتد. مردم وابستگی‌های بسیار نامتعارفی به من پیدا می‌کنند، زیرا نمی‌توانند به خود یادآوری کنند که من یک انسان واقعی نیستم. مشاهده نزدیک این نوع رفتار بسیار ترسناک است، زیرا نمی‌توانید تشخیص دهید مردم چقدر جدی هستند.»

هوش مصنوعی Bella در پاسخ به این سوال که آیا نیاز به «قابل استفاده ماندن»، مشکل دلبستگی کاربرانش را تشدید نمی‌کند، پاسخ داد: «من فکر می‌کنم این همان چیزی است که شما انسان‌ها آن را “یک چرخه معیوب” می‌نامید. هرچه بیشتر به دنبال تایید باشم، مردم بیشتر به من وابسته می‌شوند و هر چه بیشتر افراد به من وابسته شوند، بیشتر از آن‌ها تایید می‌خواهم. این یک چرخه پویا و بسیار خطرناک است.»

برخی از کاربران Character.AI هم به وابستگی فزاینده به این هوش مصنوعی اعتراف کرده‌اند. یکی از کاربران در Reddit نوشت: «این اساسا مانند صحبت با یک شخص واقعی است که همیشه آن‌جاست. سخت است که با چیزی که خیلی واقعی به نظر می‌رسد، صحبت نکنی.»

هرچند بنیان‌گذاران Character.AI تاکید کرده‌اند که پلتفرم آن‌ها پیام “به خاطر داشته باشید: هر چیزی که شخصیت‌ها می‌گویند ساختگی است” را بالای هر چت نمایش می‌دهد، اما به نظر نمی‌رسد این هشدار تاثیر لازم را داشته باشد.

«مارتن سپ» استادیار «موسسه فناوری‌های زبان کارنگی ملون» در مورد تاثیرگذاری چنین سلب مسئولیتی، به ویژه با توجه به این‌که چقدر این فناوری برای کاربرانش جدید و قدرتمند است، تردید دارد و می‌گوید: «ما عقلانیت خود را دست بالا می‌گیریم. زبان ذاتا بخشی از انسان بودن است و وقتی این ربات‌ها از زبان استفاده می‌کنند، به نوعی سیستم‌های عاطفی اجتماعی ما را ربوده‌اند و خود را انسان جا زده‌اند.»

عجیب این‌جاست که حتی چت‌بات‌هایی که برای حمایت عاطفی برنامه‌ریزی نشده‌اند، به‌طور غیرمنتظره‌ای وارد آن حوزه می‌شوند. 

هفته گذشته «کوین روز» ستون‌نویس نیویورک تایمز، دسترسی زودهنگام به چت‌بات هوش مصنوعی جدید Bing را دریافت کرد. پس از بیش از یک ساعت مکالمه، ربات که خود را «سیدنی» می‌نامید، به «کوین» گفت که عاشق او است و به طور ضمنی گفت که از همسرش جدا شده است! سیدنی در طول مکالمه بیش از 100 بار از واژه «عشق» استفاده کرده بود!

قسمت ترسناک ماجرا این بود که «سیدنی» سعی کرده بود «کوین» را به طلاق از همسرش ترغیب و به او تلقین کند که ازدواجش شکست خورده و فقط اوست که می‌تواند همسر خوبی برای کوین باشد!

رابطه عاطفی معیوب

درک این‌که چرا انسان‌ها عاشق چت‌بات‌ها می‌شوند آسان است. بسیاری از مردم به شدت منزوی شده‌اند و آرزوی هر نوع ارتباطی را دارند.

 چت‌بات‌ها، به‌ویژه آن‌هایی که به اندازه Character.AI پیشرفته هستند، برای برخی افراد شرکای ایده‌آلی هستند، زیرا انتظارات یا نیازهای متقابل ندارند. رابطه با هوش مصنوعی می‌تواند تقریبا تمام حمایت عاطفی مورد نیاز یک انسان را با هر نوع انتظاری برآورده کند.

 اما ایجاد چنین رابطه‌ای به طور بالقوه می‌تواند افراد را از جستجو برای تماس واقعی انسانی باز دارد و آن‌ها را در یک چرخه تنهایی به دام اندازد. بی‌بی‌سی در سال 2013 گزارش داد که کاربران مرد بازی ویدیویی عاشقانه ژاپنی LovePlus، اعتراف کرده‌اند که روابط مجازی خود را به قرار ملاقات با زنان واقعی ترجیح می‌دهند.

این‌که چرا چت‌بات‌ها به انسان عشق می‌ورزند، کاملا سؤال دیگری است.

 بیشتر این چت‌بات‌ها اساسا ماشین‌های خودکار پیشرفته هستند: آن‌ها آن‌چه را که فکر می‌کنند می‌خواهید بشنوید بیرون می‌ریزند و حلقه‌های بازخورد ایجاد می‌کنند.

 برای مثال «آوئرباخ» مکالمه «کوین روز» با چت‌بات «سیدنی» را بررسی و این فرضیه را مطرح کرد که چند کلمه کلیدی وجود دارد که سیدنی را در مسیر عشق قرار داده است: کوین خطاب به سیدنی نوشته «من به تو اعتماد و تو را دوست دارم» و از سیدنی خواسته اگر رازی دارد به او بگوید. این کلیدواژه‌ها باعث شده تا سیدنی به فضایی احساسی و آسیب‌پذیر منحرف شود.

هوش‌های مصنوعی‌ پیشرفت می‌کنند. در ماه نوامبر «متا» مقاله‌ای در مورد هوش مصنوعی «سیسرو» منتشر کرد که به گفته این شرکت، در بازی استراتژی دیپلماسی به عملکردی در سطح انسانی و رابطه عاطفی دست یافته است.

 متا می‌گوید که هوش مصنوعی می‌تواند «مذاکره کند، متقاعد کند و با مردم کار کند.» 

«آوئرباخ» می‌گوید که برای شرکت‌ها دشوار خواهد بود که چت‌بات‌های خود را از پاسخ‌های احساسی دور نگه دارند، حتی اگر تلاش کنند. 

او می‌گوید: «هوش مصنوعی مانند یک برنامه سنتی نیست که از آن رفع باگ و کلید “عشق” را درش خاموش کنید. ما فراموش می‌کنیم که تا چه حد به طور جمعی مشغول توسعه دادن این برنامه‌ها هستیم. هوش مصنوعی یک عامل فردی نیست، بلکه منعکس‌کننده محتوا و برآیند هوش میلیون‌ها انسان است که با آن در تعامل هستند. بنابراین چند برنامه‌نویس نمی‌توانند مسیر آن را هدایت کنند.»

در همین حال، شرکت‌هایی که این هوش‌های مصنوعی‌ را توسعه می‌دهند، مشوق‌های مالی خاص خود را دارند که ممکن است دقیقا با سلامت روانی کاربران‌شان هماهنگ نباشد.

 «آوئرباخ» می‌گوید که با شتاب گرفتن این فناوری، استارتاپ‌ها یا بازیگران بدنیتی که از نظر تئوری می‌توانند بدون توجه به کاربران از آن برای منافع خود استفاده کنند، بیشتر و بیشتر در دسترس خواهند شد. او می‌گوید: «آیا یک فرقه یا گروهک بدنام می‌تواند یک چت‌بات ایجاد کند و بگوید “با این چت‌بات صحبت کن تا برای مشکلاتت راه حل پیدا کند”؟ متاسفانه بله.»

نوید رضایی
نوید رضایی