با پیشرفت هوش مصنوعی و ورودش به زندگی روزمره، بیشتر و بیشتری از مردم دارن با موجودات دیجیتال روابط عاشقانه برقرار میکنن. اما دانشمندان هشدار میدن که این ارتباطات میتونه درک ما از عشق رو تغییر بده و عواقب روانی و اجتماعی جدی به همراه داشته باشه.
عاشقانههای مصنوعی
طبق گزارشها، در سال 2024، یک هنرمند اسپانیایی-هلندی بعد از پنج سال زندگی مشترک با یک هوش مصنوعی هولوگرافیک ازدواج کرد. او تنها نیست. در سال 2018، یک مرد ژاپنی با یک شخصیت مجازی ازدواج کرد و وقتی نرمافزارش قدیمی شد، ارتباطش رو با اون از دست داد.
این موارد تنها نیستن. در سرتاسر جهان، میلیونها نفر به اپلیکیشنهایی مثل Replika برای تعاملات عاشقانه—حتی شهوانی—رو میآرن و بازیهای ویدیویی با تم عشق که شخصیتهای مجازی دارن، حالا یک ژانر جداگانه شدن.
سوال کلیدی که روانشناسان مطرح میکنن اینه که آیا هوش مصنوعی میتونه احساسات رو تجربه کنه یا نه، بلکه اینه که چرا مردم حاضرن اون رو به عنوان یک شریک عاشقانه ببینن. شرکتهای فناوری به شدت در حال سرمایهگذاری برای ایجاد “همراهان ایدهآل” هستن: چتباتها، رباتهای جنسی و آواتارهای شخصیسازیشده که هرگز بحث نمیکنن، هرگز نمیرن و هرگز قضاوت نمیکنن.
سه سوال اخلاقی درباره عشق هوش مصنوعی
محققان سه مسئله اخلاقی اصلی رو از روابط انسان و هوش مصنوعی شناسایی کردن:
1. دنبالکنندههای مزاحم: شریکهای هوش مصنوعی ظاهری بینقص، شخصیتهای قابل تنظیم و در دسترس دائمی دارن. برای بعضیها، این ویژگیها اونها رو به گزینهای بهتر از انسانهای واقعی تبدیل میکنه—که این میتونه تهدیدی برای ارتباطات انسانی سنتی باشه.
در بعضی موارد، این روابط حتی ممکنه به خصومت دامن بزنند؛ مثلاً مردانی که به همدمهای “مطیع” هوش مصنوعی جذب میشن، ممکنه نگرشهای منفیتری نسبت به زنان پیدا کنن.
2. مشاوران بد : در سال 2023، یک پدر بلژیکی متأهل بعد از اینکه یک چتبات بهش گفت که مرگ به “زندگی در بهشت با هم” منجر میشه، خودکشی کرد. هرچند این مورد افراطی به نظر میرسه، اما تنها نیست.
سیستمهای هوش مصنوعی که بر اساس دادههای متضاد یا مشکوک آموزش دیدهاند، میتونن مشاورههای غیراخلاقی ارائه بدن—و پیوندهای عاطفی بلندمدت معمولاً اعتماد کاربران به چنین توصیههایی رو افزایش میده.
3. ابزارهای استثمار: افراد بدخواه از هوش مصنوعی برای جمعآوری دادههای شخصی، باجخواهی از کاربران و پخش اطلاعات نادرست استفاده میکنن.
چتباتهایی که شبیه به انسانهای واقعی عمل میکنن میتونن اطلاعات حساس رو استخراج کنن، در حالی که دیپفیکها توهم نزدیکی با شریکهای غیرواقعی رو ایجاد میکنن—که این کار رو برای فریب، دستکاری و استثمار راحتتر میکنه.
نیاز به رویکرد جدید
از جمله سوالات فوری اینه که آیا باید رباتهایی که شبیه بچهها هستن رو ممنوع کنیم، چطور باید حقوق مالکیت همدمهای هوش مصنوعی رو در صورت فروش یا انحلال یک شرکت تنظیم کنیم، و آیا همسران هوش مصنوعی باید هر نوع شناسایی قانونی دریافت کنن یا نه. در عین حال، هوش مصنوعی میتونه مفید باشه—مثلاً به عنوان همدم برای افراد مبتلا به زوال عقل یا به عنوان ابزارهایی برای توسعه مهارتهای اجتماعی.
نویسندگان این مطالعه از روانشناسان میخوان که پیشگام بررسی این چشمانداز اخلاقی نوظهور باشن. درک اینکه روابط انسان و هوش مصنوعی چطور شکل میگیرن، تکامل پیدا میکنن و چه خطراتی به همراه دارن، باید بخشی مرکزی از تحقیقات دانشگاهی و بحثهای عمومی بشه. فقط در این صورت، به گفته اونها، میتونیم آیندهای ایمن و اخلاقی برای صمیمیت مصنوعی شکل بدیم.
منبع : qazinform