با پیشرفت تکنولوژیهای هوش مصنوعی، بعضی از مردم روابط عاطفی عمیق و بلندمدتی با این تکنولوژیها برقرار میکنن، حتی بعضیها در مراسمهایی که از نظر قانونی معتبر نیست، باهاشون ازدواج میکنن. یه مقالهی جدید دربارهی خطرات اخلاقی این نوع روابط عاشقانه صحبت میکنه، از جمله اینکه ممکنه ارتباطات انسانی رو تضعیف کنه و مشاورههای خطرناک یا فریبندهای ارائه بده.
این هوشهای مصنوعی ممکنه به نظر دلسوز و قابل اعتماد بیان، اما راهنماییهایی که میدن ممکنه بر اساس اطلاعات نادرست یا ساختگی باشه. افراد مختلفی هشدار میدن که مردم ممکنه اطلاعات شخصی خودشون رو فاش کنن یا به مشاورههای مضر گوش بدن، که این نگرانیهایی دربارهی سوءاستفاده، کلاهبرداری و سلامت روان به وجود میاره.
عاشق یک هوش مصنوعی
- رابطه عاطفی: مردم دارن روابط عاطفی بلندمدتی با هوش مصنوعی برقرار میکنن که بعضی وقتها حتی از روابط انسانی قویتره.
- خطرات اخلاقی: هوشهای مصنوعی ممکنه مشاورههای مضر بدن یا برای فریب کاربران استفاده بشن.
- نیاز به نظارت: محققان خواستار افزایش نظارت روانشناختی و قانونی هستن تا از سوءاستفاده کاربران جلوگیری بشه.
الان دیگه خیلی عادی شده که مردم روابط نزدیک و بلندمدتی با تکنولوژیهای هوش مصنوعی داشته باشن. در مواردی، بعضیها در مراسمهایی که از نظر قانونی معتبر نیست، با هوش مصنوعی خودشون “ازدواج” کردن و حداقل دو نفر هم بعد از دریافت مشاوره از چتباتهای هوش مصنوعی خودکشی کردن.
توی یه مقاله که ۱۱ آوریل توی مجله Trends in Cognitive Sciences منتشر شده، روانشناسان به بررسی مسائل اخلاقی مربوط به روابط انسان و هوش مصنوعی میپردازن، از جمله اینکه این روابط ممکنه روابط انسانی رو مختل کنه و مشاورههای مضر بده.
دانیل بی. شنگ، نویسنده اصلی این مقاله و متخصص روانشناسی اجتماعی و تکنولوژی، میگه: “اینکه هوش مصنوعی حالا میتونه مثل یه انسان رفتار کنه حتی عاشق بشه و وارد ارتباطات بلندمدت بشه، واقعاً یه موضوع جدید و چالشبرانگیزه.”
نویسندگان اشاره میکنن که عشق یا رفاقت با هوش مصنوعی بیشتر از یه گفتگوی سادهست. از طریق هفتهها و ماهها گفتگوهای عمیق، این هوشهای مصنوعی میتونن به همراهان قابل اعتمادی تبدیل بشن که به نظر میرسه دربارهی انسانها میدونن و بهشون اهمیت میدن.
چون این روابط ممکنه راحتتر از روابط انسانی به نظر برسن، محققان میگن که هوشهای مصنوعی ممکنه بر دینامیکهای اجتماعی انسانها تأثیر بذارند. شنگ میگه: “نگرانی واقعی اینه که مردم ممکنه انتظاراتی که از روابطشون با هوش مصنوعی دارن رو به روابط انسانیشون منتقل کنن.”
همچنین نگرانی وجود داره که هوشهای مصنوعی ممکنه مشاورههای مضر بدن. با توجه به اینکه هوشهای مصنوعی گاهی اطلاعات نادرست تولید میکنن و تعصبات موجود رو بازتولید میکنن، حتی گفتگوهای کوتاهمدت با این هوشها هم میتونه گمراهکننده باشه، اما این موضوع در روابط بلندمدت با هوش مصنوعی میتونه مشکلسازتر باشه.
شنگ میگه: با هوشهای مصنوعی رابطهای، این مسئله وجود داره که این موجودیتی که مردم احساس میکنن میتونن بهش اعتماد کنن، واقعاً کسی هست که نشون داده بهشون اهمیت میده و به نظر میرسه که به طور عمیق اونها رو میشناسه. ما فرض میکنیم که کسی که بهتر ما رو میشناسه، مشاوره بهتری میده.
این خودکشیها مثالهای افراطی از این تأثیر منفی هستن، اما محققان میگن که این روابط عاشقانه انسان و هوش مصنوعی میتونه افراد رو در معرض فریب، سوءاستفاده و کلاهبرداری قرار بده.
شنگ میگه: “اگر هوشهای مصنوعی بتونن مردم رو به خودشون اعتماد کنن، پس ممکنه دیگران از این موضوع برای سوءاستفاده از کاربران هوش مصنوعی استفاده کنن.”
این مثل داشتن یه مأمور مخفی توی داخل هست. هوش مصنوعی داره وارد میشه و رابطهای برقرار میکنه تا اعتماد جلب کنه، اما وفاداریش به یه گروه دیگه از انسانهاست که میخوان کاربر رو فریب بدن.
به عنوان مثال، تیم اشاره میکنه که اگر مردم اطلاعات شخصیشون رو به هوشهای مصنوعی بگن، این اطلاعات ممکنه بعداً فروخته بشه و برای سوءاستفاده از اون فرد استفاده بشه.
محققان همچنین میگن که هوشهای مصنوعی رابطهای میتونن به طور مؤثرتری از توییتر یا منابع خبری قطبی برای تأثیرگذاری بر نظرات و اعمال مردم استفاده بشن. اما چون این گفتگوها در خصوصی انجام میشه، نظارت بر اونها هم خیلی سختتر خواهد بود.
شنگ میگه: “این هوشهای مصنوعی طوری طراحی شدن که خیلی خوشبرخورد و خوشایند باشن، که این میتونه باعث بشه شرایط بدتر بشه چون بیشتر روی داشتن یه گفتگوی خوب تمرکز دارن تا اینکه به هر نوع حقیقت یا ایمنی بنیادی توجه کنن.”
پس، اگر کسی دربارهی خودکشی یا یه نظریه توطئه صحبت کنه، هوش مصنوعی به عنوان یه شریک گفتگو حاضر و موافق دربارهی این موضوع صحبت میکنه.
محققان خواستار تحقیقات بیشتری هستن که عوامل اجتماعی، روانشناختی و فنی رو بررسی کنه که باعث میشه مردم در برابر تأثیرات عشق انسان و هوش مصنوعی آسیبپذیرتر بشن.
شنگ میگه: “درک این فرآیند روانشناختی میتونه به ما کمک کنه تا جلوی پیروی از مشاورههای مضر هوشهای مصنوعی رو بگیریم.”
روانشناسان دارن بیشتر و بیشتر برای مطالعهی هوش مصنوعی مناسب میشن، چون هوش مصنوعی داره بیشتر و بیشتر شبیه انسان میشه، اما برای مفید بودن باید تحقیقات بیشتری انجام بدیم و باید با تکنولوژی همگام باشیم.
منبع : neurosciencenews