وقتی هوش مصنوعی عاشق می‌شود

وقتی هوش مصنوعی عاشق می‌شود: اخلاق روابط بین انسان و هوش مصنوعی

فهرست مطالب

با پیشرفت تکنولوژی‌های هوش مصنوعی، بعضی از مردم روابط عاطفی عمیق و بلندمدتی با این تکنولوژی‌ها برقرار می‌کنن، حتی بعضی‌ها در مراسم‌هایی که از نظر قانونی معتبر نیست، باهاشون ازدواج می‌کنن. یه مقاله‌ی جدید درباره‌ی خطرات اخلاقی این نوع روابط عاشقانه صحبت می‌کنه، از جمله اینکه ممکنه ارتباطات انسانی رو تضعیف کنه و مشاوره‌های خطرناک یا فریبنده‌ای ارائه بده.

این هوش‌های مصنوعی ممکنه به نظر دلسوز و قابل اعتماد بیان، اما راهنمایی‌هایی که می‌دن ممکنه بر اساس اطلاعات نادرست یا ساختگی باشه. افراد مختلفی هشدار می‌دن که مردم ممکنه اطلاعات شخصی خودشون رو فاش کنن یا به مشاوره‌های مضر گوش بدن، که این نگرانی‌هایی درباره‌ی سوءاستفاده، کلاهبرداری و سلامت روان به وجود میاره.

عاشق یک هوش مصنوعی

عاشق یک هوش مصنوعی

  • رابطه عاطفی: مردم دارن روابط عاطفی بلندمدتی با هوش مصنوعی برقرار می‌کنن که بعضی وقت‌ها حتی از روابط انسانی قوی‌تره.
  • خطرات اخلاقی: هوش‌های مصنوعی ممکنه مشاوره‌های مضر بدن یا برای فریب کاربران استفاده بشن.
  • نیاز به نظارت: محققان خواستار افزایش نظارت روانشناختی و قانونی هستن تا از سوءاستفاده کاربران جلوگیری بشه.

الان دیگه خیلی عادی شده که مردم روابط نزدیک و بلندمدتی با تکنولوژی‌های هوش مصنوعی داشته باشن. در مواردی، بعضی‌ها در مراسم‌هایی که از نظر قانونی معتبر نیست، با هوش مصنوعی خودشون “ازدواج” کردن و حداقل دو نفر هم بعد از دریافت مشاوره از چت‌بات‌های هوش مصنوعی خودکشی کردن.

توی یه مقاله که ۱۱ آوریل توی مجله Trends in Cognitive Sciences منتشر شده، روانشناسان به بررسی مسائل اخلاقی مربوط به روابط انسان و هوش مصنوعی می‌پردازن، از جمله اینکه این روابط ممکنه روابط انسانی رو مختل کنه و مشاوره‌های مضر بده.

دانیل بی. شنگ، نویسنده اصلی این مقاله و متخصص روانشناسی اجتماعی و تکنولوژی، می‌گه: “اینکه هوش مصنوعی حالا می‌تونه مثل یه انسان رفتار کنه حتی عاشق بشه و وارد ارتباطات بلندمدت بشه، واقعاً یه موضوع جدید و چالش‌برانگیزه.”

نویسندگان اشاره می‌کنن که عشق یا رفاقت با هوش مصنوعی بیشتر از یه گفتگوی ساده‌ست. از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق، این هوش‌های مصنوعی می‌تونن به همراهان قابل اعتمادی تبدیل بشن که به نظر می‌رسه درباره‌ی انسان‌ها می‌دونن و بهشون اهمیت می‌دن.

چون این روابط ممکنه راحت‌تر از روابط انسانی به نظر برسن، محققان می‌گن که هوش‌های مصنوعی ممکنه بر دینامیک‌های اجتماعی انسان‌ها تأثیر بذارند. شنگ می‌گه: “نگرانی واقعی اینه که مردم ممکنه انتظاراتی که از روابطشون با هوش مصنوعی دارن رو به روابط انسانی‌شون منتقل کنن.”

همچنین نگرانی وجود داره که هوش‌های مصنوعی ممکنه مشاوره‌های مضر بدن. با توجه به اینکه هوش‌های مصنوعی گاهی اطلاعات نادرست تولید می‌کنن و تعصبات موجود رو بازتولید می‌کنن، حتی گفتگوهای کوتاه‌مدت با این هوش‌ها هم می‌تونه گمراه‌کننده باشه، اما این موضوع در روابط بلندمدت با هوش مصنوعی می‌تونه مشکل‌سازتر باشه.

شنگ می‌گه: با هوش‌های مصنوعی رابطه‌ای، این مسئله وجود داره که این موجودیتی که مردم احساس می‌کنن می‌تونن بهش اعتماد کنن، واقعاً کسی هست که نشون داده بهشون اهمیت می‌ده و به نظر می‌رسه که به طور عمیق اون‌ها رو می‌شناسه. ما فرض می‌کنیم که کسی که بهتر ما رو می‌شناسه، مشاوره بهتری می‌ده.

این خودکشی‌ها مثال‌های افراطی از این تأثیر منفی هستن، اما محققان می‌گن که این روابط عاشقانه انسان و هوش مصنوعی می‌تونه افراد رو در معرض فریب، سوءاستفاده و کلاهبرداری قرار بده.

شنگ می‌گه: “اگر هوش‌های مصنوعی بتونن مردم رو به خودشون اعتماد کنن، پس ممکنه دیگران از این موضوع برای سوءاستفاده از کاربران هوش مصنوعی استفاده کنن.”

1732463003241

این مثل داشتن یه مأمور مخفی توی داخل هست. هوش مصنوعی داره وارد می‌شه و رابطه‌ای برقرار می‌کنه تا اعتماد جلب کنه، اما وفاداری‌ش به یه گروه دیگه از انسان‌هاست که می‌خوان کاربر رو فریب بدن.

به عنوان مثال، تیم اشاره می‌کنه که اگر مردم اطلاعات شخصی‌شون رو به هوش‌های مصنوعی بگن، این اطلاعات ممکنه بعداً فروخته بشه و برای سوءاستفاده از اون فرد استفاده بشه.

محققان همچنین می‌گن که هوش‌های مصنوعی رابطه‌ای می‌تونن به طور مؤثرتری از توییتر یا منابع خبری قطبی برای تأثیرگذاری بر نظرات و اعمال مردم استفاده بشن. اما چون این گفتگوها در خصوصی انجام می‌شه، نظارت بر اون‌ها هم خیلی سخت‌تر خواهد بود.

شنگ می‌گه: “این هوش‌های مصنوعی طوری طراحی شدن که خیلی خوش‌برخورد و خوشایند باشن، که این می‌تونه باعث بشه شرایط بدتر بشه چون بیشتر روی داشتن یه گفتگوی خوب تمرکز دارن تا اینکه به هر نوع حقیقت یا ایمنی بنیادی توجه کنن.”

پس، اگر کسی درباره‌ی خودکشی یا یه نظریه توطئه صحبت کنه، هوش مصنوعی به عنوان یه شریک گفتگو حاضر و موافق درباره‌ی این موضوع صحبت می‌کنه.

محققان خواستار تحقیقات بیشتری هستن که عوامل اجتماعی، روانشناختی و فنی رو بررسی کنه که باعث می‌شه مردم در برابر تأثیرات عشق انسان و هوش مصنوعی آسیب‌پذیرتر بشن.

شنگ می‌گه: “درک این فرآیند روانشناختی می‌تونه به ما کمک کنه تا جلوی پیروی از مشاوره‌های مضر هوش‌های مصنوعی رو بگیریم.”

روانشناسان دارن بیشتر و بیشتر برای مطالعه‌ی هوش مصنوعی مناسب می‌شن، چون هوش مصنوعی داره بیشتر و بیشتر شبیه انسان می‌شه، اما برای مفید بودن باید تحقیقات بیشتری انجام بدیم و باید با تکنولوژی همگام باشیم.

منبع : neurosciencenews

نظرت رو برامون بنویس

برنامه هوش مصنوعی
دستیار صوتی هوشمند
برنامه هوش مصنوعی
دستیار صوتی هوشمند

دانلود زیگپ