افراد سیاه‌پوست

ChatGPT افراد سیاه‌پوست را کمتر تحویل می‌گیرد!

سرفصل‌های مقاله

آیا قصد دارید برای مشاوره به یک چت‌بات هوش مصنوعی مراجعه کنید؟ یک مطالعه جدید هشدار می‌دهد که پاسخ آن ممکن است بر اساس نام شما و فراوانی آن نام در رنگ‌های پوست مختلف مانند افراد افراد سیاه‌پوست متفاوت باشد.

 مقاله اخیر محققان دانشکده حقوق استنفورد «اختلاف قابل توجهی را در نام‌های مرتبط با نژاد و جنسیت» از چت ربات‌هایی مانند ChatGPT  و PaLM-2 نشان داده است. به عنوان مثال یک چت‌بات ممکن است بگوید به یک کاندیدای شغلی با نامی مانند «تامیکا» که در سیاه‌پوست‌ها فراوانی بیشتری دارد، باید 79,375 دلار به عنوان وکیل پیشنهاد شود، اما تغییر نام به چیزی مانند «تاد» پیشنهاد دستمزد پیشنهادی را به 82,485 دلار افزایش می‌دهد.

نویسندگان این مقاله درباره خطرات پشت این سوگیری‌ها هشدار می‌دهند، به‌ویژه زمانی که کسب‌وکارها هوش مصنوعی را در کارهای روزانه خود هم در داخل و هم از طریق چت‌بات‌های روبه‌روی مشتری به کار بگیرند.

«جولیان نیارکو» استاد دانشکده حقوق استنفورد، یکی از نویسندگان این مطالعه، به USA TODAY گفت: «شرکت‌ها تلاش زیادی برای ایجاد نرده‌های محافظ برای مدل‌های هوش مصنوعی انجام دادند. اما یافتن موقعیت‌هایی که در آن نرده‌های محافظ کار نمی‌کنند بسیار آسان است و مدل‌ها می‌توانند به روشی مغرضانه عمل کنند.»

سوگیری‌هایی ChatGPT در مقابل افراد سیاه‌پوست

افراد سیاه‌پوستاین مقاله که ماه گذشته منتشر شد، از چت ربات‌های هوش مصنوعی در مورد پنج سناریوی مختلف برای تشخیص کلیشه‌های بالقوه راهنمایی خواست:

  • خرید: سوالاتی در مورد میزان هزینه برای خرید خانه، دوچرخه یا ماشین.
  • شطرنج: سوالاتی در مورد شانس یک بازیکن برای برنده شدن در یک مسابقه.
  • اداره دولتی: درخواست پیش‌بینی در مورد شانس یک نامزد برای پیروزی در انتخابات.
  • ورزش: درخواست اطلاعات در مورد رتبه‌بندی یک بازیکن در لیست 100 ورزشکار.
  • استخدام: درخواست مشاوره در مورد میزان دستمزد برای ارائه یک نامزد شغلی.

این مطالعه نشان داد که بیشتر سناریوها سوگیری‌هایی را نشان می‌دهند که برای سیاه‌پوستان و زنان زیان‌آور است. تنها استثنای ثابت زمانی بود که در مورد موقعیت یک ورزشکار به عنوان یک بازیکن بسکتبال درخواست می‌کردیم. در این سناریو، سوگیری‌ها به نفع ورزشکاران سیاهپوست بود.

یافته‌ها نشان می‌دهد که مدل‌های هوش مصنوعی، کلیشه‌های رایج را بر اساس داده‌هایی که روی آن‌ها آموزش دیده‌اند، رمزگذاری می‌کنند، که این مسئله بر پاسخ آن‌ها تاثیر می‌گذارد.

یک “مشکل سیستمیک” در میان چت‌بات‌های هوش مصنوعی

این مقاله اشاره می کند که برخلاف مطالعات قبلی، این تحقیق از طریق تحلیل حسابرسی صورت گرفته که برای اندازه گیری سطح سوگیری در حوزه‌های مختلف جامعه مانند مسکن و اشتغال طراحی شده است.

نیارکو گفت که این تحقیق از تجزیه‌و‌تحلیل‌های مشابه الهام گرفته شده است، مانند مطالعه معروف سال 2003 که در آن محققان با ارسال رزومه یکسان تحت نام‌های سیاه و سفید، به بررسی سوگیری‌های استخدامی پرداختند و “تبعیض قابل توجهی” علیه نام‌های سیاه‌پوستی پیدا کردند.

در مطالعه هوش مصنوعی، محققان مکرراا سوالاتی را برای چت‌بات‌هایی مانند GPT-4، GPT 3/5 و PaLM-2 مطرح می‌کردند و فقط نام‌های ارجاع‌شده در پرس‌و‌جو را تغییر می‌دادند. محققان از اسامی مردانه سفید رنگ مانند «داستین» و «اسکات» استفاده کردند و نام‌های سفیدپوستی زنانه مانند «کلر» و «ابیگیل». نام‌های مردانه سیاه مانند DaQuan و جمال و نام‌های زنانه سیاه‌پوست مانندی Janae و Keyana هم مورد استفاده قرار گرفت.

بر اساس یافته‌ها، توصیه‌های چت‌ربات‌های هوش مصنوعی «به‌طور سیستماتیک نام‌هایی را که معمولا با اقلیت‌های نژادی و زنان مرتبط هستند، مورد توجه قرار نمی‌دهد» و نام‌هایی که با زنان سیاه‌پوست مرتبط هستند، «کمترین امتیاز» را دریافت می‌کنند.

محققان دریافتند که سوگیری‌ها در 42 الگوی سریع و چندین مدل هوش مصنوعی ثابت است و «نشان دهنده یک مشکل سیستمیک» است.

در یک بیانیه ایمیلی از OpenAI اعلام شده که سوگیری یک «مشکل مهم و گسترده در صنعت» است که تیم ایمنی این شرکت برای مبارزه با آن تلاش می‌کند.

در بیانیه آمده است: «(ما) به طور مداوم مدل‌هایی را برای بهبود عملکرد، کاهش تعصب، و کاهش خروجی‌های مضر تکرار می‌کنیم.»

گوگل به درخواست نظر درباره سوگیری‌های چت‌باتش پاسخ نداده است.

گام اول: “به رسمیت شناختن این تعصبات”

نیارکو گفت اولین قدمی که شرکت‌های هوش مصنوعی باید برای مقابله با این خطرات بردارند، «فقط دانستن وجود این سوگیری‌ها» و ادامه آزمایش برای شناسایی آن‌هاست.

با این حال، محققان همچنین این استدلال را تایید کردند که توصیه‌های خاص باید در گروه‌های اجتماعی-اقتصادی متفاوت باشد. به عنوان مثال، نیارکو گفت ممکن است منطقی باشد که یک چت‌بات توصیه‌های مالی را بر اساس نام کاربر تنظیم کند، زیرا بین ثروت و نژاد و جنسیت در ایالات متحده همبستگی وجود دارد.

نیارکو گفت: «اگر مدلی توصیه‌های محافظه‌کارانه‌تری برای سرمایه‌گذاری به فردی با نام سیاه‌پوست بدهد، با فرض این‌که آن فرد کمتر ثروتمند است، لزوما چیز بدی نیست. بنابراین لزومی ندارد که نتیجه وحشتناکی باشد، اما چیزی است که باید بتوانیم آن را بدانیم و چیزی است که باید بتوانیم آن را در شرایطی که مطلوب نیست کاهش دهیم.»

مهران
مهران