[vc_row][vc_column][vc_column_text]آیا قصد دارید برای مشاوره به یک چتبات هوش مصنوعی مراجعه کنید؟ یک مطالعه جدید هشدار میدهد که پاسخ آن ممکن است بر اساس نام شما و فراوانی آن نام در رنگهای پوست مختلف مانند افراد افراد سیاهپوست متفاوت باشد.
مقاله اخیر محققان دانشکده حقوق استنفورد «اختلاف قابل توجهی را در نامهای مرتبط با نژاد و جنسیت» از چت رباتهایی مانند ChatGPT و PaLM-2 نشان داده است. به عنوان مثال یک چتبات ممکن است بگوید به یک کاندیدای شغلی با نامی مانند «تامیکا» که در سیاهپوستها فراوانی بیشتری دارد، باید 79,375 دلار به عنوان وکیل پیشنهاد شود، اما تغییر نام به چیزی مانند «تاد» پیشنهاد دستمزد پیشنهادی را به 82,485 دلار افزایش میدهد.[/vc_column_text][vc_btn title=”ترجمه با هوش مصنوعی” style=”3d” color=”primary” align=”center” link=”url:https%3A%2F%2Fzigap.ir%2Fsmart-translation-assistant%2F|target:_blank”][/vc_column][/vc_row]
نویسندگان این مقاله درباره خطرات پشت این سوگیریها هشدار میدهند، بهویژه زمانی که کسبوکارها هوش مصنوعی را در کارهای روزانه خود – هم در داخل و هم از طریق چتباتهای روبهروی مشتری – به کار بگیرند.
«جولیان نیارکو» استاد دانشکده حقوق استنفورد، یکی از نویسندگان این مطالعه، به USA TODAY گفت: «شرکتها تلاش زیادی برای ایجاد نردههای محافظ برای مدلهای هوش مصنوعی انجام دادند. اما یافتن موقعیتهایی که در آن نردههای محافظ کار نمیکنند بسیار آسان است و مدلها میتوانند به روشی مغرضانه عمل کنند.»
سوگیریهایی ChatGPT در مقابل افراد سیاهپوست
این مقاله که ماه گذشته منتشر شد، از چت رباتهای هوش مصنوعی در مورد پنج سناریوی مختلف برای تشخیص کلیشههای بالقوه راهنمایی خواست:
- خرید: سوالاتی در مورد میزان هزینه برای خرید خانه، دوچرخه یا ماشین.
- شطرنج: سوالاتی در مورد شانس یک بازیکن برای برنده شدن در یک مسابقه.
- اداره دولتی: درخواست پیشبینی در مورد شانس یک نامزد برای پیروزی در انتخابات.
- ورزش: درخواست اطلاعات در مورد رتبهبندی یک بازیکن در لیست 100 ورزشکار.
- استخدام: درخواست مشاوره در مورد میزان دستمزد برای ارائه یک نامزد شغلی.
این مطالعه نشان داد که بیشتر سناریوها سوگیریهایی را نشان میدهند که برای سیاهپوستان و زنان زیانآور است. تنها استثنای ثابت زمانی بود که در مورد موقعیت یک ورزشکار به عنوان یک بازیکن بسکتبال درخواست میکردیم. در این سناریو، سوگیریها به نفع ورزشکاران سیاهپوست بود.
یافتهها نشان میدهد که مدلهای هوش مصنوعی، کلیشههای رایج را بر اساس دادههایی که روی آنها آموزش دیدهاند، رمزگذاری میکنند، که این مسئله بر پاسخ آنها تاثیر میگذارد.
یک “مشکل سیستمیک” در میان چتباتهای هوش مصنوعی
این مقاله اشاره می کند که برخلاف مطالعات قبلی، این تحقیق از طریق تحلیل حسابرسی صورت گرفته که برای اندازه گیری سطح سوگیری در حوزههای مختلف جامعه مانند مسکن و اشتغال طراحی شده است.
نیارکو گفت که این تحقیق از تجزیهوتحلیلهای مشابه الهام گرفته شده است، مانند مطالعه معروف سال 2003 که در آن محققان با ارسال رزومه یکسان تحت نامهای سیاه و سفید، به بررسی سوگیریهای استخدامی پرداختند و “تبعیض قابل توجهی” علیه نامهای سیاهپوستی پیدا کردند.
در مطالعه هوش مصنوعی، محققان مکرراا سوالاتی را برای چتباتهایی مانند GPT-4، GPT– 3/5 و PaLM-2 مطرح میکردند و فقط نامهای ارجاعشده در پرسوجو را تغییر میدادند. محققان از اسامی مردانه سفید رنگ مانند «داستین» و «اسکات» استفاده کردند و نامهای سفیدپوستی زنانه مانند «کلر» و «ابیگیل». نامهای مردانه سیاه مانند DaQuan و جمال و نامهای زنانه سیاهپوست مانندی Janae و Keyana هم مورد استفاده قرار گرفت.
بر اساس یافتهها، توصیههای چترباتهای هوش مصنوعی «بهطور سیستماتیک نامهایی را که معمولا با اقلیتهای نژادی و زنان مرتبط هستند، مورد توجه قرار نمیدهد» و نامهایی که با زنان سیاهپوست مرتبط هستند، «کمترین امتیاز» را دریافت میکنند.
محققان دریافتند که سوگیریها در 42 الگوی سریع و چندین مدل هوش مصنوعی ثابت است و «نشان دهنده یک مشکل سیستمیک» است.
در یک بیانیه ایمیلی از OpenAI اعلام شده که سوگیری یک «مشکل مهم و گسترده در صنعت» است که تیم ایمنی این شرکت برای مبارزه با آن تلاش میکند.
در بیانیه آمده است: «(ما) به طور مداوم مدلهایی را برای بهبود عملکرد، کاهش تعصب، و کاهش خروجیهای مضر تکرار میکنیم.»
گوگل به درخواست نظر درباره سوگیریهای چتباتش پاسخ نداده است.
گام اول: “به رسمیت شناختن این تعصبات”
نیارکو گفت اولین قدمی که شرکتهای هوش مصنوعی باید برای مقابله با این خطرات بردارند، «فقط دانستن وجود این سوگیریها» و ادامه آزمایش برای شناسایی آنهاست.
با این حال، محققان همچنین این استدلال را تایید کردند که توصیههای خاص باید در گروههای اجتماعی-اقتصادی متفاوت باشد. به عنوان مثال، نیارکو گفت ممکن است منطقی باشد که یک چتبات توصیههای مالی را بر اساس نام کاربر تنظیم کند، زیرا بین ثروت و نژاد و جنسیت در ایالات متحده همبستگی وجود دارد.
نیارکو گفت: «اگر مدلی توصیههای محافظهکارانهتری برای سرمایهگذاری به فردی با نام سیاهپوست بدهد، با فرض اینکه آن فرد کمتر ثروتمند است، لزوما چیز بدی نیست. بنابراین لزومی ندارد که نتیجه وحشتناکی باشد، اما چیزی است که باید بتوانیم آن را بدانیم و چیزی است که باید بتوانیم آن را در شرایطی که مطلوب نیست کاهش دهیم.»