به موازات استفاده فزاینده از ابزارهای هوش مصنوعی برای استخدام نیرو و تشخیص بهترین متقاضیان کار، بسیاری از متقاضیان کار مجرب و متخصص توسط این فرایند حذف شدهاند.
تجزیهوتحلیل زبان بدن، ارزیابیهای صوتی، شده بررسی خودکار رزومه… اینها برخی از قابلیتهایی هوش مصنوعی هستند که شرکتها از آن برای غربالگری کاندیداهای استخدام استفاده میکنند. متقاضیان کار با این درخواستهای ماشینی مواجه میشوند و این هوش مصنوعی است تصمیم میگیرد که آیا آنها مناسب موقعیت شغلی هستند یا نه.
خطر هوش مصنوعی برای متقاضیان کار
کسبوکارها برای فرایند استخدام، به طور فزایندهای به ابزارهای هوش مصنوعی متکی هستند. نظرسنجی اواخر سال گذشته میلادی توسط IBM از بیش از 8500 متخصص فناوری اطلاعات جهانی نشان داد که 42 درصد از شرکتها از غربالگری هوش مصنوعی «برای بهبود استخدام و منابع انسانی» استفاده میکنند. 40 درصد دیگر از پاسخدهندگان نیز به فکر ادغام این فناوری بودند.
بسیاری از رهبران در سراسر جهان امیدوار بودند که فناوری استخدام هوش مصنوعی به سوگیریها در فرایند استخدام پایان دهد. اما در برخی موارد برعکس این اتفاق میافتد.
برخی از کارشناسان میگویند که این ابزارها برخی از واجد شرایطترین متقاضیان شغل را به طور نادرست بررسی میکنند، و نگرانیها در حال افزایش است که نرمافزار ممکن است بهترین نامزدها را به دلایل ناخوشایندی از فرایند استخدام حذف کند.
«هیلکه شلمان» نویسنده آمریکایی کتاب «الگوریتم: چگونه هوش مصنوعی میتواند شغل شما را ربوده و آیندهتان را بدزدد» میگوید: «ما شواهد زیادی مبنی بر عدم وجود سوگیری و تعصب ندیدهایم… یا شواهدی ندیدهایم که ابزار هوش مصنوعی، واجد شرایطترین نامزدها را انتخاب میکند. او معتقد است که آنطور که اغلب مردم میترسند، بزرگترین خطری که هوش مصنوعی برای مشاغل ایجاد میکند این نیست که ماشینها در جایگاه کارمندان قرار میگیرند؛ خطر بزرگتر این است که نگذارد انسانها به جایگاهی که استحقاقش را دارند برسند.
ضررهای ناگفته هوش مصنوعی
برخی از کاندیداهای شغلی واجد شرایط، قبلا خود را در تضاد با این پلتفرمهای استخدام یافتهاند.
در یکی از موارد مطرح در سال 2020، یک میکاپآرتیست مستقر در بریتانیا گفت که شرکتش به او گفته است که پس از تعدیل شدن در دوران پاندمی کرونا، دوباره برای نقش خود درخواست دهد.
او هم بر اساس عملکرد گذشته و هم از طریق یک برنامه غربالگری هوش مصنوعی، HireVue مورد ارزیابی قرار گرفت. او میگوید که در ارزیابی مهارتها رتبه خوبی کسب کرده است، اما پس از اینکه ابزار هوش مصنوعی امتیاز ضعیفی به زبان بدن او داد، برای همیشه از کار بیکار شد.
HireVue که شرکت مورد بحث است، گزینه تجزیهوتحلیل چهره خود را در سال 2021 حذف کرد. شلمان میگوید سایر کارمندان نیز شکایتهایی را علیه سیستمعاملهای مشابه ارائه کردهاند.
شلمان اضافه میکند که کاندیداهای شغلی به ندرت میدانند که آیا این ابزارها تنها دلیلی هستند که شرکتها آنها را رد میکنند یا خیر؛ به طور کلی، این نرمافزار به کاربران نمیگوید چگونه ارزیابی شدهاند. با این حال، او میگوید که نمونههای آشکار بسیاری از نقصهای سیستمی وجود دارد.
در یکی از موارد، یکی از کاربرانی که به دلیل سنش در مصاحبه رد شده بود، این بار تاریخ تولدش را هنگام وارد کردن مشخصات داخل نرمافزار تغییر داد و توانست سیستم را فریب دهد.
در شرکتی دیگر، یک غربالگر رزومه هوش مصنوعی در مورد رزومههای کارمندانی که قبلا در شرکت بودند آموزش دیده بود، به افرادی که «بیسبال» و «بسکتبال» جزء علایقشان بود امتیاز بیشتری و به خانمها که به ورزش «سافتبال» علاقه داشتند نمره کمتری میداد!
به گفته شلمان در این نوع از ارزیابیها، گروههای بهحاشیه راندهشده معمولا حذف میشوند؛ چرا که به دلیل شرایط سخت زندگی، تفریحات متفاوتی داشتهاند که در سیستم امتیازدهی هوش مصنوعی امتیاز بالایی نمیگیرد.
در برخی موارد، معیارهای انتخاب مغرضانه روشن است – مانند سنگرایی یا جنسیت – اما در برخی دیگر، مبهم است.
شلمان در تحقیقات خود برای یک کار در یک مرکز تماس درخواست داد تا توسط هوش مصنوعی غربالگری شود. سپس از طرف کارفرما وارد سیستم شد. او در مصاحبه با وجود اینکه بسیار بد آلمانی صحبت میکرد، رتبه بالایی را دریافت کرده بود، اما برای پروفایل لینکدینش که سرشار از امتیازات حرفهای مثبت بود، نمره ضعیفی گرفت.
او نگران است که به موازات پیشرفت فناوری هوش مصنوعی، اثرات منفی نیز گسترش یابد. شلمان میگوید: «یک مدیر استخدام نیروی انسانی مغرض میتواند در یک سال به افراد زیادی آسیب برساند، و این عالی نیست. اما الگوریتمی که ممکن است در تمام برنامه های کاربردی ورودی در یک شرکت بزرگ استفاده شود؛ میتواند به صدها هزار متقاضی آسیب برساند.»
او توضیح میدهد: «مشکل [این است] که هیچکس دقیقا نمیداند نقطه آسیب کجاست. و با توجه به اینکه شرکتها با جایگزینی کارکنان منابع انسانی با هوش مصنوعی – که میتواند انبوهی از رزومهها را در کسری از زمان پردازش کند – در هزینههای خود صرفهجویی کردهاند، او معتقد است که شرکتها ممکن است انگیزه کمی برای بازجویی از پیچیدگیهای دستگاه داشته باشند.
یک نگرانی دیگرانی شلمان این است که شرکتهای نرمافزارهای غربالگری، محصولات توسعهنیافته و حتی ناقص را به سمت بازار میآورند تا در صورت تقاضا پول نقد دریافت کنند.
این فروشندگان قرار نیست علنی بیرون بیایند و بگویند ابزار ما کار نکرده یا برای مردم مضر بوده است! و شرکتهایی که از آنها استفاده کردهاند نیز میترسند در صورت اعتراف به وجود نقص در نرمافزار، هزاران شکایت علیه آنها تنظیم شود.
«ساندرا واچتر» استاد فناوری و مقررات در موسسه اینترنت دانشگاه آکسفورد، میگوید: «دریافت درست این فناوری مهم است.»
او میگوید: «داشتن هوش مصنوعی بیطرفانه و منصفانه نه تنها کاری ضروری اخلاقی و قانونی است، بلکه چیزی است که یک شرکت را سودآورتر میکند. فرصت بسیار روشنی وجود دارد تا اجازه دهیم هوش مصنوعی به گونهای اعمال شود تا تصمیمات عادلانهتر و منصفانهتری اتخاذ کند که بر اساس شایستگی باشد و همچنین سود شرکت را افزایش دهد.»
واچتر در تلاش است تا به شرکتها کمک کند سوگیری را از طریق ایجاد مشترک آزمون اختلاف جمعیتی مشروط شناسایی کنند، از زمان توسعه آن در سال 2020 و استفاده از آن توسط آمازون و IBM، ابزاری در دسترس عموم است که “به عنوان یک سیستم هشدار عمل میکند که اگر الگوریتم شما مغرضانه باشد به شما اطلاع میدهد. سپس این فرصت را به شما میدهد تا بفهمید کدام یک معیارهای تصمیم گیری [استخدام] باعث این نابرابری می شود و به شما امکان می دهد تنظیماتی را انجام دهید تا سیستم خود را منصفانهتر و دقیقتر کنید.”
در همین حال شلمان خواستار «ایمنی و مقررات» در سطح صنعت از سوی دولتها یا سازمانهای غیرانتفاعی است تا اطمینان حاصل شود که مشکلات کنونی پابرجا نیستند. اگر اکنون مداخلهای صورت نگیرد، او میترسد که هوش مصنوعی بتواند محیط کار آینده را نابرابرتر از قبل کند.