متقاضیان کار

خطر ابزارهای استخدام هوش مصنوعی برای متقاضیان کار

سرفصل‌های مقاله

به موازات استفاده فزاینده از ابزارهای هوش مصنوعی برای استخدام نیرو و تشخیص بهترین متقاضیان کار، بسیاری از متقاضیان کار مجرب و متخصص توسط این فرایند حذف شده‌اند.

تجزیه‌و‌تحلیل زبان بدن، ارزیابی‌های صوتی، شده بررسی خودکار رزومه… این‌ها برخی از قابلیت‌هایی هوش مصنوعی هستند که شرکت‌ها از آن برای غربالگری کاندیداهای استخدام استفاده می‌کنند. متقاضیان کار با این درخواست‌های ماشینی مواجه می‌شوند و این هوش مصنوعی است تصمیم می‌گیرد که آیا آن‌ها مناسب موقعیت شغلی هستند یا نه.

خطر هوش مصنوعی برای متقاضیان کار

متقاضیان کار

کسب‌و‌کارها برای فرایند استخدام، به طور فزاینده‌ای به ابزارهای هوش مصنوعی متکی هستند. نظرسنجی اواخر سال گذشته میلادی توسط IBM از بیش از 8500 متخصص فناوری اطلاعات جهانی نشان داد که 42 درصد از شرکت‌ها از غربالگری هوش مصنوعی «برای بهبود استخدام و منابع انسانی» استفاده می‌کنند. 40 درصد دیگر از پاسخ‌دهندگان نیز به فکر ادغام این فناوری بودند.

بسیاری از رهبران در سراسر جهان امیدوار بودند که فناوری استخدام هوش مصنوعی به سوگیری‌ها در فرایند استخدام پایان دهد. اما در برخی موارد برعکس این اتفاق می‌افتد. 

برخی از کارشناسان می‌گویند که این ابزارها برخی از واجد شرایط‌ترین متقاضیان شغل را به طور نادرست بررسی می‌کنند، و نگرانی‌ها در حال افزایش است که نرم‌افزار ممکن است بهترین نامزدها را به دلایل ناخوشایندی از فرایند استخدام حذف کند.

«هیلکه شلمان» نویسنده آمریکایی کتاب «الگوریتم: چگونه هوش مصنوعی می‌تواند شغل شما را ربوده و آینده‌تان را بدزدد» می‌گوید: «ما شواهد زیادی مبنی بر عدم وجود سوگیری و تعصب ندیده‌ایم… یا شواهدی ندیده‌ایم که ابزار هوش مصنوعی، واجد شرایط‌ترین نامزدها را انتخاب می‌کند. او معتقد است که آن‌طور که اغلب مردم می‌ترسند، بزرگ‌ترین خطری که هوش مصنوعی برای مشاغل ایجاد می‌کند این نیست که ماشین‌ها در جایگاه کارمندان قرار می‌گیرند؛ خطر بزرگ‌تر این است که نگذارد انسان‌ها به جایگاهی که استحقاقش را دارند برسند.

ضررهای ناگفته هوش مصنوعی

برخی از کاندیداهای شغلی واجد شرایط، قبلا خود را در تضاد با این پلتفرم‌های استخدام یافته‌اند.

در یکی از موارد مطرح در سال 2020، یک میکاپ‌آرتیست مستقر در بریتانیا گفت که شرکتش به او گفته است که پس از تعدیل شدن در دوران پاندمی کرونا، دوباره برای نقش خود درخواست دهد. 

او هم بر اساس عملکرد گذشته و هم از طریق یک برنامه غربالگری هوش مصنوعی، HireVue مورد ارزیابی قرار گرفت. او می‌گوید که در ارزیابی مهارت‌ها رتبه خوبی کسب کرده است، اما پس از این‌که ابزار هوش مصنوعی امتیاز ضعیفی به زبان بدن او داد، برای همیشه از کار بیکار شد.

HireVue که شرکت مورد بحث است، گزینه تجزیه‌و‌تحلیل چهره خود را در سال 2021 حذف کرد. شلمان می‌گوید سایر کارمندان نیز شکایت‌هایی را علیه سیستم‌عامل‌های مشابه ارائه کرده‌اند.

شلمان اضافه می‌کند که کاندیداهای شغلی به ندرت می‌دانند که آیا این ابزارها تنها دلیلی هستند که شرکت‌ها آن‌ها را رد می‌کنند یا خیر؛ به طور کلی، این نرم‌افزار به کاربران نمی‌گوید چگونه ارزیابی شده‌اند. با این حال، او می‌گوید که نمونه‌های آشکار بسیاری از نقص‌های سیستمی وجود دارد.

در یکی از موارد، یکی از کاربرانی که به دلیل سنش در مصاحبه رد شده بود، این بار تاریخ تولدش را هنگام وارد کردن مشخصات داخل نرم‌افزار تغییر داد و توانست سیستم را فریب دهد.

 در شرکتی دیگر، یک غربالگر رزومه هوش مصنوعی در مورد رزومه‌های کارمندانی که قبلا در شرکت بودند آموزش دیده بود، به افرادی که «بیسبال» و «بسکتبال» جزء علایق‌شان بود امتیاز بیشتری و به خانم‌ها که به ورزش «سافت‌بال» علاقه داشتند نمره کمتری می‌داد!

به گفته شلمان در این نوع از ارزیابی‌ها، گروه‌های به‌حاشیه رانده‌شده معمولا حذف می‌شوند؛ چرا که به دلیل شرایط سخت زندگی، تفریحات متفاوتی داشته‌اند که در سیستم امتیازدهی هوش مصنوعی امتیاز بالایی نمی‌گیرد.

در برخی موارد، معیارهای انتخاب مغرضانه روشن است – مانند سن‌گرایی یا جنسیت – اما در برخی دیگر، مبهم است. 

شلمان در تحقیقات خود برای یک کار در یک مرکز تماس درخواست داد تا توسط هوش مصنوعی غربالگری شود. سپس از طرف کارفرما وارد سیستم شد. او در مصاحبه با وجود این‌که بسیار بد آلمانی صحبت می‌کرد، رتبه بالایی را دریافت کرده بود، اما برای پروفایل لینکدینش که سرشار از امتیازات حرفه‌ای مثبت بود، نمره ضعیفی گرفت.

او نگران است که به موازات پیشرفت فناوری هوش مصنوعی، اثرات منفی نیز گسترش یابد. شلمان می‌گوید: «یک مدیر استخدام نیروی انسانی مغرض می‌تواند در یک سال به افراد زیادی آسیب برساند، و این عالی نیست. اما الگوریتمی که ممکن است در تمام برنامه های کاربردی ورودی در یک شرکت بزرگ استفاده شود؛ می‌تواند به صدها هزار متقاضی آسیب برساند.»

او توضیح می‌دهد: «مشکل [این است] که هیچ‌کس دقیقا نمی‌داند نقطه آسیب کجاست. و با توجه به این‌که شرکت‌ها با جایگزینی کارکنان منابع انسانی با هوش مصنوعی – که می‌تواند انبوهی از رزومه‌ها را در کسری از زمان پردازش کند – در هزینه‌های خود صرفه‌جویی کرده‌اند، او معتقد است که شرکت‌ها ممکن است انگیزه کمی برای بازجویی از پیچیدگی‌های دستگاه داشته باشند.

یک نگرانی دیگرانی شلمان این است که شرکت‌های نرم‌افزارهای غربالگری، محصولات توسعه‌نیافته و حتی ناقص را به سمت بازار می‌آورند تا در صورت تقاضا پول نقد دریافت کنند. 

این فروشندگان قرار نیست علنی بیرون بیایند و بگویند ابزار ما کار نکرده یا برای مردم مضر بوده است! و شرکت‌هایی که از آن‌ها استفاده کرده‌اند نیز می‌ترسند در صورت اعتراف به وجود نقص در نرم‌افزار، هزاران شکایت علیه آن‌ها تنظیم شود.

«ساندرا واچتر» استاد فناوری و مقررات در موسسه اینترنت دانشگاه آکسفورد، می‌گوید: «دریافت درست این فناوری مهم است.»

او می‌گوید: «داشتن هوش مصنوعی بی‌طرفانه و منصفانه نه تنها کاری ضروری اخلاقی و قانونی است، بلکه چیزی است که یک شرکت را سودآورتر می‌کند. فرصت بسیار روشنی وجود دارد تا اجازه دهیم هوش مصنوعی به گونه‌ای اعمال شود تا تصمیمات عادلانه‌تر و منصفانه‌تری اتخاذ کند که بر اساس شایستگی باشد و همچنین سود شرکت را افزایش دهد.»

واچتر در تلاش است تا به شرکت‌ها کمک کند سوگیری را از طریق ایجاد مشترک آزمون اختلاف جمعیتی مشروط شناسایی کنند، از زمان توسعه آن در سال 2020 و استفاده از آن توسط آمازون و IBM، ابزاری در دسترس عموم است که “به عنوان یک سیستم هشدار عمل می‌کند که اگر الگوریتم شما مغرضانه باشد به شما اطلاع می‌دهد. سپس این فرصت را به شما می‌دهد تا بفهمید کدام یک معیارهای تصمیم گیری [استخدام] باعث این نابرابری می شود و به شما امکان می دهد تنظیماتی را انجام دهید تا سیستم خود را منصفانه‌تر و دقیق‌تر کنید.” 

در همین حال شلمان خواستار «ایمنی و مقررات» در سطح صنعت از سوی دولت‌ها یا سازمان‌های غیرانتفاعی است تا اطمینان حاصل شود که مشکلات کنونی پابرجا نیستند. اگر اکنون مداخله‌ای صورت نگیرد، او می‌ترسد که هوش مصنوعی بتواند محیط کار آینده را نابرابرتر از قبل کند.

مهران
مهران