کارمندان شرکت‌های هوش مصنوعی

هشدار کارمندان شرکت‌های هوش مصنوعی درباره خطرات این فناوری

سرفصل‌های مقاله

گروهی از کارمندان فعلی و سابق شرکت‌های هوش مصنوعی روز سه‌شنبه نامه‌ای سرگشاده منتشر کردند که در آن نسبت به عدم نظارت بر ایمنی در صنعت هشدار دادند و خواستار افزایش حمایت‌ها از افشاگران شدند.

این نامه که خواستار «حق هشدار در مورد هوش مصنوعی» است، یکی از عمومی‌ترین بیانیه‌ها درباره خطرات هوش مصنوعی از سوی کارمندانی است که در صنعتی تقریبا مخفی مشغول به کار هستند.

 یازده کارمند فعلی و سابق OpenAI به همراه دو کارمند فعلی یا سابق Google DeepMind که یکی از آن‌ها قبلا در Anthropic کار می‌کرده، نامه را امضا کرده‌اند.

در این نامه آمده است: «شرکت‌های هوش مصنوعی اطلاعات غیرعمومی قابل توجهی در مورد قابلیت‌ها و محدودیت‌های سیستم‌های خود، کفایت اقدامات حفاظتی و سطوح خطر انواع مختلف آسیب‌ها دارند. با این حال، آن‌ها در حال حاضر تنها تعهدات ضعیفی برای به اشتراک گذاشتن برخی از این اطلاعات با دولت‌ها دارند و هیچ‌کدام به جامعه مدنی پاسخ‌گو نیستند. ما فکر نمی‌کنیم که بتوان به همه این شرکت‌ها برای به اشتراک گذاشتن داوطلبانه اطلاعات اعتماد کرد.»

هشدار کارمندان شرکت‌های هوش مصنوعی

شرکت‌های هوش مصنوعی

OpenAI در بیانیه‌ای از اقدامات خود دفاع کرد و گفت که راه‌هایی مانند خطوط راهنمایی برای گزارش مشکلات در شرکت دارد و تا زمانی که اقدامات حفاظتی مناسب وجود نداشته باشد، فناوری جدیدی را منتشر نمی‌کند. گوگل بلافاصله به درخواست نظر پاسخ نداد.

یکی از سخن‌گویان OpenAI در این باره گفت: « ما به سابقه خود در ارائه تواناترین و ایمن‌ترین سیستم‌های هوش مصنوعی افتخار می‌کنیم و به رویکرد علمی خود برای مقابله با ریسک اعتقاد داریم. ما موافقیم که بحث دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به تعامل با دولت‌ها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد.»

نگرانی در مورد مضرات بالقوه هوش مصنوعی دهه‌هاست که وجود داشته است، اما رونق هوش مصنوعی در سال‌های اخیر این ترس‌ها را تشدید کرده و قانون‌گذاران را در تلاش برای عقب نماندن از پیشرفت‌های فناوری قرار داده است. 

در حالی که شرکت‌های هوش مصنوعی تعهد خود را برای توسعه ایمن این فناوری اعلام کرده‌اند، محققان و کارمندان درباره عدم نظارت هشدار داده‌اند، زیرا ابزارهای هوش مصنوعی آسیب‌های اجتماعی موجود را تشدید یا آسیب‌های کاملا جدید ایجاد می‌کنند.

نامه کارمندان فعلی و سابق شرکت‌های هوش مصنوعی که اولین بار توسط نیویورک تایمز گزارش شد، خواستار افزایش حمایت از کارمندان شرکت‌های پیشرفته هوش مصنوعی است که تصمیم دارند نگرانی‌های ایمنی را بیان کنند. 

این سازمان خواستار تعهد به چهار اصل در مورد شفافیت و مسئولیت‌پذیری است، از جمله شرطی که شرکت‌ها کارکنان را مجبور به امضای توافق‌نامه‌های غیر تحقیرآمیز که پخش موضوعات مرتبط با خطر هوش مصنوعی را ممنوع می‌کند و مکانیسمی برای کارمندان برای در میان گذاشتن نگرانی‌های خود به صورت ناشناس با اعضای هیئت‌مدیره.

در این نامه آمده است: «تا زمانی که نظارت موثر دولت بر این شرکت‌ها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که می‌توانند آن‌ها را در برابر مردم پاسخگو کنند. با این حال، توافق‌نامه‌های محرمانگی گسترده، ما را از ابراز نگرانی‌های‌مان باز می‌دارند.»

شرکت‌هایی مانند OpenAI همچنین تاکتیک‌های تهاجمی را برای جلوگیری از صحبت آزادانه کارمندان در مورد کار خود دنبال کرده‌اند، به طوری که Vox هفته گذشته گزارش داد که OpenAI کارمندانی را که شرکت را ترک می‌کنند مجبور می‌کند اسناد بسیار محدودکننده‌ای را امضا کنند که شامل مواردی مانند عدم تحقیر و عدم افشا می‌شود و ممکن است تمام دارایی خود را از دست بدهند. 

سم آلتمن، مدیر عامل OpenAI، پس از انتشار این گزارش عذرخواهی کرد و گفت که رویه‌های خارج از عرف و قوانین را تغییر خواهد داد.

این نامه پس از آن منتشر شد که دو کارمند ارشد OpenAI، یکی از بنیان‌گذاران شرکت به نام «ایلیا سوستکور» و محقق اصلی ایمنی به نام «جن لایک»، ماه گذشته از شرکت استعفا دادند.

منبع : cyprus-mail

مهران
مهران