گروهی از کارمندان فعلی و سابق شرکتهای هوش مصنوعی روز سهشنبه نامهای سرگشاده منتشر کردند که در آن نسبت به عدم نظارت بر ایمنی در صنعت هشدار دادند و خواستار افزایش حمایتها از افشاگران شدند.
این نامه که خواستار «حق هشدار در مورد هوش مصنوعی» است، یکی از عمومیترین بیانیهها درباره خطرات هوش مصنوعی از سوی کارمندانی است که در صنعتی تقریبا مخفی مشغول به کار هستند.
یازده کارمند فعلی و سابق OpenAI به همراه دو کارمند فعلی یا سابق Google DeepMind که یکی از آنها قبلا در Anthropic کار میکرده، نامه را امضا کردهاند.
در این نامه آمده است: «شرکتهای هوش مصنوعی اطلاعات غیرعمومی قابل توجهی در مورد قابلیتها و محدودیتهای سیستمهای خود، کفایت اقدامات حفاظتی و سطوح خطر انواع مختلف آسیبها دارند. با این حال، آنها در حال حاضر تنها تعهدات ضعیفی برای به اشتراک گذاشتن برخی از این اطلاعات با دولتها دارند و هیچکدام به جامعه مدنی پاسخگو نیستند. ما فکر نمیکنیم که بتوان به همه این شرکتها برای به اشتراک گذاشتن داوطلبانه اطلاعات اعتماد کرد.»
هشدار کارمندان شرکتهای هوش مصنوعی
OpenAI در بیانیهای از اقدامات خود دفاع کرد و گفت که راههایی مانند خطوط راهنمایی برای گزارش مشکلات در شرکت دارد و تا زمانی که اقدامات حفاظتی مناسب وجود نداشته باشد، فناوری جدیدی را منتشر نمیکند. گوگل بلافاصله به درخواست نظر پاسخ نداد.
یکی از سخنگویان OpenAI در این باره گفت: « ما به سابقه خود در ارائه تواناترین و ایمنترین سیستمهای هوش مصنوعی افتخار میکنیم و به رویکرد علمی خود برای مقابله با ریسک اعتقاد داریم. ما موافقیم که بحث دقیق با توجه به اهمیت این فناوری بسیار مهم است و ما به تعامل با دولتها، جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد.»
نگرانی در مورد مضرات بالقوه هوش مصنوعی دهههاست که وجود داشته است، اما رونق هوش مصنوعی در سالهای اخیر این ترسها را تشدید کرده و قانونگذاران را در تلاش برای عقب نماندن از پیشرفتهای فناوری قرار داده است.
در حالی که شرکتهای هوش مصنوعی تعهد خود را برای توسعه ایمن این فناوری اعلام کردهاند، محققان و کارمندان درباره عدم نظارت هشدار دادهاند، زیرا ابزارهای هوش مصنوعی آسیبهای اجتماعی موجود را تشدید یا آسیبهای کاملا جدید ایجاد میکنند.
نامه کارمندان فعلی و سابق شرکتهای هوش مصنوعی که اولین بار توسط نیویورک تایمز گزارش شد، خواستار افزایش حمایت از کارمندان شرکتهای پیشرفته هوش مصنوعی است که تصمیم دارند نگرانیهای ایمنی را بیان کنند.
این سازمان خواستار تعهد به چهار اصل در مورد شفافیت و مسئولیتپذیری است، از جمله شرطی که شرکتها کارکنان را مجبور به امضای توافقنامههای غیر تحقیرآمیز که پخش موضوعات مرتبط با خطر هوش مصنوعی را ممنوع میکند و مکانیسمی برای کارمندان برای در میان گذاشتن نگرانیهای خود به صورت ناشناس با اعضای هیئتمدیره.
در این نامه آمده است: «تا زمانی که نظارت موثر دولت بر این شرکتها وجود نداشته باشد، کارمندان فعلی و سابق از معدود افرادی هستند که میتوانند آنها را در برابر مردم پاسخگو کنند. با این حال، توافقنامههای محرمانگی گسترده، ما را از ابراز نگرانیهایمان باز میدارند.»
شرکتهایی مانند OpenAI همچنین تاکتیکهای تهاجمی را برای جلوگیری از صحبت آزادانه کارمندان در مورد کار خود دنبال کردهاند، به طوری که Vox هفته گذشته گزارش داد که OpenAI کارمندانی را که شرکت را ترک میکنند مجبور میکند اسناد بسیار محدودکنندهای را امضا کنند که شامل مواردی مانند عدم تحقیر و عدم افشا میشود و ممکن است تمام دارایی خود را از دست بدهند.
سم آلتمن، مدیر عامل OpenAI، پس از انتشار این گزارش عذرخواهی کرد و گفت که رویههای خارج از عرف و قوانین را تغییر خواهد داد.
این نامه پس از آن منتشر شد که دو کارمند ارشد OpenAI، یکی از بنیانگذاران شرکت به نام «ایلیا سوستکور» و محقق اصلی ایمنی به نام «جن لایک»، ماه گذشته از شرکت استعفا دادند.
منبع : cyprus-mail