گروهی از محققان ارشد هوش مصنوعی روز سهشنبه 24 اکتبر در نامهای اعلام کردند که شرکتهای هوش مصنوعی و دولتها باید حداقل یکسوم بودجه تحقیق و توسعه خود را به تضمین ایمنی هوش مصنوعی و استفاده اخلاقی از سیستمها اختصاص دهند.
این نامه که یک هفته قبل از اجلاس بینالمللی ایمنی هوش مصنوعی در لندن منتشر شد، اقداماتی را که دولتها و شرکتها باید برای مقابله با خطرات هوش مصنوعی انجام دهند، فهرست کرده است.
بر اساس این نامه که توسط سه برنده جایزه تورینگ، یک برنده جایزه نوبل و بیش از 12 نفر از دانشگاهیان برتر حوزه هوش مصنوعی امضا شده، آمده است که: «دولتها موظف هستند که شرکتها را به لحاظ قانونی، در قبال آسیبهای ناشی از سیستمهای هوش مصنوعی خود که به طور منطقی قابل پیشبینی و پیشگیری است، مسئول بدانند.»
ایمنی هوش مصنوعی
در حالی که سرعت دانلود هوش مصنوعی در بین مردم بسیار بالاست، در حال حاضر هیچ مقررات گستردهای برای تمرکز بر ایمنی هوش مصنوعی وجود ندارد و اولین مجموعه قوانین اتحادیه اروپا نیز هنوز به قانون تبدیل نشده است؛ زیرا قانونگذاران هنوز در مورد چندین موضوع به توافق نرسیدهاند.
«یوشوا بنجیو» یکی از سه نفری که به عنوان پدرخوانده هوش مصنوعی شناخته میشوند، میگوید: «مدلهای جدید هوش مصنوعی بسیار قدرتمندند و مهم است که به آنها اجازه ندهیم بدون نظارت دموکراتیک توسعه پیدا کنند.»
او تاکید کرد: «این موضوع (سرمایهگذاری در ایمنی هوش مصنوعی) باید سریع اتفاق بیفتد، زیرا هوش مصنوعی بسیار سریعتر از اقدامات احتیاطی انجامشده پیشرفت میکند.»
تعداد دیگری از امضاکنندگان این نامه عبارتند از «جفری هینتون»، «اندرو یائو»، «دانیل کانمن»، «داون سانگ» و «یووال نوح هراری».
از زمان راهاندازی مدلهای هوش مصنوعی مولد OpenAI، دانشگاهیان برتر و مدیران اجرایی برجسته مانند «ایلان ماسک» در مورد خطرات هوش مصنوعی هشدار دادهاند و از جمله، خواستار توقف ششماهه در توسعه سیستمهای هوش مصنوعی قدرتمند شدهاند.
برخی از شرکتهای بزرگ هوش مصنوعی ضمن مقابله با این موضوع، اعلام کردهاند که چنین اقدامی هزینههای گزاف برایشان در بر خواهد داشت و قرار نیست تمام ریسکهای احتمالی هوش مصنوعی گردن آنها باشد.
«استوارت راسل» دانشمند کامپیوتر بریتانیایی میگوید: «شرکتها شکایت خواهند کرد که “رعایت مقررات و راضی نگه داشتن قانونگذاران کار بسیار سختی است؛ در عین حال این قوانین باعث خفه شدن این نوآوری خواهد شد”. این ادعاها مضحک است. در حال حاضر قوانین مربوط به ساندویچفروشیها از قوانین مربوط به شرکتهای هوش مصنوعی بیشتر است!»
باید دید در نهایت این هشدارها درباره عواقب هوش مصنوعی به کجا خواهد رسید. چیزی که بدیهی به نظر میرسد این است پدیده نوظهور هوش مصنوعی مولد نیز مانند تمام فناوریهای جدید، نیاز به تنظیم از طریق قوانین دارد.
با توجه به ترس افکارعمومی از تبعات احتمالی این فناوری و هراس از غلبه کردن هوش مصنوعی بر بشر، احتمالا جدال بر سر قانونگذاری بین منتقدان، دولتها و شرکتهای هوش مصنوعی در آینده شدت بیشتری خواهد گرفت.
نظر شما خوانندگان مجله هوش مصنوعی زیگپ در این باره چیست؟ آیا به نظرتان هوش مصنوعی میتواند خطرناک باشد؟ آیا موافق قانونگذاری و محدود کردن شرکتها در زمینه توسعه هوش مصنوعی هستید؟ یا فکر میکنید درباره خطرات هوش مصنوعی اغراق شده و قانونگذاری باعث محدودیت این فناوری آیندهدار خواهد شد؟ نظراتتان را حتما در قسمت کامنتها با ما در میان بگذارید.