هوش مصنوعی

دولت‌ها و شرکت‌ها باید برای ایمنی هوش مصنوعی هزینه کنند

سرفصل‌های مقاله

گروهی از محققان ارشد هوش مصنوعی روز سه‌شنبه 24 اکتبر در نامه‌ای اعلام کردند که شرکت‌های هوش مصنوعی و دولت‌ها باید حداقل یک‌سوم بودجه تحقیق و توسعه خود را به تضمین ایمنی هوش مصنوعی و استفاده اخلاقی از سیستم‌ها اختصاص دهند.

این نامه که یک هفته قبل از اجلاس بین‌المللی ایمنی هوش مصنوعی در لندن منتشر شد، اقداماتی را که دولت‌ها و شرکت‌ها باید برای مقابله با خطرات هوش مصنوعی انجام دهند، فهرست کرده است.

بر اساس این نامه که توسط سه برنده جایزه تورینگ، یک برنده جایزه نوبل و بیش از 12 نفر از دانشگاهیان برتر حوزه هوش مصنوعی امضا شده، آمده است که: «دولت‌ها موظف هستند که شرکت‌ها را به لحاظ قانونی، در قبال آسیب‌های ناشی از سیستم‌های هوش مصنوعی خود که به طور منطقی قابل پیش‌بینی و پیشگیری است، مسئول بدانند.»

ایمنی هوش مصنوعی

هوش مصنوعی
ایمنی هوش مصنوعی

در حالی که سرعت دانلود هوش مصنوعی در بین مردم بسیار بالاست، در حال حاضر هیچ مقررات گسترده‌ای برای تمرکز بر ایمنی هوش مصنوعی وجود ندارد و اولین مجموعه قوانین اتحادیه اروپا نیز هنوز به قانون تبدیل نشده است؛ زیرا قانون‌گذاران هنوز در مورد چندین موضوع به توافق نرسیده‌اند.

«یوشوا بنجیو» یکی از سه نفری که به عنوان پدرخوانده هوش مصنوعی شناخته می‌شوند، می‌گوید: «مدل‌های جدید هوش مصنوعی بسیار قدرتمندند و مهم است که به آن‌ها اجازه ندهیم بدون نظارت دموکراتیک توسعه پیدا کنند.»

او تاکید کرد: «این موضوع (سرمایه‌گذاری در ایمنی هوش مصنوعی) باید سریع اتفاق بیفتد، زیرا هوش مصنوعی بسیار سریع‌تر از اقدامات احتیاطی انجام‌شده پیشرفت می‌کند.»

تعداد دیگری از امضاکنندگان این نامه عبارتند از «جفری هینتون»، «اندرو یائو»، «دانیل کانمن»، «داون سانگ» و «یووال نوح هراری».

از زمان راه‌اندازی مدل‌های هوش مصنوعی مولد OpenAI، دانشگاهیان برتر و مدیران اجرایی برجسته مانند «ایلان ماسک» در مورد خطرات هوش مصنوعی هشدار داده‌اند و از جمله، خواستار توقف شش‌ماهه در توسعه سیستم‌های هوش مصنوعی قدرتمند شده‌اند.

برخی از شرکت‌های بزرگ هوش مصنوعی ضمن مقابله با این موضوع، اعلام کرده‌اند که چنین اقدامی هزینه‌های گزاف برای‌شان در بر خواهد داشت و قرار نیست تمام ریسک‌های احتمالی هوش مصنوعی گردن آن‌ها باشد.

«استوارت راسل» دانشمند کامپیوتر بریتانیایی می‌گوید: «شرکت‌ها شکایت خواهند کرد که “رعایت مقررات و راضی نگه داشتن قانون‌گذاران کار بسیار سختی است؛ در عین حال این قوانین باعث خفه شدن این نوآوری خواهد شد”. این ادعاها مضحک است. در حال حاضر قوانین مربوط به ساندویچ‌فروشی‌ها از قوانین مربوط به شرکت‌های هوش مصنوعی بیشتر است!»

باید دید در نهایت این هشدارها درباره عواقب هوش مصنوعی به کجا خواهد رسید. چیزی که بدیهی به نظر می‌رسد این است پدیده نوظهور هوش مصنوعی مولد نیز مانند تمام فناوری‌های جدید، نیاز به تنظیم از طریق قوانین دارد.

با توجه به ترس افکارعمومی از تبعات احتمالی این فناوری و هراس از غلبه کردن هوش مصنوعی بر بشر، احتمالا جدال بر سر قانون‌گذاری بین منتقدان، دولت‌ها و شرکت‌های هوش مصنوعی در آینده شدت بیشتری خواهد گرفت.

نظر شما خوانندگان مجله هوش مصنوعی زیگپ در این باره چیست؟ آیا به نظرتان هوش مصنوعی می‌تواند خطرناک باشد؟ آیا موافق قانون‌گذاری و محدود کردن شرکت‌ها در زمینه توسعه هوش مصنوعی هستید؟ یا فکر می‌کنید درباره خطرات هوش مصنوعی اغراق شده و قانون‌گذاری باعث محدودیت این فناوری آینده‌دار خواهد شد؟ نظرات‌تان را حتما در قسمت کامنت‌ها با ما در میان بگذارید.

مهران
مهران