یک محقق هشدار میدهد که شواهد کنونی مبنی بر اینکه هوش مصنوعی میتواند به طور ایمن کنترل شود، وجود ندارد و بدون اثبات اینکه هوش مصنوعی قابل کنترل است، نباید آن را توسعه داد.
دکتر «رومن وی. یامپولسکی» توضیح میدهد که علیرغم درک این موضوع که مشکل کنترل هوش مصنوعی ممکن است یکی از مهمترین مشکلات پیش روی بشریت باشد، هنوز به خوبی درک نشده است، تعریف ضعیفی دارد و تحقیقات ضعیفی پیرامون آن انجام شده است.
دکتر یامپولسکی متخصص ایمنی هوش مصنوعی، در کتاب آیندهاش با عنوان «هوش مصنوعی: غیرقابل توضیح، غیرقابل پیشبینی، غیرقابل کنترل» به راههایی میپردازد که هوش مصنوعی پتانسیل تغییر چشمگیر جامعه را دارد، اما نه همیشه به نفع ما.
او توضیح میدهد: «ما با یک رویداد تقریبا تضمینشده با پتانسیل ایجاد یک فاجعه وجودی روبرو هستیم. جای تعجب نیست که بسیاری این را مهمترین مشکلی میدانند که بشریت تاکنون با آن روبرو بوده است. نتیجه میتواند رفاه انسان یا انقراض او باشد، و سرنوشت جهان در تعادل است.»
کنترل هوش مصنوعی ممکن نیست
دکتر یامپولسکی بررسی گستردهای از ادبیات علمی هوش مصنوعی انجام داده است و اظهار میکند که هیچ مدرکی مبنی بر اینکه هوش مصنوعی میتواند به طور ایمن کنترل شود پیدا نکرده است؛ و حتی اگر کنترلهای جزئی وجود داشته باشد، کافی نیست.
او میگوید: «چرا بسیاری از محققان تصور میکنند که مشکل کنترل هوش مصنوعی قابل حل است؟ تا آنجا که ما میدانیم، هیچ مدرکی برای آن وجود ندارد، هیچ مدرکی وجود ندارد. قبل از شروع تلاش برای ساختن یک هوش مصنوعی کنترل شده، مهم است که نشان دهیم مشکل قابل حل است. این نگرانی همراه با آماری که نشان میدهد توسعه ابر هوش مصنوعی یک اتفاق تقریبا قطعی است، حاکی از این است که ما باید از تلاشهای ایمنی قابل توجهی در زمینه هوش مصنوعی حمایت کنیم.»
او استدلال میکند که توانایی ما برای تولید نرمافزار هوشمند بسیار بیشتر از توانایی ما برای کنترل یا حتی تایید آن است. پس از بررسی جامع ادبیات، او پیشنهاد میکند که سیستمهای هوشمند پیشرفته هرگز نمیتوانند به طور کامل کنترل شوند و بنابراین همیشه سطح معینی از خطر را بدون توجه به مزایایی که ارائه میدهند، در بر دارند.
او معتقد است که باید هدف جامعه هوش مصنوعی به حداقل رساندن چنین خطری و در عین حال به حداکثر رساندن منافع بالقوه باشد.
چه موانعی برای کنترل کردن هوش مصنوعی وجود دارد؟
هوش مصنوعی (و ابرهوش)، با توانایی آن در یادگیری رفتارهای جدید، تنظیم عملکرد و عمل نیمهمستقل در موقعیتهای جدید با سایر برنامهها متفاوت است.
یکی از مسائلی که در مورد ایمن کردن هوش مصنوعی وجود دارد این است که تصمیمات و شکستهای احتمالی یک موجود فوقهوشمند با توانمندتر شدن آن بینهایت است، بنابراین تعداد نامحدودی از مسائل ایمنی وجود دارد. صرفا پیشبینی مسائل ممکن نیست و کاهش آنها در وصلههای امنیتی ممکن است کافی نباشد.
در عین حال، یامپولسکی توضیح میدهد که هوش مصنوعی نمیتواند آنچه را که تصمیم گرفته است توضیح دهد، و یا ما نمیتوانیم توضیح داده شده را بفهمیم؛ زیرا انسانها به اندازه کافی باهوش نیستند که مفاهیم اجرا شده را درک کنند. اگر تصمیمات هوش مصنوعی را درک نکنیم و فقط یک “جعبه سیاه” داشته باشیم، نمیتوانیم مشکل را درک کرده و احتمال حوادث آینده را کاهش دهیم.
به عنوان مثال، سیستمهای هوش مصنوعی در حال حاضر وظیفه تصمیم گیری در زمینه مراقبتهای بهداشتی، سرمایهگذاری، اشتغال، بانکداری و امنیت را بر عهده دارند. چنین سیستمهایی باید بتوانند توضیح دهند که چگونه به تصمیمات خود رسیدهاند، به ویژه برای نشان دادن اینکه عاری از تعصب و سوگیری هستند.
یامپولسکی میگوید: «اگر به پذیرش پاسخهای هوش مصنوعی بدون توضیح عادت کنیم و اساسا آن را به عنوان یک سیستم اوراکل در نظر بگیریم، نمیتوانیم بگوییم که آیا شروع به ارائه پاسخهای اشتباه یا دستکاری در جوابها میکند یا نه.»
کنترل کردن پدیده غیرقابل کنترل
یامپولسکی توضیح میدهد که با افزایش قابلیت هوش مصنوعی، استقلال آن نیز افزایش مییابد، اما کنترل ما بر آن کاهش مییابد، و افزایش استقلال مترادف با کاهش ایمنی است.
به عنوان مثال، برای اینکه ابرهوش از کسب دانش نادرست جلوگیری و تمام سوگیریها را از برنامهنویسان خود حذف کند، میتواند تمام این دانشها را نادیده بگیرد و همه چیز را از ابتدا کشف/اثبات کند، اما این اتفاق نیز هرگونه تعصب به نفع انسان را از بین میبرد.
به گفته یامپولسکی بشریت با یک انتخاب روبروست: آیا ما مانند نوزادان میشویم؟ از ما مراقبت میشود، اما تحت کنترل نیستیم یا اینکه داشتن یک سرپرست مفید را رد میکنیم، اما مسئول و آزاد هستیم.
او پیشنهاد میکند که میتوان نقطه تعادلی پیدا کرد که در آن ما برخی از قابلیتهای هوش مصنوعی را در ازای کنترل کردن آن قربانی میکنیم؛ آن هم به قیمت ارائه سیستمی با درجه خاصی از خودمختاری.