کنترل هوش مصنوعی

آیا کنترل هوش مصنوعی واقعا ممکن است؟

سرفصل‌های مقاله

یک محقق هشدار می‌دهد که شواهد کنونی مبنی بر این‌که هوش مصنوعی می‌تواند به طور ایمن کنترل شود، وجود ندارد و بدون اثبات این‌که هوش مصنوعی قابل کنترل است، نباید آن را توسعه داد.

دکتر «رومن وی. یامپولسکی» توضیح می‌دهد که علی‌رغم درک این موضوع که مشکل کنترل هوش مصنوعی ممکن است یکی از مهم‌ترین مشکلات پیش روی بشریت باشد، هنوز به خوبی درک نشده است، تعریف ضعیفی دارد و تحقیقات ضعیفی پیرامون آن انجام شده است.

دکتر یامپولسکی متخصص ایمنی هوش مصنوعی، در کتاب آینده‌اش با عنوان «هوش مصنوعی: غیرقابل توضیح، غیرقابل پیش‌بینی، غیرقابل کنترل» به راه‌هایی می‌پردازد که هوش مصنوعی پتانسیل تغییر چشم‌گیر جامعه را دارد، اما نه همیشه به نفع ما.

او توضیح می‌دهد: «ما با یک رویداد تقریبا تضمین‌شده با پتانسیل ایجاد یک فاجعه وجودی روبرو هستیم. جای تعجب نیست که بسیاری این را مهم‌ترین مشکلی می‌دانند که بشریت تاکنون با آن روبرو بوده است. نتیجه می‌تواند رفاه انسان یا انقراض او باشد، و سرنوشت جهان در تعادل است.»

کنترل هوش مصنوعی ممکن نیست

کنترل هوش مصنوعی

دکتر یامپولسکی بررسی گسترده‌ای از ادبیات علمی هوش مصنوعی انجام داده است و اظهار می‌کند که هیچ مدرکی مبنی بر این‌که هوش مصنوعی می‌تواند به طور ایمن کنترل شود پیدا نکرده است؛ و حتی اگر کنترل‌های جزئی وجود داشته باشد، کافی نیست.

او می‌گوید: «چرا بسیاری از محققان تصور می‌کنند که مشکل کنترل هوش مصنوعی قابل حل است؟ تا آن‌جا که ما می‌دانیم، هیچ مدرکی برای آن وجود ندارد، هیچ مدرکی وجود ندارد. قبل از شروع تلاش برای ساختن یک هوش مصنوعی کنترل شده، مهم است که نشان دهیم مشکل قابل حل است. این نگرانی همراه با آماری که نشان می‌دهد توسعه ابر هوش مصنوعی یک اتفاق تقریبا قطعی است، حاکی از این است که ما باید از تلاش‌های ایمنی قابل توجهی در زمینه هوش مصنوعی حمایت کنیم.»

او استدلال می‌کند که توانایی ما برای تولید نرم‌افزار هوشمند بسیار بیشتر از توانایی ما برای کنترل یا حتی تایید آن است. پس از بررسی جامع ادبیات، او پیشنهاد می‌کند که سیستم‌های هوشمند پیشرفته هرگز نمی‌توانند به طور کامل کنترل شوند و بنابراین همیشه سطح معینی از خطر را بدون توجه به مزایایی که ارائه می‌دهند، در بر دارند. 

او معتقد است که باید هدف جامعه هوش مصنوعی به حداقل رساندن چنین خطری و در عین حال به حداکثر رساندن منافع بالقوه باشد.

چه موانعی برای کنترل کردن هوش مصنوعی وجود دارد؟

هوش مصنوعی (و ابرهوش)، با توانایی آن در یادگیری رفتارهای جدید، تنظیم عملکرد و عمل نیمه‌مستقل در موقعیت‌های جدید با سایر برنامه‌ها متفاوت است.

یکی از مسائلی که در مورد ایمن کردن هوش مصنوعی وجود دارد این است که تصمیمات و شکست‌های احتمالی یک موجود فوق‌هوشمند با توانمندتر شدن آن بی‌نهایت است، بنابراین تعداد نامحدودی از مسائل ایمنی وجود دارد. صرفا پیش‌بینی مسائل ممکن نیست و کاهش آن‌ها در وصله‌های امنیتی ممکن است کافی نباشد.

در عین حال، یامپولسکی توضیح می‌دهد که هوش مصنوعی نمی‌تواند آن‌چه را که تصمیم گرفته است توضیح دهد، و یا ما نمی‌توانیم توضیح داده شده را بفهمیم؛ زیرا انسان‌ها به اندازه کافی باهوش نیستند که مفاهیم اجرا شده را درک کنند. اگر تصمیمات هوش مصنوعی را درک نکنیم و فقط یک “جعبه سیاه” داشته باشیم، نمی‌توانیم مشکل را درک کرده و احتمال حوادث آینده را کاهش دهیم.

به عنوان مثال، سیستم‌های هوش مصنوعی در حال حاضر وظیفه تصمیم‌ گیری در زمینه مراقبت‌های بهداشتی، سرمایه‌گذاری، اشتغال، بانک‌داری و امنیت را بر عهده دارند. چنین سیستم‌هایی باید بتوانند توضیح دهند که چگونه به تصمیمات خود رسیده‌اند، به ویژه برای نشان دادن این‌که عاری از تعصب و سوگیری هستند.

یامپولسکی می‌گوید: «اگر به پذیرش پاسخ‌های هوش مصنوعی بدون توضیح عادت کنیم و اساسا آن را به عنوان یک سیستم اوراکل در نظر بگیریم، نمی‌توانیم بگوییم که آیا شروع به ارائه پاسخ‌های اشتباه یا دستکاری در جواب‌ها می‌کند یا نه.»

کنترل کردن پدیده غیرقابل کنترل

یامپولسکی توضیح می‌دهد که با افزایش قابلیت هوش مصنوعی، استقلال آن نیز افزایش می‌یابد، اما کنترل ما بر آن کاهش می‌یابد، و افزایش استقلال مترادف با کاهش ایمنی است.

به عنوان مثال، برای این‌که ابرهوش از کسب دانش نادرست جلوگیری و تمام سوگیری‌ها را از برنامه‌نویسان خود حذف کند، می‌تواند تمام این دانش‌ها را نادیده بگیرد و همه چیز را از ابتدا کشف/اثبات کند، اما این اتفاق نیز هرگونه تعصب به نفع انسان را از بین می‌برد.

به گفته یامپولسکی بشریت با یک انتخاب روبروست: آیا ما مانند نوزادان می‌شویم؟ از ما مراقبت می‌شود، اما تحت کنترل نیستیم یا این‌که داشتن یک سرپرست مفید را رد می‌کنیم، اما مسئول و آزاد هستیم.

او پیشنهاد می‌کند که می‌توان نقطه تعادلی پیدا کرد که در آن ما برخی از قابلیت‌های هوش مصنوعی را در ازای کنترل کردن آن قربانی می‌کنیم؛ آن هم به قیمت ارائه سیستمی با درجه خاصی از خودمختاری.

مهران
مهران