یک دانشمند کامپیوتر بریتانیایی که لقب “پدرخوانده هوش مصنوعی” را به خود اختصاص داده است، هشدار داد که خطرات هوش مصنوعی که در فیلمهایی تخیلی مانند «ترمیناتور» (نابودگر) به نمایش درآمده بود، ممکن است در آینده نزدیک به یک «واقعیت» تبدیل شود.
«جفری هینتون» دانشمند کامپیوتر و روانشناس شناختی بریتانیایی در مصاحبهای با برنامه «60دقیقه» گفت: «فکر میکنم تا پنج سال دیگر، هوش مصنوعی بتواند بهتر از ما استدلال کند.»
هینتون که به خاطر کارش بر روی چارچوب هوش مصنوعی مشهور شد، در ادامه این سوال را مطرح کرد که آیا انسانها میتوانند به طور کامل فناوری را که در حال حاضر شاهد یک توسعه سریع است، درک کنند؟
هینتون میگوید: «من تصور میکنم داریم وارد دورهای میشویم که برای اولینبار، چیزهایی باهوشتر از ما در کنارمان حضور دارند.»
آیا هوش مصنوعی شبیه ترمیناتور خواهد شد؟
استدلال هینتون این است که در حالیکه انسانها الگوریتمی را توسعه میدهند که ابزارهای هوش مصنوعی برای یادگیری از آن استفاده میکنند، اما خودشان درک کمی از نحوه انجام این یادگیری دارند. هنگامی که هوشهای مصنوعی شروع به یادگیری میکنند پیچیدهتر می شوند؛ هینتون اعتقاد دارد درک اینکه این فناوری به چه چیزی فکر میکند، به اندازه خواندن ذهن انسان دشوار است.
هینتون میگوید: «در ابتدای کار، ما ایده بسیار خوبی داریم که هوش مصنوعی در حال انجام چه کاری است. اما به محض اینکه موضوع “واقعا” پیچیده شود، ما حقیقتا نخواهیم دانست چه اتفاقی در حال رخ دادن است، همانطور که نمیدانیم در مغز اطرافیانمان چه میگذرد.»
این دانشمند کامپیوتر هشدار داد که یکی از راههایی که انسانها میتوانند کنترل هوش مصنوعی را از دست بدهند زمانی است که این فناوری شروع به نوشتن «کد رایانهای خود برای اصلاح خود» کند.
او هشدار میدهد: «این همان چیزی است که باید جدا در موردش احساس نگرانی کنیم.»
هینتون استدلال کرد که این واقعیت مشکلات خطرناکی را به همراه دارد و گفت که راهی برای انسان نمیبیند که تضمین کند این فناوری همیشه ایمن است.
پدرخوانده هوش مصنوعی میگوید: «ما وارد دورهای از عدم قطعیت بزرگ میشویم که در آن با کارهایی سروکار داریم که قبلا هرگز انجام ندادهایم. و معمولا اولین باری که با چیزی کاملا بدیع برخورد میکنید، اشتباه میکنید. و هوش مصنوعی موضوعی است که نمیشود در موردش اشتباه کرد.»
چنین عدم قطعیتی حتی میتواند منجر به خطراتی شود که تا همین چند سال پیش صرفا در قلمروی داستانهای علمی-تخیلی قرار داشت، از جمله تسلط هوش مصنوعی بر بشریت مانند ترمیناتور.
هینتون در مصاحبهاش گفت: «من نمیگویم این اتفاق خواهد افتاد. اگر بتوانیم مانع از تمایل هوش مصنوعی برای غلبه بر انسان شویم عالی خواهد شد. اما روشن نیست که بتوانیم هوش مصنوعی را در این زمینه قانع کنیم.»
نظرات افراد دیگر در مورد آینده هوش مصنوعی
«کریستوفر الکساندر» مدیر ارشد تجزیهوتحلیل «گروه توسعه پایونیر» نیز به «فاکسنیوز دیجیتال» گفت که در بسیاری از نگرانیهای هینتون سهیم است، از جمله ترس از اینکه چه اتفاقی برای کارمندانی خواهد افتاد که مشاغلشان را بهخاطر هوش مصنوعی از دست میدهند.
الکساندر گفت: «توانایی هوش مصنوعی برای انجام کار یک کارمند یا کارگر معمولی اولین موج شوک خواهد بود، زیرا این موضوع که با افزایش تواناییهای هوش مصنوعی، بسیاری از انسانها شغلشان را از دست میدهند، یک دغدغه واقعی است.
الکساندر همچنین اضافه کرد: «ممکن است هوش مصنوعی آنطور که هینتون نگران است، مانند ترمیناتور بر بشریت حکومت نکند، اما میتواند قابلیتهایی به دست آورد که تمدن بشری را برای همیشه تغییر خواهد داد. هینتون در مورد اینکه انسان ممکن است به دومین هوش قدرتمند روی کره زمین تبدیل شود، درست میگوید.»
«جان شوپ» مدیر سیاستگذاری «پروژه اصول آمریکایی» هم در اینباره هشدار داده که «وجود چنین خطری بدین معناست که کنگره باید وارد عمل شود و قوانین لازم را تصویب کند.»
شوپ میگوید: «یکی از نگرانیها این است: آیا هیچکدام از این شیفتگان هوش مصنوعی تابهحال کتابی خواندهاند؟ ترس در مورد خطرات هوش مصنوعی کاملا موجه است. و درست مانند شخصیتهای خیالی در این داستانها (ترمیناتور)، غولهای فناوری ما غرور زیادی دارند و مطمئن هستند که هیچ خطری در آینده رخ نخواهد داد. ما نمیتوانیم این وضعیت را تحمل کنیم. کنگره باید قوانین محکمی را برای حفاظت از بشر در برابر هوش مصنوعی وضع کند.»
«فیل سیگل» بنیانگذار «مرکز آمادگی پیشرفته و شبیهسازی پاسخ به تهدید» نیز موافقت کرد که برخی از نگرانی های هینتون قابل قبول است، اگرچه او استدلال کرد که نگرانی اصلی این نیست که این فناوری مثل ترمیناتور بتواند بر بشریت غلبه کند.
سیگل گفت: «من فکر نمیکنم این الگوریتمها قابلیت درک احساس را داشته باشند، بنابراین این نگرانی که آنها به خودی خود بر بشریت غلبه خواهند کرد، نگرانی اصلی نیست. نگرانی اصلی این است که انسانها و دولتهای شرور که باهوش هم هستند، کاملا میتوانند از این سیستمها برای آسیب رساندن به بشریت و حداقل برنامهریزی هوش مصنوعی برای انجام کارهای شرورانه استفاده کنند.»
صرف نظر از اینکه تهدیدات از کجا نشات میگیرند، سیگل معتقد است که برای مردم عاقلانه است که «برای پیامدهای غیرقابل پیشبینی پیشرفتهای هوش مصنوعی آماده شوند»، نه تنها با مقررات، بلکه با استفاده از «ابزارهای فعلی در دفاع، آماده شدن برای تهدیدات بالقوه با تمرین علیه آنها، و توسعه قابلیتهای جدید برای افزایش احتمال واکنش و محافظت از خودمان.»
هینتون در طول مصاحبه تلویزیونی خود گفت که پیام اصلی او که امیدوار است بتواند آن را منتقل کند این است که هنوز ابهام زیادی در مورد آینده توسعه هوش مصنوعی وجود دارد.
اما «ساموئل هموند» اقتصاددان ارشد «بنیاد نوآوری آمریکا»، موافق است که فناوری هوش مصنوعی در پنج سال آینده ممکن است بهتر از انسانها استدلال کند و ابهام زیادی در مورد «آنچه در آینده اتفاق میافتد» وجود دارد، اما در عین حال ضمن اشاره به یک تحقیق اخیر، اذعان کرد سناریوهای بسیار ترسناک و آخرالزمانی درباره هوش مصنوعی مانند ترمیناتور، به سالنهای سینما محدود خواهد ماند.
هموند به فاکسنیوز دیجیتال گفت: «یک پیشرفت اخیر در تحقیقات تفسیرپذیری هوش مصنوعی نشان میدهد که خطر تسخیر جهان توسط هوش مصنوعی یا فریب کاربران توسط آن ممکن است اغراقآمیز باشد. تفسیرپذیری مکانیکی، بهنوعی همان “علم اعصاب” انسانها برای مغز هوش مصنوعی محسوب میشود. تفاوتش این است که بر خلاف مغز انسان، ما میتوانیم مستقیما هر کاری را که مغز هوش مصنوعی انجام میدهد اندازهگیری کنیم و آزمایشهای دقیقی روی آن انجام دهیم.»
هموند خاطرنشان کرد که چنین تحقیقاتی نشان داده است که انسانها میتوانند «ذهن هوش مصنوعی» را بخوانند، این قابلیت به انسان اجازه میدهد تشخیص دهد که آیا هوش مصنوعی دروغ میگوید یا نه، و به توسعهدهندگان فرصت میدهد تا رفتارهای بالقوه خطرناک آن را کنترل کنند.
هموند میگوید: «خطرات ناشی از کاربران شرور این فناوری و اختلالات اجتماعی ناشی از پیشرفت آن، گستردهتر باقی مانده است و راه حل آسانی ندارد. انطباق نهادی و تکامل مشترک انسان و هوش مصنوعی ممکن است مهمترین راه برای اطمینان از این است که هوش مصنوعی منجر به دنیای بهتری میشود، اما متاسفانه دولت ما به شدت در برابر اصلاحات مقاومت میکند.»