ترمیناتور
پیش‌بینی آینده با هوش مصنوعی

هوش مصنوعی ممکن است مانند «ترمیناتور» بر انسان پیشی بگیرد

سرفصل‌های مقاله

یک دانشمند کامپیوتر بریتانیایی که لقب “پدرخوانده هوش مصنوعی” را به خود اختصاص داده است، هشدار داد که خطرات هوش مصنوعی که در فیلم‌هایی تخیلی مانند «ترمیناتور» (نابودگر) به نمایش درآمده بود، ممکن است در آینده نزدیک به یک «واقعیت» تبدیل شود.

«جفری هینتون» دانشمند کامپیوتر و روان‌شناس شناختی بریتانیایی در مصاحبه‌ای با برنامه «60دقیقه» گفت: «فکر می‌کنم تا پنج سال دیگر، هوش مصنوعی بتواند بهتر از ما استدلال کند.»

هینتون که به خاطر کارش بر روی چارچوب هوش مصنوعی مشهور شد، در ادامه این سوال را مطرح کرد که آیا انسان‌ها می‌توانند به طور کامل فناوری را که در حال حاضر شاهد یک توسعه سریع است، درک کنند؟

هینتون می‌گوید: «من تصور می‌کنم داریم وارد دوره‌ای می‌شویم که برای اولین‌بار، چیزهایی باهوش‌تر از ما در کنارمان حضور دارند.»

آیا هوش مصنوعی شبیه ترمیناتور خواهد شد؟

ترمیناتور
هوش مصنوعی شبیه ترمیناتور

استدلال هینتون این است که در حالی‌که انسان‌ها الگوریتمی را توسعه می‌دهند که ابزارهای هوش مصنوعی برای یادگیری از آن استفاده می‌کنند، اما خودشان درک کمی از نحوه انجام این یادگیری دارند. هنگامی که هوش‌های مصنوعی شروع به یادگیری می‌کنند پیچیده‌تر می شوند؛ هینتون اعتقاد دارد درک این‌که این فناوری به چه چیزی فکر می‌کند، به اندازه خواندن ذهن انسان دشوار است.

هینتون می‌گوید: «در ابتدای کار، ما ایده بسیار خوبی داریم که هوش مصنوعی در حال انجام چه کاری است. اما به محض این‌که موضوع “واقعا” پیچیده شود، ما حقیقتا نخواهیم دانست چه اتفاقی در حال رخ دادن است، همان‌طور که نمی‌دانیم در مغز اطرافیان‌مان چه می‌گذرد.»

این دانشمند کامپیوتر هشدار داد که یکی از راه‌هایی که انسان‌ها می‌توانند کنترل هوش مصنوعی را از دست بدهند زمانی است که این فناوری شروع به نوشتن «کد رایانه‌ای خود برای اصلاح خود» کند.

او هشدار می‌دهد: «این همان چیزی است که باید جدا در موردش احساس نگرانی کنیم.»

هینتون استدلال کرد که این واقعیت مشکلات خطرناکی را به همراه دارد و گفت که راهی برای انسان نمی‌بیند که تضمین کند این فناوری همیشه ایمن است.

پدرخوانده هوش مصنوعی می‌گوید: «ما وارد دوره‌ای از عدم قطعیت بزرگ می‌شویم که در آن با کارهایی سروکار داریم که قبلا هرگز انجام نداده‌ایم. و معمولا اولین باری که با چیزی کاملا بدیع برخورد می‌کنید، اشتباه می‌کنید. و هوش مصنوعی موضوعی است که نمی‌شود در موردش اشتباه کرد.»

چنین عدم قطعیتی حتی می‌تواند منجر به خطراتی شود که تا همین چند سال پیش صرفا در قلمروی داستان‌های علمی-تخیلی قرار داشت، از جمله تسلط هوش مصنوعی بر بشریت مانند ترمیناتور.

هینتون در مصاحبه‌اش گفت: «من نمی‌گویم این اتفاق خواهد افتاد. اگر بتوانیم مانع از تمایل هوش مصنوعی برای غلبه بر انسان شویم عالی خواهد شد. اما روشن نیست که بتوانیم هوش مصنوعی را در این زمینه قانع کنیم.»

نظرات افراد دیگر در مورد آینده هوش مصنوعی

«کریستوفر الکساندر» مدیر ارشد تجزیه‌وتحلیل «گروه توسعه پایونیر» نیز به «فاکس‌نیوز دیجیتال» گفت که در بسیاری از نگرانی‌های هینتون سهیم است، از جمله ترس از این‌که چه اتفاقی برای کارمندانی خواهد افتاد که مشاغل‌شان را به‌خاطر هوش مصنوعی از دست می‌دهند.

الکساندر گفت: «توانایی هوش مصنوعی برای انجام کار یک کارمند یا کارگر معمولی اولین موج شوک خواهد بود، زیرا این موضوع که با افزایش توانایی‌های هوش مصنوعی، بسیاری از انسان‌ها شغل‌شان را از دست می‌دهند، یک دغدغه واقعی است. 

الکساندر همچنین اضافه کرد: «ممکن است هوش مصنوعی آن‌طور که هینتون نگران است، مانند ترمیناتور بر بشریت حکومت نکند، اما می‌تواند قابلیت‌هایی به دست آورد که تمدن بشری را برای همیشه تغییر خواهد داد. هینتون در مورد این‌که انسان ممکن است به دومین هوش قدرتمند روی کره زمین تبدیل شود، درست می‌گوید.»

«جان شوپ» مدیر سیاست‌گذاری «پروژه اصول آمریکایی» هم در این‌باره هشدار داده که «وجود چنین خطری بدین معناست که کنگره باید وارد عمل شود و قوانین لازم را تصویب کند.»

شوپ می‌گوید: «یکی از نگرانی‌ها این است: آیا هیچ‌کدام از این شیفتگان هوش مصنوعی تابه‌حال کتابی خوانده‌اند؟ ترس در مورد خطرات هوش مصنوعی کاملا موجه است. و درست مانند شخصیت‌های خیالی در این داستان‌ها (ترمیناتور)، غول‌های فناوری ما غرور زیادی دارند و مطمئن هستند که هیچ خطری در آینده رخ نخواهد داد. ما نمی‌توانیم این وضعیت را تحمل کنیم. کنگره باید قوانین محکمی را برای حفاظت از بشر در برابر هوش مصنوعی وضع کند.»

«فیل سیگل» بنیان‌گذار «مرکز آمادگی پیشرفته و شبیه‌سازی پاسخ به تهدید» نیز موافقت کرد که برخی از نگرانی های هینتون قابل قبول است، اگرچه او استدلال کرد که نگرانی اصلی این نیست که این فناوری مثل ترمیناتور بتواند بر بشریت غلبه کند.

سیگل گفت: «من فکر نمی‌کنم این الگوریتم‌ها قابلیت درک احساس را داشته باشند، بنابراین این نگرانی که آن‌ها به خودی خود بر بشریت غلبه خواهند کرد، نگرانی اصلی نیست. نگرانی اصلی این است که انسان‌ها و دولت‌های شرور که باهوش هم هستند، کاملا می‌توانند از این سیستم‌ها برای آسیب رساندن به بشریت و حداقل برنامه‌ریزی هوش مصنوعی برای انجام کارهای شرورانه استفاده کنند.»

صرف نظر از این‌که تهدیدات از کجا نشات می‌گیرند، سیگل معتقد است که برای مردم عاقلانه است که «برای پیامدهای غیرقابل پیش‌بینی پیشرفت‌های هوش مصنوعی آماده شوند»، نه تنها با مقررات، بلکه با استفاده از «ابزارهای فعلی در دفاع، آماده شدن برای تهدیدات بالقوه با تمرین علیه آن‌ها، و توسعه قابلیت‌های جدید برای افزایش احتمال واکنش و محافظت از خودمان.»

هینتون در طول مصاحبه تلویزیونی خود گفت که پیام اصلی او که امیدوار است بتواند آن را منتقل کند این است که هنوز ابهام زیادی در مورد آینده توسعه هوش مصنوعی وجود دارد.

اما «ساموئل هموند» اقتصاددان ارشد «بنیاد نوآوری آمریکا»، موافق است که فناوری هوش مصنوعی در پنج سال آینده ممکن است بهتر از انسان‌ها استدلال کند و ابهام زیادی در مورد «آن‌چه در آینده اتفاق می‌افتد» وجود دارد، اما در عین حال ضمن اشاره به یک تحقیق اخیر، اذعان کرد سناریوهای بسیار ترسناک و آخرالزمانی درباره هوش مصنوعی مانند ترمیناتور، به سالن‌های سینما محدود خواهد ماند.

هموند به فاکس‌نیوز دیجیتال گفت: «یک پیشرفت اخیر در تحقیقات تفسیرپذیری هوش مصنوعی نشان می‌دهد که خطر تسخیر جهان توسط هوش مصنوعی یا فریب کاربران توسط آن ممکن است اغراق‌آمیز باشد. تفسیرپذیری مکانیکی، به‌نوعی همان “علم اعصاب” انسان‌ها برای مغز هوش مصنوعی محسوب می‌شود. تفاوتش این است که بر خلاف مغز انسان، ما می‌توانیم مستقیما هر کاری را که مغز هوش مصنوعی انجام می‌دهد اندازه‌گیری کنیم و آزمایش‌های دقیقی روی آن انجام دهیم.»

هموند خاطرنشان کرد که چنین تحقیقاتی نشان داده است که انسان‌ها می‌توانند «ذهن هوش مصنوعی» را بخوانند، این قابلیت به انسان اجازه می‌دهد تشخیص دهد که آیا هوش مصنوعی دروغ می‌گوید یا نه، و به توسعه‌دهندگان فرصت می‌دهد تا رفتارهای بالقوه خطرناک آن را کنترل کنند.

هموند می‌گوید: «خطرات ناشی از کاربران شرور این فناوری و اختلالات اجتماعی ناشی از پیشرفت آن، گسترده‌تر باقی مانده است و راه حل آسانی ندارد. انطباق نهادی و تکامل مشترک انسان و هوش مصنوعی ممکن است مهم‌ترین راه برای اطمینان از این است که هوش مصنوعی منجر به دنیای بهتری می‌شود، اما متاسفانه دولت ما به شدت در برابر اصلاحات مقاومت می‌کند.»

مهران
مهران