اخیرا نیک تامسون با دانشمند مشهور یووال نوح هراری در کنفرانس “AI for Good” که توسط سازمان ملل در ژنو برگزار شد، مصاحبه کرده است. در این مصاحبه در مورد خطرات دموکراسی هوش مصنوعی مولد و برخی از چارچوبهای بالقوه برای به حداکثر رساندن مزایای بالقوه و به حداقل رساندن آسیبهای احتمالی صحبت شده است.
در ادامه به صورت کامل متن این مصاحبه را میتوانید مشاهده کنید.
گفتگو با یووال نوح هراری در مورد هوش مصنوعی
یووال نوح هراری، خوشحالم که دوباره شما را میبینم، و خوشحالم که با شما مصاحبه میکنم. این یک لحظه تغییر شدید در موضوعی است که شما در مورد آن چیزهای زیادی میدانید. بنابراین اولین سوال من از شما: در شش ماه گذشته اتفاقات زیادی در هوش مصنوعی افتاده است.
شما سالها از هوش مصنوعی شکایت کردهاید. شما سالها در مورد خطرات دموکراسی هوش مصنوعی هشدار دادهاید. چه چیزی در نقد یا نگرانی شما تغییر کرده است، زیرا در چند ماه گذشته شاهد انفجار مدلهای زبان بزرگ و هوش مصنوعی مولد بودیم.
فکر میکنم همه چیز خیلی سریعتر از آنچه ما انتظار داشتیم اتفاق میافتد، حتی افراد حاضر در این زمینه. من فکر میکنم همه باید واقعاً سه چیز را در مورد هوش مصنوعی بدانند. میدانید که چیزهای زیادی در مورد هوش مصنوعی میشنوید اما واقعاً باید سه چیز را بدانید.
اول از همه، این اولین ابزار در تاریخ بشر است که میتواند به تنهایی تصمیم بگیرد. این چیزی شبیه هیچ اختراع قبلی در تاریخ نیست. بمبهای اتمی نمیتوانستند تصمیم بگیرند، نمیتوانستند تصمیم بگیرند که چه کسی را بمباران کنند. هوش مصنوعی میتواند به تنهایی تصمیم بگیرد.
دومین چیزی که همه باید بدانند این است که این اولین ابزار در تاریخ بشر است که میتواند به تنهایی ایدههای جدیدی ایجاد کند. یک ماشین چاپ یا رادیو، نمیتوانستند ایده بسازند. آنها میتوانند همه ایدههای ما را منتشر کنند، اما هوش مصنوعی میتواند ایدههای کاملاً جدیدی ایجاد کند.
و سومین چیزی که همه باید بدانند این است که انسانها در استفاده از ابزارهای جدید، فنآوریهای جدید خیلی خوب نیستند. ما اغلب اشتباه میکنیم. یادگیری نحوه استفاده از ابزارهای جدید به شیوهای سودمند و عاقلانه به زمان نیاز دارد. میدانید اگر به انقلاب صنعتی نگاه کنید، که بسیاری از مردم انقلاب فعلی هوش مصنوعی را با انقلاب صنعتی مقایسه میکنند، این یک مقایسه کاملاً بدبینانه است زیرا زمانی که انسانها یاد گرفتند چگونه از ابزار انقلاب صنعتی استفاده کنند، اشتباهات وحشتناکی در این زمینه مرتکب شدیم.
مسیر. امپریالیسم، نازیسم، کمونیسم، دو جنگ جهانی، همه اشتباهاتی در راه یادگیری نحوه استفاده از ابزار انقلاب صنعتی بودند. اگر اشتباهات مشابهی را با هوش مصنوعی مرتکب شویم، این واقعاً میتواند پایان نوع بشر باشد. و آخرین نکته این است که در حالی که ما در حال یادگیری استفاده از هوش مصنوعی هستیم، آن هم در حال یادگیری استفاده از ما است. بنابراین ما حتی نسبت به هر اختراع قبلی زمان کمتر و حاشیه کمتری برای خطا داریم.
من میخواهم بیشتر این گفتگو را صرف صحبت در مورد چگونگی تنظیم هوش مصنوعی، تعیین مسیر، کاهش خطرات، سیاستهایی کنم که افراد بسیار باهوشی که این را تماشا میکنند باید به آن فکر کنند. اما بیایید به آن نقطه برگردیم که از برخی جهات شما میگویید خطرناکترین فناوری ایجاد شده است.
در حال حاضر، هوش مصنوعی نمیتواند بیوگرافی یووال نوح هراری را ارائه دهد. درست؟ اگر به Open AI بروم و تایپ کنم تا یک بیو به من بدهم، همه چیز اشتباه میشود. انواع اشتباهات را مرتکب میشود. در واقع هنوز آنقدرها خوب نیست. چقدر طول میکشد تا از این نوع چتبات آشفته و جوان، تبدیل به نابودگر مرگ دنیاهایی شود که در بدترین حالت شاهد آن هستیم؟
من فکر نمیکنم که واقعاً به وسیله نابودگر دنیاها تبدیل شود. خطرات هوش مصنوعی لزوماً از این دستگاه فوق هوشمند که میتواند همه چیز را پیش بینی و انجام دهد، نشات نمیگیرد. همچنین میتواند از هوش مصنوعی بدوی که قبلاً در اختیار داریم باشد. اگر به عنوان مثال به رسانههای اجتماعی فکر کنیم، و به روشی که اعتماد عمومی ما را از بین برده است، نهادهای دموکراتیک را در سراسر جهان از بین برده است. این کار با هوش مصنوعی بسیار بسیار ابتدایی انجام شد.
اساساً، در رسانههای اجتماعی، شما این الگوریتمها را دارید که سعی میکنند تعامل کاربران را به حداکثر برسانند، و الگوریتمهایی که عمدتاً با آزمون و خطا کشف میشوند، سادهترین راه برای افزایش تعامل کاربر، جلب توجه مردم، گسترش خشم است. این چیزی است که هوش مصنوعی در مورد طبیعت انسان کشف کرد و از آن استفاده کرد و اعتماد و موسسات و گفتگوهای عمومی را در بسیاری از کشورها از بین برد.
ما اکنون با وضعیت تاریکی روبرو هستیم که در آن پیچیدهترین فناوری اطلاعات در تاریخ را داریم و مردم دیگر نمیتوانند در مورد چیزی به توافق برسند. مردم دیگر نمیتوانند گفتگوی معناداری داشته باشند. و این با هوش مصنوعی بسیار بدوی است.
بنابراین لازم نیست منتظر این داستان علمی تخیلی یا تمام هوش مصنوعی قدرتمند باشیم تا نگران باشیم. البته در حال حاضر هوش مصنوعی نیز میتواند برای خوبی استفاده شود. این خطرناکترین فناوری است که تا به حال ایجاد کردهایم، و همچنین به طور بالقوه سودمندترین فناوری است که تا به حال ایجاد کردهایم. بنابراین بحث ممنوعیت کامل آن نیست که به هر حال غیرممکن است، بلکه در مورد تنظیم آن است تا مطمئن شوید که برای خیر استفاده میشود نه برای شر. حالا چقدر وقت داریم، چقدر وقت داریم؟
گفتنش خیلی سخته، میدانید 10 سال پیش، هوش مصنوعی وجود نداشت. مردم در مورد آن صحبت میکردند، اما هنوز برای بیشتر مردم، این یک داستان علمی تخیلی بود. کل انقلاب هوش مصنوعی کمتر از 10 سال است. این تازه اولین قدمهای کودک خود را میگذارد، اما با چنان سرعتی در حال پیشرفت است که هیچکس نمیداند مثلاً 10 سال دیگر کجا خواهیم بود.
آیا کاری وجود دارد که بتوان سرعت تکامل را تغییر داد؟ میدانم که یووال نوح هراری نامهای را امضا کردهاید که میگوید اگر میخواهید یک مدل زبان بزرگتر از GPT-4 بسازید، توسعه هوش مصنوعی را متوقف کنید. تا جایی که من میدانم این تاثیری نداشت یا حداقل رفتار OpenAI یا رفتار مایکروسافت را تغییر نداد. برای تغییر سرعت انجام این کار چه اتفاقی باید بیفتد؟
من فکر میکنم ما باید بین توسعه و استقرار تفاوت قائل شویم. متوقف کردن توسعه بسیار دشوار است زیرا ما این ذهنیت مسابقه تسلیحاتی را داریم. مردم از برخی از خطرات آگاه هستند اما نمیخواهند از آنها عقب بمانند. اما چیزی که واقعاً حیاتی است، و این خبر خوب است، نکته مهم کاهش سرعت استقرار است نه توسعه.
شما میتوانید یک ابزار هوش مصنوعی بسیار پیچیده در آزمایشگاه خود داشته باشید تا زمانی که آن را در حوزه عمومی گسترش ندهید. این کمتر خطرناک است. مثل این است که شما این ویروس بسیار خطرناک را در آزمایشگاه خود دارید، اما آن را در فضای عمومی منتشر نمیکنید. خوبه. آنجا یک حاشیه امنیتی وجود دارد.
همان طور که غیرقابل تصور است، ویروسها را فراموش کنید، منظورم شرکتهای دارویی است که داروی قدرتمند جدیدی را توسعه دادهاند، آنها نمیتوانند بدون انجام برخی بررسیهای ایمنی شروع به فروش آن به مردم کنند. و اگر یک خودروی جدید بسازید، نمیتوانید آن را بدون انجام بررسیهای ایمنی در جادهها قرار دهید. باید در مورد هوش مصنوعی هم همینطور باشد. ما باید قبل از اینکه آن را در حوزه عمومی مستقر کنیم، تأثیر بالقوه آن را بر جامعه، فرهنگ، روانشناسی و اقتصاد جهان بهتر درک کنیم.
اما کمی دقیقتر باشید. بنابراین من یک مدل زبان بزرگ ایجاد میکنم. بهتر از GPT-4 است. من دوست دارم رقابت کنم. من باید به توسعه دهندگانم، سرمایهگذاران خطرپذیرم پول بدهم. آنها بازگشت میخواهند. من این نرم افزار را دارم، این نرم افزار به پزشکان در سراسر جهان کمک خواهد کرد. در واقع، پزشکان در آفریقا میتوانند مردم را درمان کنند. به کدام مرجع نظارتی باید مراجعه کنم؟ و من حتی نمیفهمم این کار چگونه کار میکند. افرادی که هوش مصنوعی را ساختهاند کاملاً مطمئن نیستند که چرا این روش کار میکند. کدام مقام دولتی قرار است به آن نگاه کند و بتواند بگوید، میدانید، این امن است؟
این یک مسئله بسیار بزرگ است. منظورم این است که ما نهادهای نظارتی را نداریم. این چیزی است که ما باید در اسرع وقت ایجاد کنیم. میدانید که میتوانید مقرراتی داشته باشید، بهعنوان مثال، که بگوید باید 20 درصد سرمایهگذاری در هوش مصنوعی را به ایمنی و مقررات اختصاص دهید، مثلاً نمیدانم.
ما مؤسساتی برای تنظیم هوش مصنوعی نداریم زیرا روی آنها سرمایهگذاری نکردهایم و به این دلیل که اگر اکنون دکترای علوم کامپیوتر را به پایان برسانید و در زمینه هوش مصنوعی تخصص داشته باشید و دولت به شما یک حقوق پیشنهاد دهد که به آنجا بیایید، من این کار را نمیکنم. بدانید، دپارتمان حقوقی، و صنعت خصوصی 10 بار یا صد برابر بیشتر به شما پیشنهاد میدهند که به آنها مراجعه کنید، آنگاه کاملاً واضح است که اکثر مردم به کجا خواهند رفت.
بنابراین ما نیاز به سرمایهگذاری بسیار بیشتری در ایمنی و مقررات داریم، و میتوانیم این کار را انجام دهیم، باز هم، یک قدم ساده و ساده از نظر مفهومی، اولین قدم ساده صرفاً داشتن مقرراتی است که مقدار ثابتی وجود دارد، یک درصد ثابت. هر سرمایه گذاری در هوش مصنوعی باید به سمت ایمنی باشد.
بنابراین شما یووال نوح هراری میگویید که اگر من دوباره مدل زبان بزرگ خود را داشته باشم، آن را با تیم توسعه دهندگانم استخدام کردهام. من باید از هر پنج آنها یکی را در ایمنی قرار دهم؟ و به برخی از مقامات گزارش کنم که من این کار را انجام دادهام؟
همانطور که وقتی یک خودرو را توسعه میدهید، افرادی دارید که در سریعترین زمان ممکن خودرو را خوب میکنند، اما افرادی دارید که روی ایمنی کار میکنند. چون میدانید، حتی اگر از خود اخلاقی نداشته باشید، میدانید که هیچ دولتی اجازه نمیدهد ماشین شما در جادهها بیاید مگر اینکه ایمن باشد.
اجازه دهید از شما بپرسم، زمان ما بسیار کم است، اما اجازه دهید آخرین مورد غیرممکن را برای پاسخ به یک سوال بزرگ از شما بپرسم، اگرچه شما به همه چیز خیلی خوب پاسخ میدهید. من عاشق صحبت با شما هستم، یووال نوح هراری. یکی از استدلالهایی که برای اینکه چرا غرب و دموکراسی باید به سرعت روی هوش مصنوعی پیش بروند این است که ما اساساً در یک مسابقه تسلیحاتی ژئوپلیتیکی هستیم و اگر دموکراسیها تلاش میکنند مطمئن شوند که همه واقعی هستند.
شما کمیسیونهای دولتی دارید، باید تأیید کنید که 20 درصد از زمان شما صرف مسائل ایمنی میشود. سپس هوش مصنوعی به روشی کاملاً متفاوت توسعه مییابد، و در واقع، رباتهای هوش مصنوعی و سیستمهای هوش مصنوعی ساخته شده در کشورهای غیر دموکراتیک به شدت قدرتمندتر میشوند و قدرت جهان را تغییر میدهند. آیا در مورد آن نگران هستید؟
خوب اول از همه، من در مورد توقف توسعه صحبت نمیکنم، بلکه استقرار است. اکنون اگر استقرار را تنظیم نکنیم، این قطعاً دموکراسی را بسیار سریعتر از هر طرحی توسط یک ظالم یا هر چیز دیگری نابود خواهد کرد. ما برای حفظ دموکراسی به مقررات نیاز داریم. اگر مقررات نداشته باشیم خودمان را نابود میکنیم.
و همچنین، در نظر بگیرید که دیکتاتوریها نیز از هوش مصنوعی جدید، به ویژه از مدلهای زبانی بزرگ جدید وحشت دارند، زیرا دیکتاتوریها برای مدیریت سیستم اطلاعاتی بر ترس تکیه میکنند. یک جوک از رهبر میگویی یا چیزی میگویی که آنها نمیخواهد شما را بشنود، میروید. حال چگونه میتوان یک هوش مصنوعی را ترساند؟
به هوش مصنوعی چه خواهید گفت؟ اگر این لطیفه را بگویید، اگر بتوانید درباره رهبر ما جوک بگویید، یا اگر این چیزی را از گذشته ما که قرار نیست کسی بداند، افشا کنید، به سراغ هوش مصنوعی میروید، آنها هیچ ایده ای ندارند که چگونه هوش مصنوعی را متوقف کنند. آنها میتوانند از دسترسی به هوش مصنوعی جلوگیری کنند، اما این کار بسیار دشوار خواهد بود و باعث عقب ماندن آنها میشود.
در واقع در این موقعیت خاص، دموکراسی، منظورم این است که در معرض تهدید هستند، اما آنها دانش بزرگتری برای آن دارند. آنها با مقدار معینی از آلودگی در سیستم اطلاعاتی خود بهتر میتوانند زنده بمانند. برای دیکتاتوریها بسیار سختتر است، زیرا آنها تمایل دارند به صدای مخالف صفر در شبکه اطلاعاتی خود تکیه کنند، و چگونه میتوان یک هوش مصنوعی را از بیان ایدههای مشکل ساز منع کرد. هیچ کس آن را نمیداند.
وقتمون تموم شده برای همه در ژنو امیدوارم که محیط اطلاعاتی شما را آلوده نکرده باشیم. احساس میکنم وقتی با یووال نوح هراری صحبت میکنیم، چیزی جز تمیز کردن محیط اطلاعاتی نیست. فوق العاده است، افتخار است، لذت بخش است، صحبت کردن با شما همیشه جذاب است. در این لحظه، بسیار مهم است. خیلی ممنونم.