مصاحبه با یووال نوح هراری

مصاحبه با یووال نوح هراری ؛ هوش مصنوعی و دموکراسی

سرفصل‌های مقاله

اخیرا نیک تامسون با دانشمند مشهور یووال نوح هراری در کنفرانس “AI for Good” که توسط سازمان ملل در ژنو برگزار شد، مصاحبه کرده است. در این مصاحبه در مورد خطرات دموکراسی هوش مصنوعی مولد و برخی از چارچوب‌های بالقوه برای به حداکثر رساندن مزایای بالقوه و به حداقل رساندن آسیب‌های احتمالی صحبت شده است.

در ادامه به صورت کامل متن این مصاحبه را می‌توانید مشاهده کنید.

گفتگو با یووال نوح هراری در مورد هوش مصنوعی

یووال نوح هراری

یووال نوح هراری، خوشحالم که دوباره شما را می‌بینم، و خوشحالم که با شما مصاحبه می‌کنم. این یک لحظه تغییر شدید در موضوعی است که شما در مورد آن چیزهای زیادی می‌دانید. بنابراین اولین سوال من از شما: در شش ماه گذشته اتفاقات زیادی در هوش مصنوعی افتاده است.
شما سال‌ها از هوش مصنوعی شکایت کرده‌اید. شما سال‌ها در مورد خطرات دموکراسی هوش مصنوعی هشدار داده‌اید. چه چیزی در نقد یا نگرانی شما تغییر کرده است، زیرا در چند ماه گذشته شاهد انفجار مدل‌های زبان بزرگ و هوش مصنوعی مولد بودیم.

فکر می‌کنم همه چیز خیلی سریع‌تر از آنچه ما انتظار داشتیم اتفاق می‌افتد، حتی افراد حاضر در این زمینه. من فکر می‌کنم همه باید واقعاً سه چیز را در مورد هوش مصنوعی بدانند. می‌دانید که چیزهای زیادی در مورد هوش مصنوعی می‌شنوید اما واقعاً باید سه چیز را بدانید.

اول از همه، این اولین ابزار در تاریخ بشر است که می‌تواند به تنهایی تصمیم بگیرد. این چیزی شبیه هیچ اختراع قبلی در تاریخ نیست. بمب‌های اتمی نمی‌توانستند تصمیم بگیرند، نمی‌توانستند تصمیم بگیرند که چه کسی را بمباران کنند. هوش مصنوعی می‌تواند به تنهایی تصمیم بگیرد.

دومین چیزی که همه باید بدانند این است که این اولین ابزار در تاریخ بشر است که می‌تواند به تنهایی ایده‌های جدیدی ایجاد کند. یک ماشین چاپ یا رادیو، نمی‌توانستند ایده بسازند. آنها می‌توانند همه ایده‌های ما را منتشر کنند، اما هوش مصنوعی می‌تواند ایده‌های کاملاً جدیدی ایجاد کند.

و سومین چیزی که همه باید بدانند این است که انسان‌ها در استفاده از ابزارهای جدید، فن‌آوری‌های جدید خیلی خوب نیستند. ما اغلب اشتباه می‌کنیم. یادگیری نحوه استفاده از ابزارهای جدید به شیوه‌ای سودمند و عاقلانه به زمان نیاز دارد. می‌دانید اگر به انقلاب صنعتی نگاه کنید، که بسیاری از مردم انقلاب فعلی هوش مصنوعی را با انقلاب صنعتی مقایسه می‌کنند، این یک مقایسه کاملاً بدبینانه است زیرا زمانی که انسان‌ها یاد گرفتند چگونه از ابزار انقلاب صنعتی استفاده کنند، اشتباهات وحشتناکی در این زمینه مرتکب شدیم.

مسیر. امپریالیسم، نازیسم، کمونیسم، دو جنگ جهانی، همه اشتباهاتی در راه یادگیری نحوه استفاده از ابزار انقلاب صنعتی بودند. اگر اشتباهات مشابهی را با هوش مصنوعی مرتکب شویم، این واقعاً می‌تواند پایان نوع بشر باشد. و آخرین نکته این است که در حالی که ما در حال یادگیری استفاده از هوش مصنوعی هستیم، آن هم در حال یادگیری استفاده از ما است. بنابراین ما حتی نسبت به هر اختراع قبلی زمان کمتر و حاشیه کمتری برای خطا داریم.

من می‌خواهم بیشتر این گفتگو را صرف صحبت در مورد چگونگی تنظیم هوش مصنوعی، تعیین مسیر، کاهش خطرات، سیاست‌هایی کنم که افراد بسیار باهوشی که این را تماشا می‌کنند باید به آن فکر کنند. اما بیایید به آن نقطه برگردیم که از برخی جهات شما می‌گویید خطرناک‌ترین فناوری ایجاد شده است.

در حال حاضر، هوش مصنوعی نمی‌تواند بیوگرافی یووال نوح هراری را ارائه دهد. درست؟ اگر به Open AI بروم و تایپ کنم تا یک بیو به من بدهم، همه چیز اشتباه می‌شود. انواع اشتباهات را مرتکب می‌شود. در واقع هنوز آنقدرها خوب نیست. چقدر طول می‌کشد تا از این نوع چت‌بات آشفته و جوان، تبدیل به نابودگر مرگ دنیاهایی شود که در بدترین حالت شاهد آن هستیم؟

من فکر نمی‌کنم که واقعاً به وسیله نابودگر دنیاها تبدیل شود. خطرات هوش مصنوعی لزوماً از این دستگاه فوق هوشمند که می‌تواند همه چیز را پیش بینی و انجام دهد، نشات نمی‌گیرد. همچنین می‌تواند از هوش مصنوعی بدوی که قبلاً در اختیار داریم باشد. اگر به عنوان مثال به رسانه‌های اجتماعی فکر کنیم، و به روشی که اعتماد عمومی ما را از بین برده است، نهادهای دموکراتیک را در سراسر جهان از بین برده است. این کار با هوش مصنوعی بسیار بسیار ابتدایی انجام شد.

اساساً، در رسانه‌های اجتماعی، شما این الگوریتم‌ها را دارید که سعی می‌کنند تعامل کاربران را به حداکثر برسانند، و الگوریتم‌هایی که عمدتاً با آزمون و خطا کشف می‌شوند، ساده‌ترین راه برای افزایش تعامل کاربر، جلب توجه مردم، گسترش خشم است. این چیزی است که هوش مصنوعی در مورد طبیعت انسان کشف کرد و از آن استفاده کرد و اعتماد و موسسات و گفتگوهای عمومی را در بسیاری از کشورها از بین برد.

ما اکنون با وضعیت تاریکی روبرو هستیم که در آن پیچیده‌ترین فناوری اطلاعات در تاریخ را داریم و مردم دیگر نمی‌توانند در مورد چیزی به توافق برسند. مردم دیگر نمی‌توانند گفتگوی معناداری داشته باشند. و این با هوش مصنوعی بسیار بدوی است.

بنابراین لازم نیست منتظر این داستان علمی تخیلی یا تمام هوش مصنوعی قدرتمند باشیم تا نگران باشیم. البته در حال حاضر هوش مصنوعی نیز می‌تواند برای خوبی استفاده شود. این خطرناک‌ترین فناوری است که تا به حال ایجاد کرده‌‌ایم، و همچنین به طور بالقوه سودمندترین فناوری است که تا به حال ایجاد کرده‌ایم. بنابراین بحث ممنوعیت کامل آن نیست که به هر حال غیرممکن است، بلکه در مورد تنظیم آن است تا مطمئن شوید که برای خیر استفاده می‌شود نه برای شر. حالا چقدر وقت داریم، چقدر وقت داریم؟

گفتنش خیلی سخته، می‌دانید 10 سال پیش، هوش مصنوعی وجود نداشت. مردم در مورد آن صحبت می‌کردند، اما هنوز برای بیشتر مردم، این یک داستان علمی تخیلی بود. کل انقلاب هوش مصنوعی کمتر از 10 سال است. این تازه اولین قدم‌های کودک خود را می‌گذارد، اما با چنان سرعتی در حال پیشرفت است که هیچ‌کس نمی‌داند مثلاً 10 سال دیگر کجا خواهیم بود.

آیا کاری وجود دارد که بتوان سرعت تکامل را تغییر داد؟ می‌دانم که یووال نوح هراری نامه‌ای را امضا کرده‌اید که می‌گوید اگر می‌خواهید یک مدل زبان بزرگتر از GPT-4 بسازید، توسعه هوش مصنوعی را متوقف کنید. تا جایی که من می‌دانم این تاثیری نداشت یا حداقل رفتار OpenAI یا رفتار مایکروسافت را تغییر نداد. برای تغییر سرعت انجام این کار چه اتفاقی باید بیفتد؟

من فکر می‌کنم ما باید بین توسعه و استقرار تفاوت قائل شویم. متوقف کردن توسعه بسیار دشوار است زیرا ما این ذهنیت مسابقه تسلیحاتی را داریم. مردم از برخی از خطرات آگاه هستند اما نمی‌خواهند از آنها عقب بمانند. اما چیزی که واقعاً حیاتی است، و این خبر خوب است، نکته مهم کاهش سرعت استقرار است نه توسعه.

شما می‌توانید یک ابزار هوش مصنوعی بسیار پیچیده در آزمایشگاه خود داشته باشید تا زمانی که آن را در حوزه عمومی گسترش ندهید. این کمتر خطرناک است. مثل این است که شما این ویروس بسیار خطرناک را در آزمایشگاه خود دارید، اما آن را در فضای عمومی منتشر نمی‌کنید. خوبه. آنجا یک حاشیه امنیتی وجود دارد.

همان طور که غیرقابل تصور است، ویروس‌ها را فراموش کنید، منظورم شرکت‌های دارویی است که داروی قدرتمند جدیدی را توسعه داده‌اند، آنها نمی‌توانند بدون انجام برخی بررسی‌های ایمنی شروع به فروش آن به مردم کنند. و اگر یک خودروی جدید بسازید، نمی‌توانید آن را بدون انجام بررسی‌های ایمنی در جاده‌ها قرار دهید. باید در مورد هوش مصنوعی هم همینطور باشد. ما باید قبل از اینکه آن را در حوزه عمومی مستقر کنیم، تأثیر بالقوه آن را بر جامعه، فرهنگ، روانشناسی و اقتصاد جهان بهتر درک کنیم.

اما کمی دقیق‌تر باشید. بنابراین من یک مدل زبان بزرگ ایجاد می‌کنم. بهتر از GPT-4 است. من دوست دارم رقابت کنم. من باید به توسعه دهندگانم، سرمایه‌گذاران خطرپذیرم پول بدهم. آنها بازگشت می‌خواهند. من این نرم افزار را دارم، این نرم افزار به پزشکان در سراسر جهان کمک خواهد کرد. در واقع، پزشکان در آفریقا می‌توانند مردم را درمان کنند. به کدام مرجع نظارتی باید مراجعه کنم؟ و من حتی نمیفهمم این کار چگونه کار می‌کند. افرادی که هوش مصنوعی را ساخته‌اند کاملاً مطمئن نیستند که چرا این روش کار می‌کند. کدام مقام دولتی قرار است به آن نگاه کند و بتواند بگوید، می‌دانید، این امن است؟

این یک مسئله بسیار بزرگ است. منظورم این است که ما نهادهای نظارتی را نداریم. این چیزی است که ما باید در اسرع وقت ایجاد کنیم. می‌دانید که می‌توانید مقرراتی داشته باشید، به‌عنوان مثال، که بگوید باید 20 درصد سرمایه‌گذاری در هوش مصنوعی را به ایمنی و مقررات اختصاص دهید، مثلاً نمی‌دانم.

ما مؤسساتی برای تنظیم هوش مصنوعی نداریم زیرا روی آنها سرمایه‌گذاری نکرده‌ایم و به این دلیل که اگر اکنون دکترای علوم کامپیوتر را به پایان برسانید و در زمینه هوش مصنوعی تخصص داشته باشید و دولت به شما یک حقوق پیشنهاد دهد که به آنجا بیایید، من این کار را نمی‌کنم. بدانید، دپارتمان حقوقی، و صنعت خصوصی 10 بار یا صد برابر بیشتر به شما پیشنهاد می‌دهند که به آنها مراجعه کنید، آنگاه کاملاً واضح است که اکثر مردم به کجا خواهند رفت.

بنابراین ما نیاز به سرمایه‌گذاری بسیار بیشتری در ایمنی و مقررات داریم، و می‌توانیم این کار را انجام دهیم، باز هم، یک قدم ساده و ساده از نظر مفهومی، اولین قدم ساده صرفاً داشتن مقرراتی است که مقدار ثابتی وجود دارد، یک درصد ثابت. هر سرمایه گذاری در هوش مصنوعی باید به سمت ایمنی باشد.

بنابراین شما یووال نوح هراری می‌گویید که اگر من دوباره مدل زبان بزرگ خود را داشته باشم، آن را با تیم توسعه دهندگانم استخدام کرده‌ام. من باید از هر پنج آنها یکی را در ایمنی قرار دهم؟ و به برخی از مقامات گزارش کنم که من این کار را انجام داده‌ام؟

همان‌طور که وقتی یک خودرو را توسعه می‌دهید، افرادی دارید که در سریع‌ترین زمان ممکن خودرو را خوب می‌کنند، اما افرادی دارید که روی ایمنی کار می‌کنند. چون می‌دانید، حتی اگر از خود اخلاقی نداشته باشید، می‌دانید که هیچ دولتی اجازه نمی‌دهد ماشین شما در جاده‌ها بیاید مگر اینکه ایمن باشد.

اجازه دهید از شما بپرسم، زمان ما بسیار کم است، اما اجازه دهید آخرین مورد غیرممکن را برای پاسخ به یک سوال بزرگ از شما بپرسم، اگرچه شما به همه چیز خیلی خوب پاسخ می‌دهید. من عاشق صحبت با شما هستم، یووال نوح هراری. یکی از استدلال‌هایی که برای اینکه چرا غرب و دموکراسی باید به سرعت روی هوش مصنوعی پیش بروند این است که ما اساساً در یک مسابقه تسلیحاتی ژئوپلیتیکی هستیم و اگر دموکراسی‌ها تلاش می‌کنند مطمئن شوند که همه واقعی هستند.

شما کمیسیون‌های دولتی دارید، باید تأیید کنید که 20 درصد از زمان شما صرف مسائل ایمنی می‌شود. سپس هوش مصنوعی به روشی کاملاً متفاوت توسعه می‌یابد، و در واقع، ربات‌های هوش مصنوعی و سیستم‌های هوش مصنوعی ساخته شده در کشورهای غیر دموکراتیک به شدت قدرتمندتر می‌شوند و قدرت جهان را تغییر می‌دهند. آیا در مورد آن نگران هستید؟

خوب اول از همه، من در مورد توقف توسعه صحبت نمی‌کنم، بلکه استقرار است. اکنون اگر استقرار را تنظیم نکنیم، این قطعاً دموکراسی را بسیار سریعتر از هر طرحی توسط یک ظالم یا هر چیز دیگری نابود خواهد کرد. ما برای حفظ دموکراسی به مقررات نیاز داریم. اگر مقررات نداشته باشیم خودمان را نابود می‌کنیم.

و همچنین، در نظر بگیرید که دیکتاتوری‌ها نیز از هوش مصنوعی جدید، به ویژه از مدل‌های زبانی بزرگ جدید وحشت دارند، زیرا دیکتاتوری‌ها برای مدیریت سیستم اطلاعاتی بر ترس تکیه می‌کنند. یک جوک از رهبر می‌گویی یا چیزی می‌گویی که آنها نمی‌خواهد شما را بشنود، می‌روید. حال چگونه می‌توان یک هوش مصنوعی را ترساند؟

به هوش مصنوعی چه خواهید گفت؟ اگر این لطیفه را بگویید، اگر بتوانید درباره رهبر ما جوک بگویید، یا اگر این چیزی را از گذشته ما که قرار نیست کسی بداند، افشا کنید، به سراغ هوش مصنوعی می‌‌روید، آنها هیچ ایده ای ندارند که چگونه هوش مصنوعی را متوقف کنند. آنها می‌توانند از دسترسی به هوش مصنوعی جلوگیری کنند، اما این کار بسیار دشوار خواهد بود و باعث عقب ماندن آنها می‌شود.

در واقع در این موقعیت خاص، دموکراسی، منظورم این است که در معرض تهدید هستند، اما آنها دانش بزرگتری برای آن دارند. آنها با مقدار معینی از آلودگی در سیستم اطلاعاتی خود بهتر می‌توانند زنده بمانند. برای دیکتاتوری‌‌ها بسیار سخت‌تر است، زیرا آنها تمایل دارند به صدای مخالف صفر در شبکه اطلاعاتی خود تکیه کنند، و چگونه می‌توان یک هوش مصنوعی را از بیان ایده‌های مشکل ساز منع کرد. هیچ کس آن را نمی‌داند.

وقتمون تموم شده برای همه در ژنو امیدوارم که محیط اطلاعاتی شما را آلوده نکرده باشیم. احساس می‌کنم وقتی با یووال نوح هراری صحبت می‌کنیم، چیزی جز تمیز کردن محیط اطلاعاتی نیست. فوق العاده است، افتخار است، لذت بخش است، صحبت کردن با شما همیشه جذاب است. در این لحظه، بسیار مهم است. خیلی ممنونم.

نوید رضایی
نوید رضایی