دو هفته پس از اینکه اعضای کنگره آمریکا «از سام آلتمن»، مدیر عامل OpenAI در مورد پتانسیل ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست، اخلال در انتخابات و از بین بردن مشاغل سوال کردند، او و دیگر همکارانش در صنعت هوش مصنوعی حالا با احتمال بسیار ترسناکتری زیر ذرهبین افکارعمومی قرار گرفتند: آخرالزمان هوش مصنوعی.
آلتمن مدیرعامل OpenAI که شرکتش پشت چتبات ChatGPT است، به «دمیس حسابیس» مدیر عامل گوگل دیپ مایند، «کوین اسکات» مدیر ارشد فناوری مایکروسافت و دهها پژوهشگر هوش مصنوعی و رهبران تجاری دیگر پیوست و در ماه گذشته نامهای در یک جمله امضا کرد که در آن آمده بود: «کاهش خطر انقراض بشریت توسط هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد.»
تناقض در سیلیکونولی بر سر هوش مصنوعی
علیرغم این هشدارها، وضعیت در «سیلیکون ولی» متناقض است: مدیران ارشد برخی از بزرگترین شرکتهای فناوری به طور همزمان به مردم میگویند که هوش مصنوعی پتانسیل انقراض انسان را دارد و در عین حال برای سرمایهگذاری و به کارگیری این فناوری در محصولاتشان رقابت میکنند؛ محصولاتی که قرار است کاربران میلیاردی داشته باشد.
این تناقض اخیرا در جاهای دیگر نیز ظاهر شده است. به عنوان مثال «ایلان ماسک» مدیرعامل تسلا، در یک مصاحبه تلویزیونی در ماه آوریل گفت که هوش مصنوعی میتواند منجر به “تخریب تمدن” شود. اما او همچنان عمیقا از طریق سرمایهگذاری در امپراتوری تجاری گسترده خود درگیر این فناوری است و گفته است که میخواهد رقیبی برای هوش مصنوعی مایکروسافت و گوگل ایجاد کند. به نظر دلیلی برای آخرالزمان هوش مصنوعی وجود ندارد.
حال هوش مصنوعی مهمتر از آینده آن
اما برخی از کارشناسان صنعت هوش مصنوعی میگویند که تمرکز توجه بر سناریوهای مربوط به آینده دور، ممکن است از آسیبهای فوریتری که نسل جدید ابزارهای قدرتمند هوش مصنوعی میتواند برای مردم و جوامع ایجاد کند، منحرف کند؛ از جمله انتشار اطلاعات نادرست، تداوم تعصبات و سوگیری و امکان تبعیض در خدمات مختلف.
«گری مارکوس» محقق هوش مصنوعی و استاد بازنشسته دانشگاه نیویورک که ماه گذشته در کنار آلتمن در برابر قانونگذاران کنگره شهادت داده بود، به CNN گفت: «به نظر میرسید انگیزهها مخلوط شده باشند. برخی از مدیران احتمالا واقعا نگران چیزی هستند که خود به راه انداختهاند، اما برخی دیگر ممکن است سعی کنند توجه را بر “احتمالات انتزاعی برای کاهش احتمالات فوریتر” متمرکز کنند.»
نمایندگان گوگل و OpenAI بلافاصله به درخواست اظهار شبکه CNN در این زمینه نظر پاسخ ندادند. سخنگوی مایکروسافت در بیانیهای اعلام کرد: «ما نسبت به آینده هوش مصنوعی خوشبین هستیم و فکر میکنیم پیشرفتهای هوش مصنوعی چالشهای بسیار بیشتری را نسبت به آنچه که وجود دارد حل میکند، اما ما همچنین بر این باور بودهایم که وقتی فناوریهایی ایجاد میکنید که میتوانند در جهان تغییر ایجاد کنند،. باید اطمینان حاصل کنید که از این فناوری به طور مسئولانه استفاده میشود.»
نگرانیهای اورژانسی در مقابل “سناریوهای علمی تخیلی خیالی”
برای «مارکوس» که منتقد هوش مصنوعی است، بزرگترین تهدید فوری از سوی هوش مصنوعی، تهدید دموکراسی ناشی از تولید عمده اطلاعات نادرست متقاعد کننده است.
ابزارهای مولد هوش مصنوعی مانند ChatGPT و Dall-E بر روی حجم وسیعی از دادههای آنلاین آموزش دیدهاند تا در پاسخ به درخواستهای کاربر، آثار و تصاویر نوشتاری قانعکننده ایجاد کنند.
برای مثال، با استفاده از این ابزارها میتوان به سرعت از سبک یا موضعگیری چهرههای عمومی تقلید کرد و علیه انتشار اطلاعات نادرست و متعصبانه موضع گرفت! یعنی هوش مصنوعی قادر است خودش به منتقد صوری خودش تبدیل شود و ضرب انتقادات را کم کند!
آلتمن در شهادت خود در کنگره همچنین گفت که پتانسیل هوش مصنوعی برای اقناع رایدهندگان و هدف قرار دادن اطلاعات نادرست، یکی از بزرگترین نگرانیهای اوست.
با این حال این نگرانی فقط محدود به مسائل اساسی نظر انتخابات نیست و حتی در موارد استفاده معمولیتر هم نگرانیهایی وجود دارد. ارائه پاسخهای اشتباه یا توهمآمیز و آلودگی به تعصبات نژادی و جنسیتی، از جمله ضعفهای فعلی چتباتهای هوش مصنوعی است که باید مورد توجه قرار گیرد.
«امیلی بندر» استاد دانشگاه واشنگتن و مدیر آزمایشگاه زبانشناسی محاسباتی این دانشگاه به CNN گفت که برخی از شرکتها ممکن است بخواهند توجه را از سوگیریهای موجود در دادههای خود و همچنین از ادعاهای نگرانکننده در مورد نحوه آموزش سیستمهایشان منحرف کنند.
بندر به نگرانیهای مربوط به مالکیت معنوی در مورد برخی از دادههایی که این سیستمها بر روی آنها آموزش میدهند و نیز ادعاهایی مبنی بر برونسپاری شرکتهایی که انجام برخی از بدترین بخشهای دادههای آموزشی را به کارگران کمدرآمد در خارج از کشور واگذار کردهاند، اشاره کرد.
بندر به سیانان گفت: «اگر مردم و قانونگذاران بتوانند روی این سناریوهای علمی تخیلی خیالی متمرکز شوند، شاید این شرکتها بتوانند برای مدت طولانیتری از دزدی دادهها و شیوههای استثماری فرار کنند.»
تاثیرگذاری بر قانونگذاران
قانونگذاران (آژانسهای دولتی آمریکا که مسئول تنظیم و نظارت بر بازارهای مالی هستند) ممکن است مخاطب واقعی پیام “روز رستاخیز صنعت فناوری” باشند.
طبق گفتههای بندر، مدیران اجرایی ادعا میکنند که خطرات عدم کنترل هوش مصنوعی بسیار بسیار خطرناک است و فقط آنها درک میکنند که چگونه باید این خطرات را مهار کرد. وگرنه باید منتظر آخرالزمان هوش مصنوعی بود.
نگاهی به مواضع و رفتارهای آلتمن قبل از حضور در مقابل کنگره نشاندهنده این است که این استراتژی ممکن است کارساز باشد. به نظر میرسد آلتمن با تکرار نگرانیهای قانونگذاران درباره هوش مصنوعی (فناوریای که بسیاری در کنگره هنوز در تلاش برای درک آن هستند ) و ارائه پیشنهادهایی برای نحوه رسیدگی به آن، دل نمایندگان را به دست آورد.
بندر اعتقاد دارد این رویکرد نسبت به مقررات “بسیار مشکلساز” خواهد بود. این رویکرد میتواند به صنعت نفوذ کرده، بر رگولاتورهایی که وظیفه دارند صنعت را در برابر اجتماع پاسخگو نگه دارند و همچنین صداها و نظرات سایر افراد و جوامعی را که تاثیرات منفی این فناوری را تجربه میکنند، حذف کند.
اگر رگولاتورها متقاعد شوند که فقط سازندگان فناوری هوش مصنوعی قادر به درک خطرات این فناوری و جلوگیری از این خطرات هستند، جامعه در معرض خطر سانسوری بزرگ و یک پنهانکاری عظیم قرار خواهد گرفت.
جان کلام این است که مدیران شرکتهای تولیدکننده هوش مصنوعی میخواهند این فناوری را پیچیدهتر از درک عامه و خود را باهوشتر از چیزی که هستند جلوه دهند تا در آینده همچنان زوایای مختلف این فناوری را تحت کنترل خود داشته باشند. آیا واقعا آخرالزمان هوش مصنوعی پیش خواهد آمد؟