هوش مصنوعی
, ,

آخرالزمان هوش مصنوعی همین‌جاست!

سرفصل‌های مقاله

دو هفته پس از این‌که اعضای کنگره آمریکا «از سام آلتمن»، مدیر عامل OpenAI در مورد پتانسیل ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست، اخلال در انتخابات و از بین بردن مشاغل سوال کردند، او و دیگر همکارانش در صنعت هوش مصنوعی حالا با احتمال بسیار ترسناک‌تری زیر ذره‌بین افکارعمومی قرار گرفتند: آخرالزمان هوش مصنوعی.

آلتمن مدیرعامل OpenAI که شرکتش پشت چت‌بات ChatGPT است، به «دمیس حسابیس» مدیر عامل گوگل دیپ مایند، «کوین اسکات» مدیر ارشد فناوری مایکروسافت و ده‌ها پژوهشگر هوش مصنوعی و رهبران تجاری دیگر پیوست و در ماه گذشته نامه‌ای در یک جمله امضا کرد که در آن آمده بود: «کاهش خطر انقراض بشریت توسط هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.»

تناقض در سیلیکون‌ولی بر سر هوش مصنوعی

هوش مصنوعی
تناقض در سیلیکون‌ولی بر سر هوش مصنوعی

علی‌رغم این هشدارها، وضعیت در «سیلیکون ولی» متناقض است: مدیران ارشد برخی از بزرگ‌ترین شرکت‌های فناوری به طور همزمان به مردم می‌گویند که هوش مصنوعی پتانسیل انقراض انسان را دارد و در عین حال برای سرمایه‌گذاری و به کارگیری این فناوری در محصولات‌شان رقابت می‌کنند؛ محصولاتی که قرار است کاربران میلیاردی داشته باشد.

این تناقض اخیرا در جاهای دیگر نیز ظاهر شده است. به عنوان مثال «ایلان ماسک» مدیرعامل تسلا، در یک مصاحبه تلویزیونی در ماه آوریل گفت که هوش مصنوعی می‌تواند منجر به “تخریب تمدن” شود. اما او همچنان عمیقا از طریق سرمایه‌گذاری در امپراتوری تجاری گسترده خود درگیر این فناوری است و گفته است که می‌خواهد رقیبی برای هوش مصنوعی مایکروسافت و گوگل ایجاد کند. به نظر دلیلی برای آخرالزمان هوش مصنوعی وجود ندارد.

حال هوش مصنوعی مهم‌تر از آینده آن

اما برخی از کارشناسان صنعت هوش مصنوعی می‌گویند که تمرکز توجه بر سناریوهای مربوط به آینده دور، ممکن است از آسیب‌های فوری‌تری که نسل جدید ابزارهای قدرتمند هوش مصنوعی می‌تواند برای مردم و جوامع ایجاد کند، منحرف کند؛ از جمله انتشار اطلاعات نادرست، تداوم تعصبات و سوگیری و امکان تبعیض در خدمات مختلف.

«گری مارکوس» محقق هوش مصنوعی و استاد بازنشسته دانشگاه نیویورک که ماه گذشته در کنار آلتمن در برابر قانون‌گذاران کنگره شهادت داده بود، به CNN گفت: «به نظر می‌رسید انگیزه‌ها مخلوط شده باشند. برخی از مدیران احتمالا واقعا نگران چیزی هستند که خود به راه انداخته‌اند، اما برخی دیگر ممکن است سعی کنند توجه را بر “احتمالات انتزاعی برای کاهش احتمالات فوری‌تر” متمرکز کنند.»

نمایندگان گوگل و OpenAI بلافاصله به درخواست اظهار شبکه CNN در این زمینه نظر پاسخ ندادند. سخنگوی مایکروسافت در بیانیه‌ای اعلام کرد: «ما نسبت به آینده هوش مصنوعی خوش‌بین هستیم و فکر می‌کنیم پیشرفت‌های هوش مصنوعی چالش‌های بسیار بیشتری را نسبت به آن‌چه که وجود دارد حل می‌کند، اما ما همچنین بر این باور بوده‌ایم که وقتی فناوری‌هایی ایجاد می‌کنید که می‌توانند در جهان تغییر ایجاد کنند،. باید اطمینان حاصل کنید که از این فناوری به طور مسئولانه استفاده می‌شود.»

نگرانی‌های اورژانسی در مقابل “سناریوهای علمی تخیلی خیالی”

برای «مارکوس» که منتقد هوش مصنوعی است، بزرگ‌ترین تهدید فوری از سوی هوش مصنوعی، تهدید دموکراسی ناشی از تولید عمده اطلاعات نادرست متقاعد کننده است.

ابزارهای مولد هوش مصنوعی مانند ChatGPT و Dall-E بر روی حجم وسیعی از داده‌های آنلاین آموزش دیده‌اند تا در پاسخ به درخواست‌های کاربر، آثار و تصاویر نوشتاری قانع‌کننده ایجاد کنند. 

برای مثال، با استفاده از این ابزارها می‌توان به سرعت از سبک یا موضع‌گیری چهره‌های عمومی تقلید کرد و علیه انتشار اطلاعات نادرست و متعصبانه موضع گرفت! یعنی هوش مصنوعی قادر است خودش به منتقد صوری خودش تبدیل شود و ضرب انتقادات را کم کند!

آلتمن در شهادت خود در کنگره همچنین گفت که پتانسیل هوش مصنوعی برای اقناع رای‌دهندگان و هدف قرار دادن اطلاعات نادرست، یکی از بزرگ‌ترین نگرانی‌های اوست.

با این حال این نگرانی فقط محدود به مسائل اساسی نظر انتخابات نیست و حتی در موارد استفاده معمولی‌تر هم نگرانی‌هایی وجود دارد. ارائه پاسخ‌های اشتباه یا توهم‌آمیز و آلودگی به تعصبات نژادی و جنسیتی، از جمله ضعف‌های فعلی چت‌بات‌های هوش مصنوعی است که باید مورد توجه قرار گیرد.

«امیلی بندر» استاد دانشگاه واشنگتن و مدیر آزمایشگاه زبان‌شناسی محاسباتی این دانشگاه به CNN گفت که برخی از شرکت‌ها ممکن است بخواهند توجه را از سوگیری‌های موجود در داده‌های خود و همچنین از ادعاهای نگران‌کننده در مورد نحوه آموزش سیستم‌های‌شان منحرف کنند.

بندر به نگرانی‌های مربوط به مالکیت معنوی در مورد برخی از داده‌هایی که این سیستم‌ها بر روی آن‌ها آموزش می‌دهند و نیز ادعاهایی مبنی بر برون‌سپاری شرکت‌هایی که انجام برخی از بدترین بخش‌های داده‌های آموزشی را به کارگران کم‌درآمد در خارج از کشور واگذار کرده‌اند، اشاره کرد.

بندر به سی‌ان‌ان گفت: «اگر مردم و قانون‌گذاران بتوانند روی این سناریوهای علمی تخیلی خیالی متمرکز شوند، شاید این شرکت‌ها بتوانند برای مدت طولانی‌تری از دزدی داده‌ها و شیوه‌های استثماری فرار کنند.»

تاثیرگذاری بر قانون‌گذاران

قانون‌گذاران (آژانس‌های دولتی آمریکا که مسئول تنظیم و نظارت بر بازارهای مالی هستند) ممکن است مخاطب واقعی پیام “روز رستاخیز صنعت فناوری” باشند.

طبق گفته‌های بندر، مدیران اجرایی ادعا می‌کنند که خطرات عدم کنترل هوش مصنوعی بسیار بسیار خطرناک است و فقط آن‌ها درک می‌کنند که چگونه باید این خطرات را مهار کرد. وگرنه باید منتظر آخرالزمان هوش مصنوعی بود.

نگاهی به مواضع و رفتارهای آلتمن قبل از حضور در مقابل کنگره نشان‌دهنده این است که این استراتژی ممکن است کارساز باشد. به نظر می‌رسد آلتمن با تکرار نگرانی‌های قانون‌گذاران درباره هوش مصنوعی (فناوری‌ای که بسیاری در کنگره هنوز در تلاش برای درک آن هستند ) و ارائه پیشنهادهایی برای نحوه رسیدگی به آن، دل نمایندگان را به دست آورد.

بندر اعتقاد دارد این رویکرد نسبت به مقررات “بسیار مشکل‌ساز” خواهد بود. این رویکرد می‌تواند به صنعت نفوذ کرده، بر رگولاتورهایی که وظیفه دارند صنعت را در برابر اجتماع پاسخ‌گو نگه دارند و همچنین صداها و نظرات سایر افراد و جوامعی را که تاثیرات منفی این فناوری را تجربه می‌کنند، حذف کند.

اگر رگولاتورها متقاعد شوند که فقط سازندگان فناوری هوش مصنوعی قادر به درک خطرات این فناوری و جلوگیری از این خطرات هستند، جامعه در معرض خطر سانسوری بزرگ و یک پنهان‌کاری عظیم قرار خواهد گرفت.

جان کلام این است که مدیران شرکت‌های تولیدکننده هوش مصنوعی می‌خواهند این فناوری را پیچیده‌تر از درک عامه و خود را باهوش‌تر از چیزی که هستند جلوه دهند تا در آینده همچنان زوایای مختلف این فناوری را تحت کنترل خود داشته باشند. آیا واقعا آخرالزمان هوش مصنوعی پیش خواهد آمد؟

مهران
مهران