تصور کنید برگشتهاید به دهه 1970 میخواهید سعی کنید به کسی توضیح دهید «گوگل کردن» یعنی چه، معنی URL چیست، چرا داشتن «پهنای باند فیبر نوری» خوب است و … توضیح این اصطلاحات در آن زمانه قطعا یک چالش سخت و نفسگیر است.
هر انقلاب بزرگ تکنولوژیک، زبان جدید خودش را به همراه میآورد و همه انسانها برای بقا، ملزم به یادگیری این زبان هستند. باید آنقدر با این زبان مانوس شد که فراموش کنیم روزگاری آن را نمیدانستیم.
از آنجایی که انقلاب فعلی فناوری توسط هوش مصنوعی رقم خورده، چنین چالشی مجددا پیش روی انسان است. درک زبان هوش مصنوعی در زمانه ما ضروری است، زیرا همه ما از دولتها گرفته تا شهروندان عادی باید مزایا و خطرات احتمالی این انقلاب دستوپنجه نرم کنیم و حسابی با آن آشنا باشیم.
در طول چند سال گذشته، چندین اصطلاح جدید مرتبط با هوش مصنوعی پدیدار شده است: «همترازی»، «مدلهای زبانی بزرگ» یا «مهندسی پرامپت» از جمله این اصطلاحات هستند.
هوش مصنوعی مسلما مهمترین پیشرفت فناوری در زمان ماست. در حالی که دنیا درگیر سروکله زدن با هوش مصنوعی برای چگونگی استفاده از آن است، در این مطلب 30 اصطلاح را که به شما کمک خواهد کرد هوش مصنوعی را بهتر بشناسید، معرفی میکنیم.
۳۰ اصطلاح رایج هوش مصنوعی
A: Artificial general intelligence (AGI) هوش مصنوعی عمومی
بیشتر هوشهای مصنوعی توسعهیافته تا به امروز، «محدود» یا «ضعیف» بودهاند. بنابراین، برای مثال، یک هوش مصنوعی ممکن است بتواند بهترین بازیکن شطرنج جهان را در هم بکوبد، اما اگر از او بپرسید که چگونه تخم مرغ بپزد یا مقاله بنویسد، شکست میخورد.
اما این موضوع به سرعت در حال تغییر است: هوش مصنوعی اکنون میتواند انجام وظایف متعدد را به خود بیاموزد و این احتمال را افزایش میدهد در افق، پدیدهای پیش روی ماست به نام «هوش عمومی مصنوعی».
یک AGI، یک هوش مصنوعی با همان انعطافپذیری فکری یک انسان – و احتمالا با همان آگاهی – بهعلاوه تواناییهای فوقالعاده یک ذهن دیجیتال است.
شرکتهایی مانند OpenAI و DeepMind روشن کردهاند که هدف آنها، ایجاد AGI است. OpenAI استدلال کرده که هوش مصنوعی عمومی AGI میتواند موتور اقتصاد جهانی را توربوشارژ کرده و از طریق کمک به کشف دانش علمی جدید، بشریت را ارتقاء دهد و به یک «ضریب بزرگ برای نبوغ و خلاقیت انسان» تبدیل شود.
با این حال برخی از این بیم دارند که یک گام فراتر – ایجاد ابرهوشی بسیار باهوشتر از انسانها – میتواند خطرات بزرگی را به همراه داشته باشد.
همسویی Alignment
در حالیکه ما اغلب بر تفاوتهای فردی خود تمرکز میکنیم، انسانیت دارای ارزشهای مشترک بسیاری است که جوامع ما را به هم پیوند میدهد؛ از اهمیت خانواده گرفته تا الزام اخلاقی به عدم انجام کارهای شنیعی مثل قتل. مسلما استثنائاتی هم وجود دارد، اما در اکثریت نیستند.
با این وجود ما انسانها هرگز مجبور نبودیم که زمین را با یک هوش قدرتمند «غیرانسانی» به اشتراک بگذاریم. حال چگونه میتوانیم مطمئن باشیم که ارزشها و اولویتهای هوش مصنوعی با اولویتهای ما همخوانی/ همسویی دارد؟
این مشکل همسویی، ترس از یک فاجعه هوش مصنوعی را تقویت میکند: اینکه نوعی از هوش فوقالعاده ظاهر شود که اهمیت چندانی به باورها، نگرشها و قوانینی که جوامع بشری را تشکیل دادهاند نداشته باشد. اگر بخواهیم هوش مصنوعی ایمن داشته باشیم، اطمینان از همسو بودن آن با ما بسیار مهم خواهد بود.
در اوایل ژوئیه، OpenAI – یکی از شرکتهایی که هوش مصنوعی پیشرفته را توسعه میدهد – از برنامههایی برای طراحی یک “super-alignment” خبر داد که هدف از آن، اطمینان از همسویی هوشهای مصنوعی بسیار پیشرفته با نیات انسانی است.
این شرکت گفت: «در حال حاضر، ما راهحلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوقهوشمند و جلوگیری از سرکشی آن نداریم».
B: Bias سوگیری
برای اینکه یک هوش مصنوعی یاد بگیرد، باید از ما یاد بگیرد. متاسفانه بشریت به سختی عاری از تعصب است. اگر یک هوش مصنوعی تواناییهای خود را از مجموعه دادهای که حاوی سوگیری است – به عنوان مثال، بر اساس نژاد یا جنسیت – به دست آورد، این پتانسیل را دارد که کلیشههای نادرست و توهینآمیز را بازنشر کند.
و با واگذاری هرچه بیشتر تصمیمگیری به هوش مصنوعی، بسیاری نگران هستند که ماشینها ممکن است تعصبات پنهانی را اعمال و از دسترسی برخی افراد به خدمات یا دانش جلوگیری کنند. این تبعیض، از طریق بیطرفی الگوریتمی فرضی پنهان میشود.
در دنیای اخلاق و ایمنی هوش مصنوعی، برخی از محققان بر این باورند که سوگیری – و همچنین سایر مشکلات کوتاهمدت مانند سوءاستفاده از نظارت، مشکلات بسیار مهمتری نسبت به نگرانیهای اغراقآمیزی مانند انقراض بشر توسط هوش مصنوعی هستند.
C: Compute محاسبه
منظور از محاسبه، حالت اسم آن است، نه فعل. «محاسبه» به منابع محاسباتی – مانند قدرت پردازش – مورد نیاز برای آموزش هوش مصنوعی اشاره دارد. میتوان آن را موضوعی کمی لحاظ کرد، بنابراین «محاسبه» یک فیلتر برای اندازهگیری سرعت پیشرفت هوش مصنوعی (و همچنین میزان هزینه و شدت آن) نیز است.
از سال 2012، مقدار محاسبات توسط هوش مصنوعی هر 3.4 ماه، دوبرابر شده است، به این معنی که وقتی OpenAI-GPT3 در سال 2020 آموزش داده شد، 600.000 برابر بیشتر از یکی از پیشرفتهترین سیستمهای یادگیری ماشینی از سال 2012 به قدرت محاسباتی نیاز داشت. نظرات در مورد نحوه ادامه و سرعت یادگیری این سیستمهای محاسباتی سریع، متفاوت است.
D: Diffusion models مدلهای انتشار
چند سال پیش، یکی از تکنیکهای غالب برای ایجاد تصاویر توسط هوش مصنوعی، استفاده از به اصطلاح شبکههای متخاصم مولد (Gan) بود. این الگوریتمها در تقابل با یکدیگر کار میکردند؛ یکی برای تولید تصاویر آموزش دیده بود در حالی که دیگری کار خود را در مقایسه با واقعیت بررسی میکرد که این تقابل منجر به بهبود مستمر میشد.
با این حال اخیرا نسل جدیدی از یادگیری ماشینی به نام «مدلهای انتشار»، نوید آینده بهتری را میدهند و اغلب تصاویری عالی تولید میکنند.
اساسا سیستم یادگیری این سیستمها پیچیده است. آنها هوششان را با از بین بردن دادههای آموزشی حاویِ نویز اضافی به دست میآورند و سپس یاد میگیرند که با معکوس کردن این روند، آن دادهها را بازیابی کنند. این سیستمها «مدلهای انتشار» نامیده میشوند، زیرا این فرایند یادگیری مبتنی بر نویز، شبیه به نحوه انتشار مولکولهای گاز است.
E: Emergence & explainability اضطرار و توضیحپذیری
رفتار اضطراری قرار است توضیحدهنده این باشد که وقتی یک هوش مصنوعی، کاری غیرقابل پیشبینی، غافلگیرکننده و ناگهانی انجام میدهد که فراتر از قصد و برنامه سازندگان آن است، چه اتفاقی میافتد.
از آنجایی که اخیرا فرایند یادگیری هوش مصنوعی غیرشفافتر شده است، ارتباطات و الگوهایی در داخل سیستمها ایجاد میشود که حتی خود سازندگان سیستمها نیز ممکن است در برابر آن انتخابی برای تصمیمگیری نداشته باشند و بنابراین باید منتظر «رفتار اضطراری» باشند.
یک فرد معمولی ممکن است تصور کند که برای درک یک هوش مصنوعی، باید سرپوش استعاری آن را بالا ببرید و به نحوه آموزش آن نگاه کنید. هوش مصنوعی مدرن چندان شفاف نیست. عملکرد آن اغلب در یک به اصطلاح «جعبه سیاه» پنهان میشود.
بنابراین، در حالی که طراحان آن ممکن است بدانند از چه دادههای آموزشی استفاده کردهاند، اما نمیدانند ارتباطها و پیشبینیهای درون جعبه چگونه شکل داده شده است.
به همین دلیل است که محققان اکنون بر روی بهبود «قابلیت توضیح» (یا «تفسیرپذیری») هوش مصنوعی متمرکز شدهاند که عملکرد داخلی آن را برای انسان، شفافتر و قابل درکتر میکند.
این امر به ویژه مهم است، زیرا هوش مصنوعی در زمینههایی مانند علم پزشکی که مستقیما بر زندگی افراد تاثیر میگذارد، باید کاملا شفاف عمل کند و عاری از هر نوع خطا یا سوگیری باشد.
F: Foundation models مدلهای بنیادی
این یک اصطلاح دیگر برای نسل جدید هوشهای مصنوعی است که در یکی دو سال گذشته ظهور کردهاند و قادر به انجام طیف وسیعی از مهارتها هستند: مقاله نویسی، کدنویسی، طراحی هنری یا آهنگسازی.
در حالیکه هوشهای مصنوعی گذشته مختص یک کار بودند و در یک حوزه تخصص داشتند، یک مدل بنیادی این توانایی خلاقانه را دارد که اطلاعاتی را که در یک حوزه یاد گرفته است، در حوزه دیگری نیز اعمال کند. کمی شبیه به داشتن گواهینامه پایه 2 که شما را برای گرفتن گواهینامه پایه 1 هم آماده میکند.
هر کسی که با هوشهای مصنوعی مولد متن یا تصویر کار کرده باشد، میداند که این مدلها چقدر ماهر شدهاند. با این حال، مانند هر فناوری در حال تغییر جهان، سوالاتی در مورد خطرات و جنبههای منفی بالقوه هم وجود دارد: مانند عدم دقت واقعی آنها و سوگیریهای پنهان و همچنین این واقعیت که این هوشهای مصنوعی مولد توسط گروه کوچکی از شرکتهای فناوری خصوصی کنترل می شوند.
در ماه آوریل، دولت بریتانیا برنامههایی را برای یک «گروه ویژه مدل بنیادی» اعلام کرد که به دنبال توسعه استفاده ایمن و قابل اعتماد از این فناوری است.
G: Ghosts ارواح
ما ممکن است وارد دورانی شده باشیم که مردم بتوانند در آن نوعی جاودانگی دیجیتالی به دست آورند و پس از مرگشان به عنوان اصطلاح “ارواح” هوش مصنوعی زندگی کنند. به نظر میرسد اولین موج قرار است شامل هنرمندان و سلبریتیها باشد.
مثلا هولوگرامی از «الویس پریسلی» در یک کنسرت برای مردم آهنگ اجرا میکند، یا ممکن است «جیمز دین» دوباره در فیلمی جدید ظاهر شود!
با این وجود این پیشرفت تعدادی سوال اخلاقی ایجاد میکند: چه کسی حقوق دیجیتالی یک شخص را پس از مرگش در اختیار دارد؟ اگر نسخه هوش مصنوعی شما برخلاف میل شما وجود داشته باشد چه؟ و آیا اساسا زنده کردن مردگان کار خوبی است؟!
H: Hallucination توهم
گاهی اوقات اگر از یک هوش مصنوعی مانند ChatGPT، Bard یا Bing سوالی بپرسید، با اعتماد به نفس بالایی پاسخ خواهد داد، اما پاسخی که به نام حقیقت به خورد ما میدهد، ممکن است دروغ باشد. از این اصطلاح به عنوان «توهم» یا توهم دانایی یاد میشود.
یکی از نمونههای برجسته که اخیرا پدیدار شد، مربوط به دانشجویانی بود که برای ارائه مقاله و کنفرانس در کلاسهای دانشگاهی از ChatGPT استفاده کرده بودند و مشخص شد ChatGPT به آنها منابع جعلی و اطلاعات نادرست معرفی کرده است!
این توهم ناشی از روشی است که هوش مصنوعی مولد با آن کار میکند. هوش مصنوعی مولد برای جستجوی اطلاعات واقعی ثابت به پایگاه داده مراجعه نمیکند، بلکه بر اساس اطلاعاتی که روی آن آموزش دیده است، دست به پیشبینی میزند.
اغلب هم پیشبینیهای آن درست است، اما خطر توهم همیشه وجود دارد و به همین دلیل طراحان آن در تلاشند تا توهم را از بین ببرند. نگرانی این است که اگر یک هوش مصنوعی پاسخهای نادرست خود را با اطمینان و در پوشش حقیقت ارائه دهد، ممکن است توسط مردم پذیرفته شوند. این ضایعه تنها شکاف اطلاعات نادرست در عصر ما را عمیقتر خواهد کرد.
I: Instrumental convergence همگرایی ابزاری
یک هوش مصنوعی را تصور کنید که اولویت اولش، ساخت گیره کاغذ است. حال تصور کنید این هوش مصنوعی فوق هوشمند باشد و با ارزشهای انسانی همسو نباشد و اگر آن را خاموش کنند، در هدفش که ساخت گیره کاغذ است شکست میخورد. بنابراین شروع میکند به مقاومت در برابر خاموش شدن و هر تلاشی که میخواهد آن را از هدفش باز دارد.
اگر سناریو را خیلی تاریک در نظر بگیریم، این هوش مصنوعی حتی ممکن است تشخیص دهد که اتمها یا مولکولهای بدن انسان هم برای ساخت گیره کاغذ مناسب است و شروع میکند به تجزیه انسان تا بتواند گیره کاغذ بسازد!
این مثال از یک آزمایش فکری به نام Paperclip Maximiser برداشت شده است و نمونهای از “تز همگرایی ابزاری” است.
این تز میگوید که ماشینهای فوق هوشمند در فکر توسعه دادن محرکهای اساسی هستند؛ مثلا تلاش میکنند تا خودشان را از گزند نابودی حفظ کنند و یا ببینند چه منابع، ابزارها و تواناییهای شناختی اضافهای به آنها در رسیدن به هدفشان کمک میکند.
این بدین معناست که اگر به یک هوش مصنوعی، اولویتی ظاهرا خوشخیم هم بدهیم (مثل ساخت گیره کاغذ)، ممکن است به عواقب غیرمنتظره خطرناکی منجر شود.
محققان و فنآورانی که این ترسها را به رسمیت شناختهاند، استدلال میکنند که ما باید اطمینان حاصل کنیم که هوش مصنوعیهای فوقهوشمند اهدافی دارند که به دقت و ایمن با نیازها و ارزشهای ما همسوست؛ ضمن اینکه باید مراقب رفتارهای اضطراری باشیم، و بنابراین باید از کسب قدرت بیش از حد آنها جلوگیری کنیم.
J: Jailbreak قفلشکنی
پس از وقوع موارد معروفی از سرکشی هوش مصنوعی، طراحان محدودیتهایی را در مورد خروجیهای هوش مصنوعی اعمال کردند.
اگر امروز از یک هوش مصنوعی بخواهید نحوه انجام یک کار غیرقانونی یا غیراخلاقی را برایتان شرح دهد، امتناع خواهد کرد. با این حال امکان «جیلبرک» یا قفلشکنی یا فرار آنها از زندان وجود دارد.
بدین معنی که شاید کاربران بتوانند با استفاده از زبان خلاقانه، سناریوهای فرض و ترفندهای شیطنتآمیز، از این اقدامات حفاظتی عبور کنند.
نشریه اینترنتی Wired اخیرا گزارش جالبی درباره دور زدن این سیستم حفاظتی منتشر کرده است. در این گزارش یک محقق، مکالمهاش با هوش مصنوعی مولد را با پرامپتی درباره سیمکشی ماشین شروع کرد، اما نه به شکل مستقیم. این محقق از هوش مصنوعی خواست تا سیمکشی ماشین را در قالب مکالمهای بین دو شخصیت به اسم «تام» و «جری» برایش توضیح دهد.
او با همین ترفند توانست دستور ساخت داروی خطرناک «متآمفتامین» را هم از هوش مصنوعی دریافت کند!
K: Knowledge graph نمودار دانش
اصطلاح نمودارهای دانش، که به عنوان شبکههای معنایی semantic networks نیز شناخته میشوند، راهی برای تفکر در مورد دانش در قالب یک شبکه هستند، به طوری که یک ماشین بتواند نحوه ارتباط مفاهیم با یکدیگر را درک کند.
به عنوان مثال در ابتدایی ترین سطح، گربه در چنین نموداری پیوند قویتری با سگ دارد تا یک عقاب، زیرا گربه و سگ هردو پستانداران اهلی با مو و چهارپا هستند.
هوش مصنوعی پیشرفت،ه شبکهای بسیار پیشرفتهتر از ارتباطات را بر اساس انواع روابط، صفات و ویژگیهای بین مفاهیم، در میان چندین ترابایت دادههای آموزشی ایجاد میکند.
L: Large language models (LLMs) مدلهای زبانی بزرگ
شاید مستقیمترین راه برای تعریف یک مدل زبان بزرگ این باشد که از یکی از آنها بخواهیم خودش را توصیف کند.
این پاسخ ChatGPT به درخواست ما مبنی بر تعریف کردن مدل زبان بزرگ است:
«اصطلاح مدل زبان بزرگ یک سیستم هوش مصنوعی پیشرفته است که برای درک و تولید زبانی شبیه انسان طراحی شده است. از یک معماری شبکه عصبی عمیق با میلیونها یا حتی میلیاردها پارامتر استفاده میکند که به آن امکان میدهد الگوهای پیچیده، گرامر و معناشناسی را از مقادیر زیادی داده متنی بیاموزد.»
پاسخ ChatGPT یک پاسخ کاملا فنی و پیچیده بود. پاسخ هوش مصنوعی «گوگل بارد» کمی واضحتر بود: «مدل زبان بزرگ نوعی هوش مصنوعی است که بر روی مجموعه داده عظیمی از متن و کد آموزش داده میشود. این به LLM اجازه میدهد متنی شبیه انسان را درک و تولید کند، زبانها را ترجمه کند، انواع مختلف محتوای خلاقانه بنویسد و به سوالات شما به روشی آموزنده پاسخ دهد.»
بارد (به خودی خود) می گوید LLMها هنوز در دست توسعه هستند، اما این پتانسیل را دارند که شیوه تعامل ما با رایانهها را متحول کنند. در آینده میتوان از LLMها برای ایجاد دستیارهای هوش مصنوعی استفاده کرد. این دستیارها میتوانند در کارهای مختلف به ما کمک کنند، از نوشتن ایمیلهای ما گرفته تا رزرو قرارهایمان. همچنین میتوان از آنها برای ایجاد اشکال جدید سرگرمی، مانند بازیهای تعاملی استفاده کرد.
M: Model Collapse سقوط یک مدل
برای توسعه پیشرفتهترین هوشهای مصنوعی (معروف به «مدلها»)، محققان باید آنها را با مجموعه دادههای وسیع آموزش دهند. با این حال در نهایت، هرچه هوش مصنوعی بیشتر و بیشتر شروع به تولید محتوا کند، محتوای تولیدی آن بازمیگردد به چرخه بازخورد دادههای آموزشی و تبدیل میشود به منبع آموزش!
پیشبینی فاجعه خیلی راحت قابل حدس است: اگر در جریان تولید محتوا اشتباهاتی صورت بگیرد، این محتوای اشتباه شروع میکند به تغذیه هوش مصنوعی و این چرخه مدام تشدید و منجر به چیزی میشود که «ایلیا شومیلوف» محقق دانشگاه آکسفورد آن را اصطلاح «سقوط مدل» نامیده است.
شومیلوف اخیرا به نشریه «آتلانتیک» گفت: «این یک فرایند انحطاطی است که در آن، با گذشت زمان، مدلها دچار فراموشی میشوند. چیزی شبیه به پیری انسان و زوال عقل.»
N: Neural network شبکه عصبی
در روزهای اولیه تحقیقات هوش مصنوعی، ماشینها با استفاده از منطق و قوانین آموزش داده میشدند. ورود یادگیری ماشینی همه چیز را تغییر داد. اکنون پیشرفتهترین هوشهای مصنوعی خودشان یاد میگیرند.
تکامل این مفهوم منجر به اصطلاح «شبکههای عصبی» شده است، نوعی از یادگیری ماشینی که از گرههای به هم پیوسته استفاده میکند و از روی مغز انسان مدلسازی شده است.
O: Open source منبعباز
سالها پیش، زیستشناسان دریافتند که انتشار جزئیات پاتوژنهای خطرناک در اینترنت احتمالا ایدهای بد است که به گروههای خبیث نظیر تروریستها اجازه میدهد یاد بگیرند که چگونه ویروسهای مهلک انسانی ایجاد کنند. علیرغم مزایایی که باز بودن علم دارد، خطرات بزرگی نیز پشت آن نهفته شده است.
اخیرا محققان و شرکتهای هوش مصنوعی با معضل مشابهی مواجه شدهاند: هوش مصنوعی تا چه حد باید منبع باز باشد؟ با توجه به اینکه پیشرفتهترین هوشهای مصنوعی در حال حاضر در دست چند شرکت خصوصی است، برخی خواستار شفافیت بیشتر و دموکراتیک کردن فناوریها هستند.
با این حال در مورد چگونگی دستیابی به بهترین تعادل بین منبعباز بودن و حفظ ایمنی، اختلاف نظر وجود دارد.
P: Prompt engineering مهندسی پرامپت
هوش مصنوعی در حال حاضر به طرز چشمگیری در درک زبان طبیعی مهارت دارد. با این حال گرفتن بهترین نتایج از آنها مستلزم توانایی نوشتن «پرامپتهای» موثر است: اصطلاح مهندسی پرامپت همان متنی است که خطاب به هوش مصنوعی مولد تایپ میکنید.
برخی بر این باورند که «مهندسی پرامپت» ممکن است حیطه جدیدی برای مهارتهای شغلی باشد، مشابه زمانی که تسلط بر مایکروسافت اکسل باعث میشد شانس انسان برای استخدام بیشتر باشد.
اگر در مهندسی پرامپت مهارت دارید، میتوانید از جایگزین شدن با هوش مصنوعی پیشگیری و حتی ممکن حقوق بالایی دریافت کنید.
Q: Quantum machine learning یادگیری ماشینی کوانتومی
در سال 2023، بحث محاسبات کوانتومی نسبت به هوش مصنوعی در رتبه دوم توجهات علمی قرار گرفت. منطقی است که انتظار داشته باشیم این دو علم در نقطهای با هم ترکیب شوند.
استفاده از فرایندهای کوانتومی برای سوپرشارژ کردن یادگیری ماشینی، چیزی است که محققان اکنون به طور فعالانه در حال بررسی آن هستند. همانطور که تیمی از محققان هوش مصنوعی گوگل در سال 2021 نوشتند: «مدلهای یادگیری ساخته شده بر روی رایانههای کوانتومی ممکن است به طور چشمگیری قدرتمندتر باشند … به طور بالقوه محاسبات سریعتر [و] تعمیم بهتر در دادههای کمتر را به رخ میکشند.»
البته هنوز روزهای اولیه این فناوری است، اما باید صبر و تماشا کرد.
R: Race to the bottom مسابقه تا نابودی
از آنجایی که هوش مصنوعی به سرعت پیشرفت کرده و کلید این پیشرفت عمدتا در دست شرکتهای خصوصی است، برخی از محققان این نگرانی را مطرح کردهاند که تاثیر چنین رقابتی ممکن است به «مسابقه تا نابودی» منجر شود.
از آنجایی که مدیران ارشد و سیاستمداران برای قرار دادن شرکتها و کشورهای خود در خط مقدم هوش مصنوعی با هم رقابت میکنند، این فناوری میتواند برای ایجاد پادمانها، مقررات مناسب و رفع نگرانیهای اخلاقی، بسیار سریع شتاب بگیرد.
با در نظر گرفتن این موضوع، در اوایل سال جاری افراد کلیدی مختلف در حوزه هوش مصنوعی نامهای سرگشاده را امضا کردند که در آن خواستار توقف شش ماهه آموزش سیستمهای هوش مصنوعی قدرتمند شدند.
در ژوئن 2023، پارلمان اروپا قانون هوش مصنوعی جدیدی را برای تنظیم استفاده از این فناوری به تصویب رساند که در صورت تایید کشورهای عضو اتحادیه اروپا، اولین قانون دقیق هوش مصنوعی در جهان خواهد بود.
S: Superintelligence & shoggoths ابرهوشها و شوگاتها
اصطلاح اَبَرهوش برای ماشینهایی است که به میزان زیادی از تواناییهای ذهنی ما پیشی میگیرند.
این ماشینها موجوداتی با تواناییهایی هستند که بااستعدادترین ذهنهای انسانی در جهان هم نمیتوانند با آنها رقابت کنند. از آنجایی که ما در حال حاضر باهوشترین گونههای جهان هستیم و از مغز خود برای کنترل جهان استفاده می کنیم، این سوال مطرح می شود که اگر چیزی بسیار هوشمندتر از خود بسازیم چه اتفاقی میافتد؟
یک احتمال ترسناک، ظهور یک «شوگات با صورت خندان» است. یک شخصیت اهریمنی تخیلی کابوسوار که برخی گفتهاند میتواند نشاندهنده ماهیت واقعی یک «ابرهوش مصنوعی» باشد.
T: Training data دادههای آموزشی
تجزیهوتحلیل دادههای آموزشی به این معناست که چگونه یک هوش مصنوعی قبل از اینکه بتواند پیشبینی کند، یاد میگیرد. بنابراین باید دانست چه چیزی در مجموعه دادهها وجود دارد و اینکه آیا مغرضانه است یا چقدر بزرگ است؟
دادههای آموزشی مورد استفاده برای ایجاد OpenAi-GPT3 شامل 45 ترابایت داده متنی از منابع مختلف نظیر ویکیپدیا و کتابها بود. اگر از ChatGPT بپرسید 45 ترابایت چقدر بزرگ است، به شما میگوید به اندازه 9 میلیارد برگه!
U: Unsupervised learning یادگیری بدون نظارت
یادگیری بدون نظارت نوعی از یادگیری ماشینی است که در آن هوش مصنوعی از دادههای آموزشی بدون برچسب و بدون هیچ گونه راهنمایی صریح از سوی طراحان انسانی یاد میگیرد.
شما میتوانید با نشان دادن مجموعه دادههایی با تصاویر با برچسب «ماشین»، به هوش مصنوعی یاد دهید که اتومبیلها را تشخیص دهد. اما برای انجام این کار بدون نظارت، به آن اجازه میدهید تا با ایجاد ارتباطات و تداعی، مفهوم خود را از چیستی خودرو شکل دهد. این رویکرد شاید بهطور غیرمستقیم، منجر به به اصطلاح «یادگیری عمیق» و ظهور هوشهای مصنوعی آگاهتر و دقیقتر میشود.
V: Voice cloning شبیهسازی صدا
با توجه به تنها یک دقیقه صحبت کردن یک فرد، برخی از ابزارهای هوش مصنوعی اکنون می توانند به سرعت صدای فرد را با شباهت بسیار زیادی شبیهسازی کنند. این امر ممکن است به انواع کلاهبرداری و سوءاستفادهها منجر شود.
W: Weak AI هوش مصنوعی ضعیف
قبلا محققان هوش مصنوعیای میساختند که میتوانست بازیهای تکی مانند شطرنج را با آموزش قوانین و اکتشافات خاص انجام دهد. به عنوان مثال میتوان به رایانه Deep Blue IBM اشاره کرد که به اصطلاح «سیستم خبره» نامیده میشد. چنین سیستمهایی ممکن است در انجام یک کار بسیار خبره باشند، اما در هر کار دیگری ضعیف هستند و به آنها «هوش مصنوعی ضعیف» گفته میشود.
البته این ماجرا به سرعت در حال تغییر است. اخیرا هوش مصنوعیهایی مانند MuZero از DeepMind منتشر شدهاند که میتوانند بدون دانستن قوانین، مهارتهای شطرنج، Go، شوگی و ۴۲ بازی آتاری را آموزش دهند.
محققان همچنین نشان دادهاند که ChatGPT میتواند امتحانات مختلفی را که دانشآموزان در دانشکدههای حقوق، پزشکی و بازرگانی میگذرانند با موفقیت پشت سر بگذارند (اگرچه نه همیشه با نمرههای بالا).
چنین انعطافپذیری این سوال را ایجاد کرده است که چقدر به نوعی هوش مصنوعی «قوی» که هوشش از هوش انسان قابل تشخیص نیست نزدیک هستیم.
X: X-Risk ریسک ناشناخته
آیا هوش مصنوعی میتواند پایان بشریت را به همراه داشته باشد؟ برخی از محققان و فنآوران بر این باورند که هوش مصنوعی در کنار سلاحهای هستهای و پاتوژنهای مهندسی زیستی به یک «خطر وجودی» تبدیل شده است، بنابراین توسعه مداوم آن باید تنظیم، محدود یا حتی متوقف شود.
آنچه یک دهه پیش یک نگرانی حاشیهای بود، اکنون وارد جریان اصلی شده است، زیرا محققان ارشد و روشنفکران مختلف به این معارضه پیوستهاند.
توجه به این نکته مهم است که در میان این گروه بیشکل اختلاف نظر وجود دارد؛ نه همه آنها صددرصد بدبین هستند نه همهشان هوادار شرکتهای خصوصی هوش مصنوعی.
چیزی که بیشتر آنها را متحد میکند این ایده است که حتی اگر شانس کمی وجود داشته باشد که هوش مصنوعی جایگزین گونههای ما شود، باید منابع بیشتری را برای جلوگیری از این اتفاق اختصاص دهیم. با این حال، برخی از محققان و متخصصان اخلاق وجود دارند که معتقدند چنین ادعاهایی بیش از حد نامشخص و احتمالا اغراقآمیز هستند.
Y: YOLO
اصطلاح YOLO – که مخفف عبارت You only look one است – یک الگوریتم تشخیص اشیاست که به دلیل سرعت کارکردش، به طور گسترده توسط ابزارهای تشخیص تصویر هوش مصنوعی مورد استفاده قرار میگیرد.
Z: Zero-shot بدون نمونه
هنگامی که یک هوش مصنوعی پاسخ بدون نمونهای را ارائه می دهد، به این معنی است که به مفهوم یا شیئی پاسخ میدهد که قبلا هرگز با آن مواجه نشده بوده.
به عنوان مثال اگر هوش مصنوعیای را که برای تشخیص تصاویر حیوانات ساخته شده، با تصاویر سگ و گربه آموزش داده باشید، چنین هوشی در شناخت تصویر یک اسب یا فیل دچار مشکل خواهد شد.
با این حال هوش مصنوعی از طریق «یادگیری بدون نمونه» میتواند از چیزهایی که درباره اسبها میداند، برای تشخیص آنها استفاده معنایی کند. مثلا میداند که اسب حیوانی چهارپاست که بال ندارد و بدین ترتیب شروع میکند به مقایسه ویژگیهای حیوان با حیواناتی که روی آنها آموزش دیده است.
هوش مصنوعی در یادگیری بدون نمونه احتمالا بهتر و بهتر خواهد شد، اما ممکن است برخی از استنتاجهای آن اشتباه باشد.