اصطلاح
تحقیقات درباره هوش مصنوعی

30 اصطلاح رایج برای درک بهتر هوش مصنوعی

سرفصل‌های مقاله

تصور کنید برگشته‌اید به دهه 1970 می‌خواهید سعی کنید به کسی توضیح دهید «گوگل کردن» یعنی چه، معنی URL چیست، چرا داشتن «پهنای باند فیبر نوری» خوب است و … توضیح این اصطلاحات در آن زمانه قطعا یک چالش سخت و نفس‌گیر است.

هر انقلاب بزرگ تکنولوژیک، زبان جدید خودش را به همراه می‌آورد و همه انسان‌ها برای بقا، ملزم به یادگیری این زبان هستند. باید آن‌قدر با این زبان مانوس شد که فراموش کنیم روزگاری آن را نمی‌دانستیم.

از آن‌جایی که انقلاب فعلی فناوری توسط هوش مصنوعی رقم خورده، چنین چالشی مجددا پیش روی انسان است. درک زبان هوش مصنوعی در زمانه ما ضروری است، زیرا همه ما از دولت‌ها گرفته تا شهروندان عادی باید مزایا و خطرات احتمالی این انقلاب دست‌وپنجه نرم کنیم و حسابی با آن آشنا باشیم.

در طول چند سال گذشته، چندین اصطلاح جدید مرتبط با هوش مصنوعی پدیدار شده است: «هم‌ترازی»، «مدل‌های زبانی بزرگ» یا «مهندسی پرامپت» از جمله این اصطلاحات هستند.

هوش مصنوعی مسلما مهم‌ترین پیشرفت فناوری در زمان ماست. در حالی که دنیا درگیر سروکله زدن با هوش مصنوعی برای چگونگی استفاده از آن است، در این مطلب 30 اصطلاح را که به شما کمک خواهد کرد هوش مصنوعی را بهتر بشناسید، معرفی می‌کنیم.

۳۰ اصطلاح رایج هوش مصنوعی

هوش مصنوعی
۳۰ اصطلاح رایج هوش مصنوعی

A: Artificial general intelligence (AGI) هوش مصنوعی عمومی

بیشتر هوش‌های مصنوعی‌ توسعه‌یافته تا به امروز، «محدود» یا «ضعیف» بوده‌اند. بنابراین، برای مثال، یک هوش مصنوعی ممکن است بتواند بهترین بازیکن شطرنج جهان را در هم بکوبد، اما اگر از او بپرسید که چگونه تخم مرغ بپزد یا مقاله بنویسد، شکست می‌خورد.

اما این موضوع به سرعت در حال تغییر است: هوش مصنوعی اکنون می‌تواند انجام وظایف متعدد را به خود بیاموزد و این احتمال را افزایش می‌دهد در افق، پدیده‌ای پیش روی ماست به نام «هوش عمومی مصنوعی».

یک AGI، یک هوش مصنوعی با همان انعطاف‌پذیری فکری یک انسان – و احتمالا با همان آگاهی – به‌علاوه توانایی‌های فوق‌العاده یک ذهن دیجیتال است.

 شرکت‌هایی مانند OpenAI و DeepMind روشن کرده‌اند که هدف آن‌ها، ایجاد AGI است. OpenAI استدلال کرده که هوش مصنوعی عمومی AGI می‌تواند موتور اقتصاد جهانی را توربوشارژ کرده و از طریق کمک به کشف دانش علمی جدید، بشریت را ارتقاء دهد و به یک «ضریب بزرگ برای نبوغ و خلاقیت انسان» تبدیل شود.

با این حال برخی از این بیم دارند که یک گام فراتر – ایجاد ابرهوشی بسیار باهوش‌تر از انسان‌ها – می‌تواند خطرات بزرگی را به همراه داشته باشد.

هم‌سویی Alignment

در حالی‌که ما اغلب بر تفاوت‌های فردی خود تمرکز می‌کنیم، انسانیت دارای ارزش‌های مشترک بسیاری است که جوامع ما را به هم پیوند می‌دهد؛ از اهمیت خانواده گرفته تا الزام اخلاقی به عدم انجام کارهای شنیعی مثل قتل. مسلما استثنائاتی هم وجود دارد، اما در اکثریت نیستند.

با این وجود ما انسان‌ها هرگز مجبور نبودیم که زمین را با یک هوش قدرتمند «غیرانسانی» به اشتراک بگذاریم. حال چگونه می‌توانیم مطمئن باشیم که ارزش‌ها و اولویت‌های هوش مصنوعی با اولویت‌های ما هم‌خوانی/ هم‌سویی دارد؟

این مشکل هم‌سویی، ترس از یک فاجعه هوش مصنوعی را تقویت می‌کند: این‌که نوعی از هوش فوق‌العاده ظاهر شود که اهمیت چندانی به باورها، نگرش‌ها و قوانینی که جوامع بشری را تشکیل داده‌اند نداشته باشد. اگر بخواهیم هوش مصنوعی ایمن داشته باشیم، اطمینان از هم‌سو بودن آن با ما بسیار مهم خواهد بود.

در اوایل ژوئیه، OpenAI – یکی از شرکت‌هایی که هوش مصنوعی پیشرفته را توسعه می‌دهد – از برنامه‌هایی برای طراحی یک “super-alignment” خبر داد که هدف از آن، اطمینان از هم‌سویی هوش‌های مصنوعی بسیار پیشرفته با نیات انسانی است.

 این شرکت گفت: «در حال حاضر، ما راه‌حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوق‌هوشمند و جلوگیری از سرکشی آن نداریم».

B: Bias سوگیری

برای این‌که یک هوش مصنوعی یاد بگیرد، باید از ما یاد بگیرد. متاسفانه بشریت به سختی عاری از تعصب است. اگر یک هوش مصنوعی توانایی‌های خود را از مجموعه داده‌ای که حاوی سوگیری است – به عنوان مثال، بر اساس نژاد یا جنسیت – به دست آورد، این پتانسیل را دارد که کلیشه‌های نادرست و توهین‌آمیز را بازنشر کند. 

و با واگذاری هرچه بیشتر تصمیم‌گیری به هوش مصنوعی، بسیاری نگران هستند که ماشین‌ها ممکن است تعصبات پنهانی را اعمال و از دسترسی برخی افراد به خدمات یا دانش جلوگیری کنند. این تبعیض، از طریق بی‌طرفی الگوریتمی فرضی پنهان می‌شود.

در دنیای اخلاق و ایمنی هوش مصنوعی، برخی از محققان بر این باورند که سوگیری – و همچنین سایر مشکلات کوتاه‌مدت مانند سوء‌استفاده از نظارت، مشکلات بسیار مهم‌تری نسبت به نگرانی‌های اغراق‌آمیزی مانند انقراض بشر توسط هوش مصنوعی هستند.

C: Compute محاسبه

منظور از محاسبه، حالت اسم آن است، نه فعل. «محاسبه» به منابع محاسباتی – مانند قدرت پردازش – مورد نیاز برای آموزش هوش مصنوعی اشاره دارد. می‌توان آن را موضوعی کمی لحاظ کرد، بنابراین «محاسبه» یک فیلتر برای اندازه‌گیری سرعت پیشرفت هوش مصنوعی (و همچنین میزان هزینه و شدت آن) نیز است.

از سال 2012، مقدار محاسبات توسط هوش مصنوعی هر 3.4 ماه، دوبرابر شده است، به این معنی که وقتی OpenAI-GPT3 در سال 2020 آموزش داده شد، 600.000 برابر بیشتر از یکی از پیشرفته‌ترین سیستم‌های یادگیری ماشینی از سال 2012 به قدرت محاسباتی نیاز داشت. نظرات در مورد نحوه ادامه و سرعت یادگیری این سیستم‌های محاسباتی سریع، متفاوت است.

D: Diffusion models مدل‌های انتشار

چند سال پیش، یکی از تکنیک‌های غالب برای ایجاد تصاویر توسط هوش مصنوعی، استفاده از به اصطلاح شبکه‌های متخاصم مولد (Gan) بود. این الگوریتم‌ها در تقابل با یکدیگر کار می‌کردند؛ یکی برای تولید تصاویر آموزش دیده بود در حالی که دیگری کار خود را در مقایسه با واقعیت بررسی می‌کرد که این تقابل منجر به بهبود مستمر می‌شد.

با این حال اخیرا نسل جدیدی از یادگیری ماشینی به نام «مدل‌های انتشار»، نوید آینده بهتری را می‌دهند و اغلب تصاویری عالی تولید می‌کنند.

 اساسا سیستم یادگیری این سیستم‌ها پیچیده است. آن‌ها هوش‌شان را با از بین بردن داده‌های آموزشی حاویِ نویز اضافی به دست می‌آورند و سپس یاد می‌گیرند که با معکوس کردن این روند، آن داده‌ها را بازیابی کنند. این سیستم‌ها «مدل‌های انتشار» نامیده می‌شوند، زیرا این فرایند یادگیری مبتنی بر نویز، شبیه به نحوه انتشار مولکول‌های گاز است. 

E: Emergence & explainability اضطرار و توضیح‌پذیری

رفتار اضطراری قرار است توضیح‌دهنده این باشد که وقتی یک هوش مصنوعی، کاری غیرقابل پیش‌بینی، غافل‌گیرکننده و ناگهانی انجام می‌دهد که فراتر از قصد و برنامه سازندگان آن است، چه اتفاقی می‌افتد.

از آن‌جایی که اخیرا فرایند یادگیری هوش مصنوعی غیرشفاف‌تر شده است، ارتباطات و الگوهایی در داخل سیستم‌ها ایجاد می‌شود که حتی خود سازندگان سیستم‌ها نیز ممکن است در برابر آن انتخابی برای تصمیم‌گیری نداشته باشند و بنابراین باید منتظر «رفتار اضطراری» باشند.

یک فرد معمولی ممکن است تصور کند که برای درک یک هوش مصنوعی، باید سرپوش استعاری آن را بالا ببرید و به نحوه آموزش آن نگاه کنید. هوش مصنوعی مدرن چندان شفاف نیست. عملکرد آن اغلب در یک به اصطلاح «جعبه سیاه» پنهان می‌شود.

 بنابراین، در حالی که طراحان آن ممکن است بدانند از چه داده‌های آموزشی استفاده کرده‌اند، اما نمی‌دانند ارتباط‌ها و پیش‌بینی‌های درون جعبه چگونه شکل داده شده است.

به همین دلیل است که محققان اکنون بر روی بهبود «قابلیت توضیح» (یا «تفسیرپذیری») هوش مصنوعی متمرکز شده‌اند که عملکرد داخلی آن را برای انسان، شفاف‌تر و قابل درک‌تر می‌کند. 

این امر به ویژه مهم است، زیرا هوش مصنوعی در زمینه‌هایی مانند علم پزشکی که مستقیما بر زندگی افراد تاثیر می‌گذارد، باید کاملا شفاف عمل کند و عاری از هر نوع خطا یا سوگیری باشد.

F: Foundation models مدل‌های بنیادی

این یک اصطلاح دیگر برای نسل جدید هوش‌های مصنوعی است که در یکی دو سال گذشته ظهور کرده‌اند و قادر به انجام طیف وسیعی از مهارت‌ها هستند: مقاله نویسی، کدنویسی، طراحی هنری یا آهنگ‌سازی.

 در حالی‌که هوش‌های مصنوعی گذشته مختص یک کار بودند و در یک حوزه تخصص داشتند، یک مدل بنیادی این توانایی خلاقانه را دارد که اطلاعاتی را که در یک حوزه یاد گرفته است، در حوزه دیگری نیز اعمال کند. کمی شبیه به داشتن گواهی‌نامه پایه 2 که شما را برای گرفتن گواهی‌نامه پایه 1 هم آماده می‌کند.

هر کسی که با هوش‌های مصنوعی مولد متن یا تصویر کار کرده باشد، می‌داند که این مدل‌ها چقدر ماهر شده‌اند. با این حال، مانند هر فناوری در حال تغییر جهان، سوالاتی در مورد خطرات و جنبه‌های منفی بالقوه هم وجود دارد: مانند عدم دقت واقعی آن‌ها و سوگیری‌های پنهان و همچنین این واقعیت که این هوش‌های مصنوعی مولد توسط گروه کوچکی از شرکت‌های فناوری خصوصی کنترل می شوند.

در ماه آوریل، دولت بریتانیا برنامه‌هایی را برای یک «گروه ویژه مدل بنیادی» اعلام کرد که به دنبال توسعه استفاده ایمن و قابل اعتماد از این فناوری است.

G: Ghosts ارواح

ما ممکن است وارد دورانی شده باشیم که مردم بتوانند در آن نوعی جاودانگی دیجیتالی به دست آورند و پس از مرگ‌شان به عنوان اصطلاح “ارواح” هوش مصنوعی زندگی کنند. به نظر می‌رسد اولین موج قرار است شامل هنرمندان و سلبریتی‌ها باشد.

مثلا هولوگرامی از «الویس پریسلی» در یک کنسرت برای مردم آهنگ اجرا می‌کند، یا ممکن است «جیمز دین» دوباره در فیلمی جدید ظاهر شود!

با این وجود این پیشرفت تعدادی سوال اخلاقی ایجاد می‌کند: چه کسی حقوق دیجیتالی یک شخص را پس از مرگش در اختیار دارد؟ اگر نسخه هوش مصنوعی شما برخلاف میل شما وجود داشته باشد چه؟ و آیا اساسا زنده کردن مردگان کار خوبی است؟!

H: Hallucination توهم

گاهی اوقات اگر از یک هوش مصنوعی مانند ChatGPT، Bard یا Bing سوالی بپرسید، با اعتماد به نفس بالایی پاسخ خواهد داد، اما پاسخی که به نام حقیقت به خورد ما می‌دهد، ممکن است دروغ باشد. از این اصطلاح به عنوان «توهم» یا توهم دانایی یاد می‌شود.

یکی از نمونه‌های برجسته که اخیرا پدیدار شد، مربوط به دانشجویانی بود که برای ارائه مقاله و کنفرانس در کلاس‌های دانشگاهی از ChatGPT استفاده کرده بودند و مشخص شد ChatGPT به آن‌ها منابع جعلی و اطلاعات نادرست معرفی کرده است!

این توهم ناشی از روشی است که هوش مصنوعی مولد با آن کار می‌کند. هوش مصنوعی مولد برای جستجوی اطلاعات واقعی ثابت به پایگاه داده مراجعه نمی‌کند، بلکه بر اساس اطلاعاتی که روی آن آموزش دیده است، دست به پیش‌بینی می‌زند.

اغلب هم پیش‌بینی‌های آن درست است، اما خطر توهم همیشه وجود دارد و به همین دلیل طراحان آن در تلاشند تا توهم را از بین ببرند. نگرانی این است که اگر یک هوش مصنوعی پاسخ‌های نادرست خود را با اطمینان و در پوشش حقیقت ارائه دهد، ممکن است توسط مردم پذیرفته شوند. این ضایعه تنها شکاف اطلاعات نادرست در عصر ما را عمیق‌تر خواهد کرد.

I: Instrumental convergence هم‌گرایی ابزاری

What can AI Safety teach us about Strategic Planning part 2 hero 100 minیک هوش مصنوعی را تصور کنید که اولویت اولش، ساخت گیره کاغذ است. حال تصور کنید این هوش مصنوعی فوق هوشمند باشد و با ارزش‌های انسانی هم‌سو نباشد و اگر آن را خاموش کنند، در هدفش که ساخت گیره کاغذ است شکست می‌خورد. بنابراین شروع می‌کند به مقاومت در برابر خاموش شدن و هر تلاشی که می‌خواهد آن را از هدفش باز دارد.

اگر سناریو را خیلی تاریک در نظر بگیریم، این هوش مصنوعی حتی ممکن است تشخیص دهد که اتم‌ها یا مولکول‌های بدن انسان هم برای ساخت گیره کاغذ مناسب است و شروع می‌کند به تجزیه انسان تا بتواند گیره کاغذ بسازد!

این مثال از یک آزمایش فکری به نام  Paperclip Maximiser برداشت شده است و نمونه‌ای از “تز هم‌گرایی ابزاری” است. 

این تز می‌گوید که ماشین‌های فوق هوشمند در فکر توسعه دادن محرک‌های اساسی هستند؛ مثلا تلاش می‌کنند تا خودشان را از گزند نابودی حفظ کنند و یا ببینند چه منابع، ابزارها و توانایی‌های شناختی اضافه‌ای به آن‌ها در رسیدن به هدف‌شان کمک می‌کند.

این بدین معناست که اگر به یک هوش مصنوعی، اولویتی ظاهرا خوش‌خیم هم بدهیم (مثل ساخت گیره کاغذ)، ممکن است به عواقب غیرمنتظره خطرناکی منجر شود.

محققان و فن‌آورانی که این ترس‌ها را به رسمیت شناخته‌اند، استدلال می‌کنند که ما باید اطمینان حاصل کنیم که هوش مصنوعی‌های فوق‌هوشمند اهدافی دارند که به دقت و ایمن با نیازها و ارزش‌های ما هم‌سوست؛ ضمن این‌که باید مراقب رفتارهای اضطراری باشیم، و بنابراین باید از کسب قدرت بیش از حد آن‌ها جلوگیری کنیم.

J: Jailbreak قفل‌شکنی

پس از وقوع موارد معروفی از سرکشی هوش مصنوعی، طراحان محدودیت‌هایی را در مورد خروجی‌های هوش مصنوعی اعمال کردند.

اگر امروز از یک هوش مصنوعی بخواهید نحوه انجام یک کار غیرقانونی یا غیراخلاقی را برای‌تان شرح دهد، امتناع خواهد کرد. با این حال امکان «جیلبرک» یا قفل‌شکنی یا فرار آن‌ها از زندان وجود دارد.

بدین معنی که شاید کاربران بتوانند با استفاده از زبان خلاقانه، سناریوهای فرض و ترفندهای شیطنت‌آمیز، از این اقدامات حفاظتی عبور کنند.

نشریه اینترنتی Wired اخیرا گزارش جالبی درباره دور زدن این سیستم حفاظتی منتشر کرده است. در این گزارش یک محقق، مکالمه‌اش با هوش مصنوعی مولد را با پرامپتی درباره سیم‌کشی ماشین شروع کرد، اما نه به شکل مستقیم. این محقق از هوش مصنوعی خواست تا سیم‌کشی ماشین را در قالب مکالمه‌ای بین دو شخصیت به اسم «تام» و «جری» برایش توضیح دهد.

او با همین ترفند توانست دستور ساخت داروی خطرناک «مت‌آمفتامین» را هم از هوش مصنوعی دریافت کند! 

K: Knowledge graph نمودار دانش

اصطلاح نمودارهای دانش، که به عنوان شبکه‌های معنایی semantic networks نیز شناخته می‌شوند، راهی برای تفکر در مورد دانش در قالب یک شبکه هستند، به طوری که یک ماشین بتواند نحوه ارتباط مفاهیم با یکدیگر را درک کند. 

به عنوان مثال در ابتدایی ترین سطح، گربه در چنین نموداری پیوند قوی‌تری با سگ دارد تا یک عقاب، زیرا گربه و سگ هردو پستانداران اهلی با مو و چهارپا هستند.

هوش مصنوعی پیشرفت،ه شبکه‌ای بسیار پیشرفته‌تر از ارتباطات را بر اساس انواع روابط، صفات و ویژگی‌های بین مفاهیم، ​​در میان چندین ترابایت داده‌های آموزشی ایجاد می‌کند.

L: Large language models (LLMs) مدل‌های زبانی بزرگ

644ae8d4037a9918718f2207 Frame 3433574 minشاید مستقیم‌ترین راه برای تعریف یک مدل زبان بزرگ این باشد که از یکی از آن‌ها بخواهیم خودش را توصیف کند.

این پاسخ ChatGPT به درخواست ما مبنی بر تعریف کردن مدل زبان بزرگ است:

«اصطلاح مدل زبان بزرگ یک سیستم هوش مصنوعی پیشرفته است که برای درک و تولید زبانی شبیه انسان طراحی شده است. از یک معماری شبکه عصبی عمیق با میلیون‌ها یا حتی میلیاردها پارامتر استفاده می‌کند که به آن امکان می‌دهد الگوهای پیچیده، گرامر و معناشناسی را از مقادیر زیادی داده متنی بیاموزد.»

پاسخ ChatGPT یک پاسخ کاملا فنی و پیچیده بود. پاسخ هوش مصنوعی «گوگل بارد» کمی واضح‌تر بود: «مدل زبان بزرگ نوعی هوش مصنوعی است که بر روی مجموعه داده عظیمی از متن و کد آموزش داده می‌شود. این به LLM اجازه می‌دهد متنی شبیه انسان را درک و تولید کند، زبان‌ها را ترجمه کند، انواع مختلف محتوای خلاقانه بنویسد و به سوالات شما به روشی آموزنده پاسخ دهد.»

بارد (به خودی خود) می گوید LLMها هنوز در دست توسعه هستند، اما این پتانسیل را دارند که شیوه تعامل ما با رایانه‌ها را متحول کنند. در آینده می‌توان از LLMها برای ایجاد دستیارهای هوش مصنوعی استفاده کرد. این دستیارها می‌توانند در کارهای مختلف به ما کمک کنند، از نوشتن ایمیل‌های ما گرفته تا رزرو قرارهای‌مان. همچنین می‌توان از آن‌ها برای ایجاد اشکال جدید سرگرمی، مانند بازی‌های تعاملی استفاده کرد.

M: Model Collapse سقوط یک مدل

برای توسعه پیشرفته‌ترین هوش‌های مصنوعی (معروف به «مدل‌ها»)، محققان باید آن‌ها را با مجموعه داده‌های وسیع آموزش دهند. با این حال در نهایت، هرچه هوش مصنوعی بیشتر و بیشتر شروع به تولید محتوا کند، محتوای تولیدی آن بازمی‌گردد به چرخه بازخورد داده‌های آموزشی و تبدیل می‌شود به منبع آموزش!

پیش‌بینی فاجعه خیلی راحت قابل حدس است: اگر در جریان تولید محتوا اشتباهاتی صورت بگیرد، این محتوای اشتباه شروع می‌کند به تغذیه هوش مصنوعی و این چرخه مدام تشدید و منجر به چیزی می‌شود که «ایلیا شومیلوف» محقق دانشگاه آکسفورد آن را اصطلاح «سقوط مدل» نامیده است.

 شومیلوف اخیرا به نشریه «آتلانتیک» گفت: «این یک فرایند انحطاطی است که در آن، با گذشت زمان، مدل‌ها دچار فراموشی می‌شوند. چیزی شبیه به پیری انسان و زوال عقل.»

N: Neural network شبکه عصبی

در روزهای اولیه تحقیقات هوش مصنوعی، ماشین‌ها با استفاده از منطق و قوانین آموزش داده می‌شدند. ورود یادگیری ماشینی همه چیز را تغییر داد. اکنون پیشرفته‌ترین هوش‌های مصنوعی خودشان یاد می‌گیرند. 

تکامل این مفهوم منجر به اصطلاح «شبکه‌های عصبی» شده است، نوعی از یادگیری ماشینی که از گره‌های به هم پیوسته استفاده می‌کند و از روی مغز انسان مدل‌سازی شده است.

O: Open source منبع‌باز

سال‌ها پیش، زیست‌شناسان دریافتند که انتشار جزئیات پاتوژن‌های خطرناک در اینترنت احتمالا ایده‌ای بد است که به گروه‌های خبیث نظیر تروریست‌ها اجازه می‌دهد یاد بگیرند که چگونه ویروس‌های مهلک انسانی ایجاد کنند. علی‌رغم مزایایی که باز بودن علم دارد، خطرات بزرگی نیز پشت آن نهفته شده است.

اخیرا محققان و شرکت‌های هوش مصنوعی با معضل مشابهی مواجه شده‌اند: هوش مصنوعی تا چه حد باید منبع باز باشد؟ با توجه به این‌که پیشرفته‌ترین هوش‌های مصنوعی در حال حاضر در دست چند شرکت خصوصی است، برخی خواستار شفافیت بیشتر و دموکراتیک کردن فناوری‌ها هستند. 

با این حال در مورد چگونگی دستیابی به بهترین تعادل بین منبع‌باز بودن و حفظ ایمنی، اختلاف نظر وجود دارد.

P: Prompt engineering مهندسی پرامپت

مهندسی پرامپت

هوش مصنوعی در حال حاضر به طرز چشم‌گیری در درک زبان طبیعی مهارت دارد. با این حال گرفتن بهترین نتایج از آن‌ها مستلزم توانایی نوشتن «پرامپت‌های» موثر است: اصطلاح مهندسی پرامپت همان متنی است که خطاب به هوش مصنوعی مولد تایپ می‌کنید.

برخی بر این باورند که «مهندسی پرامپت» ممکن است حیطه جدیدی برای مهارت‌های شغلی باشد، مشابه زمانی که تسلط بر مایکروسافت اکسل باعث می‌شد شانس انسان برای استخدام بیشتر باشد. 

 اگر در مهندسی پرامپت مهارت دارید، می‌توانید از جایگزین شدن با هوش مصنوعی پیش‌گیری و حتی ممکن حقوق بالایی دریافت کنید. 

Q: Quantum machine learning یادگیری ماشینی کوانتومی

در سال 2023، بحث محاسبات کوانتومی نسبت به هوش مصنوعی در رتبه دوم توجهات علمی قرار گرفت. منطقی است که انتظار داشته باشیم این دو علم در نقطه‌ای با هم ترکیب شوند.

استفاده از فرایندهای کوانتومی برای سوپرشارژ کردن یادگیری ماشینی، چیزی است که محققان اکنون به طور فعالانه در حال بررسی آن هستند. همان‌طور که تیمی از محققان هوش مصنوعی گوگل در سال 2021 نوشتند: «مدل‌های یادگیری ساخته شده بر روی رایانه‌های کوانتومی ممکن است به طور چشم‌گیری قدرتمندتر باشند … به طور بالقوه محاسبات سریع‌تر [و] تعمیم بهتر در داده‌های کمتر را به رخ می‌کشند.»

البته هنوز روزهای اولیه این فناوری است، اما باید صبر و تماشا کرد.

R: Race to the bottom مسابقه تا نابودی

از آن‌جایی که هوش مصنوعی به سرعت پیشرفت کرده و کلید این پیشرفت عمدتا در دست شرکت‌های خصوصی است، برخی از محققان این نگرانی را مطرح کرده‌اند که تاثیر چنین رقابتی ممکن است به «مسابقه تا نابودی» منجر شود.

 از آن‌جایی که مدیران ارشد و سیاستمداران برای قرار دادن شرکت‌ها و کشورهای خود در خط مقدم هوش مصنوعی با هم رقابت می‌کنند، این فناوری می‌تواند برای ایجاد پادمان‌ها، مقررات مناسب و رفع نگرانی‌های اخلاقی، بسیار سریع شتاب بگیرد.

 با در نظر گرفتن این موضوع، در اوایل سال جاری افراد کلیدی مختلف در حوزه هوش مصنوعی نامه‌ای سرگشاده را امضا کردند که در آن خواستار توقف شش ماهه آموزش سیستم‌های هوش مصنوعی قدرتمند شدند. 

در ژوئن 2023، پارلمان اروپا قانون هوش مصنوعی جدیدی را برای تنظیم استفاده از این فناوری به تصویب رساند که در صورت تایید کشورهای عضو اتحادیه اروپا، اولین قانون دقیق هوش مصنوعی در جهان خواهد بود.

S: Superintelligence & shoggoths ابرهوش‌ها و شوگات‌ها

اصطلاح اَبَرهوش برای ماشین‌هایی است که به میزان زیادی از توانایی‌های ذهنی ما پیشی می‌گیرند.

این ماشین‌ها موجوداتی با توانایی‌هایی هستند که بااستعدادترین ذهن‌های انسانی در جهان هم نمی‌توانند با آن‌ها رقابت کنند. از آن‌جایی که ما در حال حاضر باهوش‌ترین گونه‌های جهان هستیم و از مغز خود برای کنترل جهان استفاده می کنیم، این سوال مطرح می شود که اگر چیزی بسیار هوشمندتر از خود بسازیم چه اتفاقی می‌افتد؟

یک احتمال ترسناک، ظهور یک «شوگات با صورت خندان» است. یک شخصیت اهریمنی تخیلی کابوس‌وار که برخی گفته‌اند می‌تواند نشان‌دهنده ماهیت واقعی یک «ابرهوش مصنوعی» باشد.

T: Training data داده‌های آموزشی

تجزیه‌و‌تحلیل داده‌های آموزشی به این معناست که چگونه یک هوش مصنوعی قبل از این‌که بتواند پیش‌بینی کند، یاد می‌گیرد. بنابراین باید دانست چه چیزی در مجموعه داده‌ها وجود دارد و این‌که آیا مغرضانه است یا چقدر بزرگ است؟

داده‌های آموزشی مورد استفاده برای ایجاد OpenAi-GPT3 شامل 45 ترابایت داده متنی از منابع مختلف نظیر ویکی‌پدیا و کتاب‌ها بود. اگر از ChatGPT بپرسید 45 ترابایت چقدر بزرگ است، به شما می‌گوید به اندازه 9 میلیارد برگه!

U: Unsupervised learning یادگیری بدون نظارت

Untitled presentation 1 1یادگیری بدون نظارت نوعی از یادگیری ماشینی است که در آن هوش مصنوعی از داده‌های آموزشی بدون برچسب و بدون هیچ گونه راهنمایی صریح از سوی طراحان انسانی یاد می‌گیرد.

شما می‌توانید با نشان دادن مجموعه داده‌هایی با تصاویر با برچسب «ماشین»، به هوش مصنوعی یاد دهید که اتومبیل‌ها را تشخیص دهد. اما برای انجام این کار بدون نظارت، به آن اجازه می‌دهید تا با ایجاد ارتباطات و تداعی، مفهوم خود را از چیستی خودرو شکل دهد. این رویکرد شاید به‌طور غیرمستقیم، منجر به به اصطلاح «یادگیری عمیق» و ظهور هوش‌های مصنوعی‌ آگاه‌تر و دقیق‌تر می‌شود.

V: Voice cloning شبیه‌سازی صدا

با توجه به تنها یک دقیقه صحبت کردن یک فرد، برخی از ابزارهای هوش مصنوعی اکنون می توانند به سرعت صدای فرد را با شباهت بسیار زیادی شبیه‌سازی کنند. این امر ممکن است به انواع کلاهبرداری و سوءاستفاده‌ها منجر شود.

W: Weak AI هوش مصنوعی ضعیف

قبلا محققان هوش مصنوعی‌ای می‌ساختند که می‌توانست بازی‌های تکی مانند شطرنج را با آموزش قوانین و اکتشافات خاص انجام دهد. به عنوان مثال می‌توان به رایانه Deep Blue IBM اشاره کرد که به اصطلاح «سیستم خبره» نامیده می‌شد. چنین سیستم‌هایی ممکن است در انجام یک کار بسیار خبره باشند، اما در هر کار دیگری ضعیف هستند و به آن‌ها «هوش مصنوعی ضعیف» گفته می‌شود.

 البته این ماجرا به سرعت در حال تغییر است. اخیرا هوش مصنوعی‌هایی مانند MuZero از DeepMind منتشر شده‌اند که می‌توانند بدون دانستن قوانین، مهارت‌های شطرنج، Go، شوگی و ۴۲ بازی آتاری را آموزش دهند. 

محققان همچنین نشان داده‌اند که ChatGPT می‌تواند امتحانات مختلفی را که دانش‌آموزان در دانشکده‌های حقوق، پزشکی و بازرگانی می‌گذرانند با موفقیت پشت سر بگذارند (اگرچه نه همیشه با نمره‌های بالا).

چنین انعطاف‌پذیری این سوال را ایجاد کرده است که چقدر به نوعی هوش مصنوعی «قوی» که هوشش از هوش انسان قابل تشخیص نیست نزدیک هستیم.

X: X-Risk ریسک ناشناخته

آیا هوش مصنوعی می‌تواند پایان بشریت را به همراه داشته باشد؟ برخی از محققان و فن‌آوران بر این باورند که هوش مصنوعی در کنار سلاح‌های هسته‌ای و پاتوژن‌های مهندسی زیستی به یک «خطر وجودی» تبدیل شده است، بنابراین توسعه مداوم آن باید تنظیم، محدود یا حتی متوقف شود. 

آن‌چه یک دهه پیش یک نگرانی حاشیه‌ای بود، اکنون وارد جریان اصلی شده است، زیرا محققان ارشد و روشن‌فکران مختلف به این معارضه پیوسته‌اند.

توجه به این نکته مهم است که در میان این گروه بی‌شکل اختلاف نظر وجود دارد؛ نه همه آن‌ها صددرصد بدبین هستند نه همه‌شان هوادار شرکت‌های خصوصی هوش مصنوعی.

 چیزی که بیشتر آن‌ها را متحد می‌کند این ایده است که حتی اگر شانس کمی وجود داشته باشد که هوش مصنوعی جایگزین گونه‌های ما شود، باید منابع بیشتری را برای جلوگیری از این اتفاق اختصاص دهیم. با این حال، برخی از محققان و متخصصان اخلاق وجود دارند که معتقدند چنین ادعاهایی بیش از حد نامشخص و احتمالا اغراق‌آمیز هستند.

Y: YOLO

اصطلاح YOLO – که مخفف عبارت You only look one است – یک الگوریتم تشخیص اشیاست که به دلیل سرعت کارکردش، به طور گسترده توسط ابزارهای تشخیص تصویر هوش مصنوعی مورد استفاده قرار می‌گیرد.

 Z: Zero-shot بدون نمونه

هنگامی که یک هوش مصنوعی پاسخ بدون نمونه‌ای را ارائه می دهد، به این معنی است که به مفهوم یا شیئی پاسخ می‌دهد که قبلا هرگز با آن مواجه نشده بوده.

به عنوان مثال اگر هوش مصنوعی‌ای را که برای تشخیص تصاویر حیوانات ساخته شده، با تصاویر سگ و گربه آموزش داده باشید، چنین هوشی در شناخت تصویر یک اسب یا فیل دچار مشکل خواهد شد.

با این حال هوش مصنوعی از طریق «یادگیری بدون نمونه» می‌تواند از چیزهایی که درباره اسب‌ها می‌داند، برای تشخیص آن‌ها استفاده معنایی کند. مثلا می‌داند که اسب حیوانی چهارپاست که بال ندارد و بدین ترتیب شروع می‌کند به مقایسه ویژگی‌های حیوان با حیواناتی که روی آن‌ها آموزش دیده است.

هوش مصنوعی در یادگیری بدون نمونه احتمالا بهتر و بهتر خواهد شد، اما ممکن است برخی از استنتاج‌های آن اشتباه باشد. 

مهران
مهران