پس از راهاندازی ChatGPT توسط OpenAI در اواخر سال گذشته، سال 2023 تبدیل به سالی برای هوش مصنوعی شد که با پیشرفتهای هوش مصنوعی زاینده، رقابت شدید، و افزایش نگرانیهای اخلاقی و ایمنی به یاد آورده خواهد شد. اخبار هوش مصنوعی در سال ۲۰۲۳ یکی از پربازدیدترین محتواها سال ۲۰۲۳ بود.
رشد سریع این رشته در سال جاری، هم نوآوریهای تکنولوژیکی و هم چالشهای مهمی را به همراه داشت. از تغییرات رهبری در OpenAI گرفته تا چالشهای بازیکنان جدید این حوزه مانند Gemini گوگل و Claude آنتروپیک، سال 2023 شاهد تغییرات عمدهای در چشمانداز هوش مصنوعی مولد بود.
در کنار این پیشرفتها، صنعت هوش مصنوعی با خطرات امنیت سایبری دستوپنجه نرم کرد و در مورد پیامدهای اخلاقی پیشرفت سریع هوش مصنوعی نیز بحثهای گوناگونی در گرفت.
با توجه به فرا رسیدن روزهای پایانی سال، میخواهیم برخی از مهمترین اخبار هوش مصنوعی در سال ۲۰۲۳ را در این مطلب مرور کنیم.
مهمترین اخبار هوش مصنوعی در سال ۲۰۲۳
اخراج و استخدام مجدد «سم آلتمن» توسط OpenAI
در یکی از شگفتانگیزترین اخبار سال، سم آلتمن، یکی از بنیانگذاران و مدیر عامل OpenAI، در 17 نوامبر به دلیل «عدم شفافیت در ارتباطات وی» توسط هیئتمدیره شرکت برکنار. مدت کوتاهی پس از کنارهگیری آلتمن، مایکروسافت اعلام کرد که او و «گرگ براکمن» رئیس و یکی از بنیانگذاران OpenAI را برای یک بخش تحقیقاتی جدید هوش مصنوعی استخدام میکند.
خروج آلتمن و دوره پر فراز و نشیب پس از آن واکنشهای گستردهای را در OpenAI برانگیخت و ۹۵ درصد از کارمندان در اعتراض به تصمیم هیئتمدیره تهدید به استعفا کردند.
ظرف یک هفته پس از اخراج اولیه آلتمن، OpenAI او را به عنوان مدیرعامل بازگرداند، تصمیمی که تحت تاثیر مذاکرات گسترده هیئتمدیره و سرازیر شدن حمایت کارکنان اتخاذ شد.
اگرچه بازگشت آلتمن برای بسیاری تسکینبخش بود، اما این رویدادها چالشهای اساسی در OpenAI را آشکار کرد؛ یعنی تنش بین انگیزههای دوگانه این شرکت به عنوان سازمانی سودمحور و ماموریتمحور، و البته میزان وابستگی شرکت به آلتمن. تمام اینها باعث شد این اتفاق به یکی از اخبار هوش مصنوعی در سال ۲۰۲۳ تبدیل شود.
رقبای ChatGPT ظهور میکنند
ChatGPT در نوامبر 2022 هیاهوی هوش مصنوعی زاینده (مولد) را آغاز کرد. و اگرچه OpenAI همچنان در سرفصل اخبار امسال حضور داشت، اما سال 2023 شاهد ظهور تعدادی از رقبا هم بود.
اگرچه آزمایشگاه DeepMind از لحاظ تاریخی یکی از پیشگامان هوش مصنوعی بوده است، اما گوگل در ابتدا در زمینه هوش مصنوعی زاینده عقب ماند، زیرا پتبات گوگل Bard پس از راهاندازی در اوایل سال، با ناسازگاریها و توهمات دستوپنجه نرم میکرد.
اما چشمانداز این شرکت میتواند در سال 2024 پس از عرضه مدل پایه چندوجهی Gemini در اوایل این ماه دستخوش تغییر شود. Gemini، که گوگل میگوید به Bard و دیگر برنامههای گوگل قدرت میدهد، قابلیتهای متن، تصویر، صدا و ویدئو را ادغام و به طور بالقوه جایگاه گوگل را در زمینه هوش مصنوعی مولد احیا میکند.
در همین حال، Anthropic، یک استارتاپ هوش مصنوعی که توسط پرسنل سابق OpenAI تاسیس شده بود، از Claude2، یک مدل زبان بزرگ با هدف رسیدگی به نگرانیهای امنیتی و حفظ حریم خصوصی دادهها رونمایی کرد.
ویژگیهایی نظیر تجزیهوتحلیل فایلهای بزرگ و تمرکز ایمنیمحور Anthropic، Claude را از رقبایی مانند ChatGPT و Bard متمایز میکند.
و IBM با ریبرندینگ سیستم قدیمی Watson AI خود، وارد معرکه Watsonx شد، یک پلتفرم هوش مصنوعی مولد که نیازهای شرکت را با تاکید بر حاکمیت داده، امنیت و سفارشیسازی مدل هدف قرار میدهد. با این حال، با وجود رویکرد متفاوت و تمرکز ابر ترکیبی، IBM باید چالشهای مربوط به سرعت بازار و رقابت از سوی استارتاپها و غولهای فناوری جا افتاده در بازار را بررسی کند.
هوش مصنوعی منبعباز (Open Source) به طور فزایندهای قابل دوام میشود
علاوه بر طیف گستردهای از گزینههای تجاری، چشمانداز هوش مصنوعی منبعباز نیز در حال گسترش است.
مدلهای هوش مصنوعی منبعباز، جایگزینی برای سرویسهای هوش مصنوعی زاینده از ارائهدهندگان بزرگ ابری ارائه کرده و شرکتها را قادر میسازند این مدلها را با دادههای خود سفارشی کنند.
اگرچه آموزش و سفارشیسازی مدلهای منبع باز کنترل بیشتر و صرفهجویی در هزینههای بالقوه را به همراه دارد، اما میتواند چالشهایی را هم برای شرکتها ایجاد کند.
از مهمترین اخبار هوش مصنوعی در سال ۲۰۲۳ در ماه فوریه، AWS با Hugging Face، یک مرکز برجسته برای مدلهای AI منبعباز، به شراکت پرداخت. این همکاری که آموزش، تنظیم دقیق و استقرار مدلهای بزرگ زبانی LLM و مدلهای بینایی را در دسترستر کرد، پاسخ استراتژیک آمازون به حرکتهای هوش مصنوعی زاینده توسط رقبای آن مایکروسافت و گوگل محسوب میشد.
همچنین در ماه فوریه، متا با LLM خود، Llama که در ابتدا برای استفاده تحقیقاتی تحت مجوز غیرتجاری در نظر گرفته و به عنوان یک مدل پایه کوچکتر و قابل مدیریت طراحی شده بود، وارد بازار هوش مصنوعی مولد شد. با این حال، با وجود برنامههای متا برای محدود کردن دسترسی به دانشگاهیان، ارگانهای دولتی و سایر سازمانهای تحقیقاتی، Llama بلافاصله پس از انتشار بهصورت آنلاین به بیرون درز کرد.
در ماه ژوئیه، انتشار متا از Llama2 ارتقاءیافته، پیشرفت قابل توجهی را در بازار هوش مصنوعی مولد به عنوان یک LLM منبع باز که هم برای اهداف تحقیقاتی و هم برای اهداف تجاری در دسترس است، در معرض توجه قرار داد.
متا با همکاری مایکروسافت، Llama2 را در کاتالوگ مدلهای هوش مصنوعی Azure در دسترس قرار داد و مدل را برای ویندوز بهینه و جذابیت سازمانی آن را تقویت کرد.
OpenAI پیشنهادات و ردپای تجاری خود را گسترش میدهد
پس از انتشار موفقیتآمیز ChatGPT در سال 2022، OpenAI چندین پیشنهاد تجاری جدید را در سال 2023 معرفی کرد. برخی از برجسته ترین آنها شامل موارد زیر است:
- معرفی نسخههای پولی با ChatGPT Plus در فوریه که کاربران فردی و تیمهای کوچک را هدف قرار میدهد، و یک ردیف Enterprise در ماه آگوست با هدف سازمانهای بزرگتر. هر دو نسخه در دسترس بودن خدمات بهبود یافته و ویژگیهای پیشرفتهای مانند پلاگینها و مرور اینترنت را به کاربران خود ارائه میدهند.
- ارتقاء به LLM پرچمدار OpenAI در ماه مارس. GPT-4 یک نسخه چندوجهی از مدل GPT با عملکرد برتر در مقایسه با GPT-3.5 قبلی است که نسخه رایگان ChatGPT را تقویت میکند.
- ویژگیهای جدید حفظ حریم خصوصی دادهها برای ChatGPT در ماه آوریل – یعنی گزینهای برای کاربران برای غیرفعال کردن سابقه چت برای جلوگیری از استفاده OpenAI از مکالمات خود برای آموزش مجدد مدل هوش مصنوعی به این چتبات اضافه میشود.
- ادغام DALL-E3 هوش مصنوعی مولد تصویر ChatGPT در ChatGPT Plus و Enterprise در ماه اکتبر.
ظهور نگرانیها درباره ایمنی و امنیت هوش مصنوعی
همانطور که هوش مصنوعی مولد در سال 2023 مورد توجه قرار گرفت، بحثهای امنیت و ایمنی هوش مصنوعی نیز به موازات آن تشدید شد.
رسانههای محبوب اغلب ترسها را در مورد هوش عمومی مصنوعی (AGI) برجسته میکنند، شکلی هنوز فرضی از هوش مصنوعی که میتواند با هوش و تواناییهای انسان مطابقت داشته باشد یا حتی از آن فراتر رود.
«جفری هینتون» برنده جایزه «تورینگ» به دلیل نگرانیهایش درباره ایمنی هوش مصنوعی، از گوگل بازنشسته شد. او در کنفرانسی در ماه مه گفت: «چیزهایی مانند GPT-4 خیلی بیشتر از ما میدانند.»
اظهارات او بازتاب نگرانیهای مشابهی در نامهای منتشر شده در ماه مارس بود که در آن از توقف توسعه هوش مصنوعی حمایت میکرد و در آن این سوال مطرح میشد که آیا توسعه هوش مصنوعی «رقابتی با انسان»، «خطر از دست دادن کنترل تمدن ما» را به همراه خواهد داشت یا نه.
با این حال، بسیاری از محققان و اخلاقشناسان هوش مصنوعی دیگر استدلال کردهاند که این نگرانیها کاذب هستند، زیرا ماهیت هوش مصنوعی عمومی AGI همچنان در حد حدس و گمان است. در حال حاضر مشخص نیست که آیا این فناوری می تواند ایجاد شود یا خیر.
در این دیدگاه، تمرکز بر روی AGI توجه را از مسائل فعلی و ملموس مانند سوگیری الگوریتمی و تولید محتوای مضر با استفاده از سیستمهای هوش مصنوعی موجود منحرف میکند. یک عنصر رقابتی نیز وجود دارد، به این معنا که گفتمان AGI با ارائه هوش مصنوعی به عنوان فناوری بسیار قدرتمندی که نمیتواند به شکلی ایمن به سمت شرکتهای کوچکتر گسترش یابد، به منافع شرکتهای عظیم هوش مصنوعی خدمت میکند.
در میان خطرات موجود هوش مصنوعی، یک خطر آشکار «آسیبپذیریهای امنیت سایبری» است، مانند توانایی ChatGPT برای افزایش موفقیت و شیوع کلاهبرداریهای فیشینگ.
در مصاحبهای در اوایل سال جاری، «چستر ویزنیوسکی» مدیر شرکت فروشنده نرمافزار امنیتی و سختافزار Sophos، توضیح داد که چگونه میتوان ChatGPT را برای اهداف خرابکارانه به راحتی دستکاری کرد.
او در ژانویه گفت: «[ChatGPT] به طور قابلتوجهی در نوشتن کلاهبرداریهای فیشینگ از انسانهای واقعی یا حداقل انسانهایی که آنها را مینویسند بهتر است. بیشتر افرادی که حملات فیشینگ مینویسند مهارتهای انگلیسی بالایی ندارند و به همین دلیل در به خطر انداختن افراد، موفق نیستند. نگرانی من واقعا این است که مردمی که به نگرانیهایی از این دست حمله میکنند، چگونه قرار است از جنبههای اجتماعی ChatGPT استفاده کنند.»