اخبار هوش مصنوعی

مروری بر مهم‌ترین اخبار هوش مصنوعی در سال 2023

سرفصل‌های مقاله

پس از راه‌اندازی ChatGPT توسط OpenAI در اواخر سال گذشته، سال 2023 تبدیل به سالی برای هوش مصنوعی شد که با پیشرفت‌های هوش مصنوعی زاینده، رقابت شدید، و افزایش نگرانی‌های اخلاقی و ایمنی به یاد آورده خواهد شد. اخبار هوش مصنوعی در سال ۲۰۲۳ یکی از پربازدیدترین محتواها سال ۲۰۲۳ بود.

رشد سریع این رشته در سال جاری، هم نوآوری‌های تکنولوژیکی و هم چالش‌های مهمی را به همراه داشت. از تغییرات رهبری در OpenAI گرفته تا چالش‌های بازیکنان جدید این حوزه مانند Gemini گوگل و Claude آنتروپیک، سال 2023 شاهد تغییرات عمده‌ای در چشم‌انداز هوش مصنوعی مولد بود.

 در کنار این پیشرفت‌ها، صنعت هوش مصنوعی با خطرات امنیت سایبری دست‌و‌پنجه نرم کرد و در مورد پیامدهای اخلاقی پیشرفت سریع هوش مصنوعی نیز بحث‌های گوناگونی در گرفت.

با توجه به فرا رسیدن روزهای پایانی سال، می‌خواهیم برخی از مهم‌ترین اخبار هوش مصنوعی در سال ۲۰۲۳ را در این مطلب مرور کنیم.

مهم‌ترین اخبار هوش مصنوعی در سال ۲۰۲۳

هوش مصنوعی
اخبار هوش مصنوعی

اخراج و استخدام مجدد «سم آلتمن» توسط OpenAI

در یکی از شگفت‌انگیزترین اخبار سال، سم آلتمن، یکی از بنیان‌گذاران و مدیر عامل OpenAI، در 17 نوامبر به دلیل «عدم شفافیت در ارتباطات وی» توسط هیئت‌مدیره شرکت برکنار. مدت کوتاهی پس از کناره‌گیری آلتمن، مایکروسافت اعلام کرد که او و «گرگ براکمن» رئیس و یکی از بنیان‌گذاران OpenAI را برای یک بخش تحقیقاتی جدید هوش مصنوعی استخدام می‌کند.

خروج آلتمن و دوره پر فراز و نشیب پس از آن واکنش‌های گسترده‌ای را در OpenAI برانگیخت و ۹۵ درصد از کارمندان در اعتراض به تصمیم هیئت‌مدیره تهدید به استعفا کردند.

 ظرف یک هفته پس از اخراج اولیه آلتمن، OpenAI او را به عنوان مدیرعامل بازگرداند، تصمیمی که تحت تاثیر مذاکرات گسترده هیئت‌مدیره و سرازیر شدن حمایت کارکنان اتخاذ شد.

اگرچه بازگشت آلتمن برای بسیاری تسکین‌بخش بود، اما این رویدادها چالش‌های اساسی در OpenAI را آشکار کرد؛ یعنی تنش بین انگیزه‌های دوگانه این شرکت به عنوان سازمانی سودمحور و ماموریت‌محور، و البته میزان وابستگی شرکت به آلتمن. تمام این‌ها باعث شد این اتفاق به یکی از اخبار هوش مصنوعی در سال ۲۰۲۳ تبدیل شود.

رقبای ChatGPT ظهور می‌کنند

ChatGPT در نوامبر 2022 هیاهوی هوش مصنوعی زاینده (مولد) را آغاز کرد. و اگرچه OpenAI همچنان در سرفصل اخبار امسال حضور داشت، اما سال 2023 شاهد ظهور تعدادی از رقبا هم بود.

اگرچه آزمایشگاه DeepMind از لحاظ تاریخی یکی از پیشگامان هوش مصنوعی بوده است، اما گوگل در ابتدا در زمینه هوش مصنوعی زاینده عقب ماند، زیرا پت‌بات گوگل Bard پس از راه‌اندازی در اوایل سال، با ناسازگاری‌ها و توهمات دست‌و‌پنجه نرم می‌کرد. 

اما چشم‌انداز این شرکت می‌تواند در سال 2024 پس از عرضه مدل پایه چند‌وجهی Gemini در اوایل این ماه دستخوش تغییر شود. Gemini، که گوگل می‌گوید به Bard و دیگر برنامه‌های گوگل قدرت می‌دهد، قابلیت‌های متن، تصویر، صدا و ویدئو را ادغام و به طور بالقوه جایگاه گوگل را در زمینه هوش مصنوعی مولد احیا می‌کند.

در همین حال، Anthropic، یک استارتاپ هوش مصنوعی که توسط پرسنل سابق OpenAI تاسیس شده بود، از Claude2، یک مدل زبان بزرگ با هدف رسیدگی به نگرانی‌های امنیتی و حفظ حریم خصوصی داده‌ها رونمایی کرد. 

ویژگی‌هایی نظیر تجزیه‌و‌تحلیل فایل‌های بزرگ و تمرکز ایمنی‌محور Anthropic، Claude را از رقبایی مانند ChatGPT و Bard متمایز می‌کند.

و IBM با ری‌برندینگ سیستم قدیمی Watson AI خود، وارد معرکه Watsonx شد، یک پلتفرم هوش مصنوعی مولد که نیازهای شرکت را با تاکید بر حاکمیت داده، امنیت و سفارشی‌سازی مدل هدف قرار می‌دهد. با این حال، با وجود رویکرد متفاوت و تمرکز ابر ترکیبی، IBM باید چالش‌های مربوط به سرعت بازار و رقابت از سوی استارتاپ‌ها و غول‌های فناوری جا افتاده در بازار را بررسی کند.

هوش مصنوعی منبع‌باز (Open Source) به طور فزاینده‌ای قابل دوام می‌شود

علاوه بر طیف گسترده‌ای از گزینه‌های تجاری، چشم‌انداز هوش مصنوعی منبع‌باز نیز در حال گسترش است. 

مدل‌های هوش مصنوعی منبع‌باز، جایگزینی برای سرویس‌های هوش مصنوعی زاینده از ارائه‌دهندگان بزرگ ابری ارائه کرده و شرکت‌ها را قادر می‌سازند این مدل‌ها را با داده‌های خود سفارشی کنند.

 اگرچه آموزش و سفارشی‌سازی مدل‌های منبع باز کنترل بیشتر و صرفه‌جویی در هزینه‌های بالقوه را به همراه دارد، اما می‌تواند چالش‌هایی را هم برای شرکت‌ها ایجاد کند.

از مهمترین اخبار هوش مصنوعی در سال ۲۰۲۳ در ماه فوریه، AWS با Hugging Face، یک مرکز برجسته برای مدل‌های AI منبع‌باز، به شراکت پرداخت. این همکاری که آموزش، تنظیم دقیق و استقرار مدل‌های بزرگ زبانی LLM و مدل‌های بینایی را در دسترس‌تر کرد، پاسخ استراتژیک آمازون به حرکت‌های هوش مصنوعی زاینده توسط رقبای آن مایکروسافت و گوگل محسوب می‌شد. 

همچنین در ماه فوریه، متا با LLM خود، Llama که در ابتدا برای استفاده تحقیقاتی تحت مجوز غیرتجاری در نظر گرفته و به عنوان یک مدل پایه کوچک‌تر و قابل مدیریت طراحی شده بود، وارد بازار هوش مصنوعی مولد شد. با این حال، با وجود برنامه‌های متا برای محدود کردن دسترسی به دانشگاهیان، ارگان‌های دولتی و سایر سازمان‌های تحقیقاتی، Llama بلافاصله پس از انتشار به‌صورت آنلاین به بیرون درز کرد.

در ماه ژوئیه، انتشار متا از Llama2 ارتقاءیافته، پیشرفت قابل توجهی را در بازار هوش مصنوعی مولد به عنوان یک LLM منبع باز که هم برای اهداف تحقیقاتی و هم برای اهداف تجاری در دسترس است، در معرض توجه قرار داد. 

متا با همکاری مایکروسافت، Llama2 را در کاتالوگ مدل‌های هوش مصنوعی Azure در دسترس قرار داد و مدل را برای ویندوز بهینه و جذابیت سازمانی آن را تقویت کرد.

OpenAI پیشنهادات و ردپای تجاری خود را گسترش می‌دهد

ایمنی هوش مصنوعی
ایمنی هوش مصنوعی و اتفاقات OpenAI

پس از انتشار موفقیت‌آمیز ChatGPT در سال 2022، OpenAI چندین پیشنهاد تجاری جدید را در سال 2023 معرفی کرد. برخی از برجسته ترین آن‌ها شامل موارد زیر است:

  • معرفی نسخه‌های پولی با ChatGPT Plus در فوریه که کاربران فردی و تیم‌های کوچک را هدف قرار می‌دهد، و یک ردیف Enterprise در ماه آگوست با هدف سازمان‌های بزرگ‌تر. هر دو نسخه در دسترس بودن خدمات بهبود یافته و ویژگی‌های پیشرفته‌ای مانند پلاگین‌ها و مرور اینترنت را به کاربران خود ارائه می‌دهند.
  • ارتقاء به LLM پرچمدار OpenAI در ماه مارس. GPT-4 یک نسخه چندوجهی از مدل GPT با عملکرد برتر در مقایسه با GPT-3.5 قبلی است که نسخه رایگان ChatGPT را تقویت می‌کند.
  • ویژگی‌های جدید حفظ حریم خصوصی داده‌ها برای ChatGPT در ماه آوریل – یعنی گزینه‌ای برای کاربران برای غیرفعال کردن سابقه چت برای جلوگیری از استفاده OpenAI از مکالمات خود برای آموزش مجدد مدل هوش مصنوعی به این چت‌بات اضافه می‌شود.
  • ادغام DALL-E3 هوش مصنوعی مولد تصویر ChatGPT در ChatGPT Plus و Enterprise در ماه اکتبر.

ظهور نگرانی‌ها درباره ایمنی و امنیت هوش مصنوعی

همان‌طور که هوش مصنوعی مولد در سال 2023 مورد توجه قرار گرفت، بحث‌های امنیت و ایمنی هوش مصنوعی نیز به موازات آن تشدید شد. 

رسانه‌های محبوب اغلب ترس‌ها را در مورد هوش عمومی مصنوعی (AGI) برجسته می‌کنند، شکلی هنوز فرضی از هوش مصنوعی که می‌تواند با هوش و توانایی‌های انسان مطابقت داشته باشد یا حتی از آن فراتر رود.

«جفری هینتون» برنده جایزه «تورینگ» به دلیل نگرانی‌هایش درباره ایمنی هوش مصنوعی، از گوگل بازنشسته شد. او در کنفرانسی در ماه مه گفت: «چیزهایی مانند  GPT-4 خیلی بیشتر از ما می‌دانند.»

اظهارات او بازتاب نگرانی‌های مشابهی در نامه‌ای منتشر شده در ماه مارس بود که در آن از توقف توسعه هوش مصنوعی حمایت می‌کرد و در آن این سوال مطرح می‌شد که آیا توسعه هوش مصنوعی «رقابتی با انسان»، «خطر از دست دادن کنترل تمدن ما» را به همراه خواهد داشت یا نه.

با این حال، بسیاری از محققان و اخلاق‌شناسان هوش مصنوعی دیگر استدلال کرده‌اند که این نگرانی‌ها کاذب هستند، زیرا ماهیت هوش مصنوعی عمومی AGI همچنان در حد حدس و گمان است. در حال حاضر مشخص نیست که آیا این فناوری می تواند ایجاد شود یا خیر.

 در این دیدگاه، تمرکز بر روی AGI توجه را از مسائل فعلی و ملموس مانند سوگیری الگوریتمی و تولید محتوای مضر با استفاده از سیستم‌های هوش مصنوعی موجود منحرف می‌کند. یک عنصر رقابتی نیز وجود دارد، به این معنا که گفتمان AGI با ارائه هوش مصنوعی به عنوان فناوری بسیار قدرتمندی که نمی‌تواند به شکلی ایمن به سمت شرکت‌های کوچک‌تر گسترش یابد، به منافع شرکت‌های عظیم هوش مصنوعی خدمت می‌کند.

در میان خطرات موجود هوش مصنوعی، یک خطر آشکار «آسیب‌پذیری‌های امنیت سایبری» است، مانند توانایی ChatGPT برای افزایش موفقیت و شیوع کلاهبرداری‌های فیشینگ. 

در مصاحبه‌ای در اوایل سال جاری، «چستر ویزنیوسکی» مدیر شرکت فروشنده نرم‌افزار امنیتی و سخت‌افزار Sophos، توضیح داد که چگونه می‌توان ChatGPT را برای اهداف خراب‌کارانه به راحتی دستکاری کرد.

او در ژانویه گفت: «[ChatGPT] به طور قابل‌توجهی در نوشتن کلاهبرداری‌های فیشینگ از انسان‌های واقعی یا حداقل انسان‌هایی که آن‌ها را می‌نویسند بهتر است. بیشتر افرادی که حملات فیشینگ می‌نویسند مهارت‌های انگلیسی بالایی ندارند و به همین دلیل در به خطر انداختن افراد، موفق نیستند. نگرانی من واقعا این است که مردمی که به نگرانی‌هایی از این دست حمله می‌کنند، چگونه قرار است از جنبه‌های اجتماعی ChatGPT استفاده کنند.»

مهران
مهران