بر اساس گزارش بلومبرگ، مایکروسافت یک مدل هوش مصنوعی زاینده (مولد) مبتنی بر GPT-4 را معرفی کرده است که به طور خاص برای آژانسهای اطلاعاتی ایالات متحده و برای جاسوسان طراحی شده و به صورت آفلاین کار میکند.
طبق گزارشها، این اولین باری است که مایکروسافت یک مدل زبان اصلی را در یک محیط امن به کار میگیرد، که به آژانسهای جاسوسی اجازه میدهد تا اطلاعات فوقمحرمانه را بدون خطرات اتصال به اینترنت تجزیهوتحلیل کنند و امکان مکالمه امن با یک چتبات مشابه ChatGPT و Microsoft Copilot را فراهم کند.
البته در صورت عدم استفاده صحیح به دلیل محدودیتهای طراحی ذاتی مدلهای زبان هوش مصنوعی، چنین ابزاری ممکن است مقامات را هم گمراه کند.
GPT-4 یک مدل زبان بزرگ (LLM) است که توسط OpenAI ایجاد شده که تلاش میکند محتملترین توکنها (بخشهایی از دادههای رمزگذاریشده) را در یک دنباله پیشبینی کند.
طراحی هوش مصنوعی برای جاسوسان
میتوان از آن برای ساخت کد کامپیوتری و تجزیهوتحلیل اطلاعات استفاده کرد. وقتی GPT-4 در قالب یک چتبات (مانند ChatGPT) پیکربندی شود، میتواند به دستیارهای هوش مصنوعی کمک کند که به شیوهای شبیه انسان صحبت کنند. مایکروسافت مجوز استفاده از این فناوری را به عنوان بخشی از معامله در ازای سرمایهگذاریهای بزرگی که در OpenAI انجام داده است، دارد.
بر اساس این گزارش، سرویس هوش مصنوعی جدید (که هنوز نام عمومی ندارد) حاکی از افزایش آژانسهای اطلاعاتی برای استفاده از هوش مصنوعی زاینده برای پردازش دادههای طبقهبندیشده و در عین حال کاهش خطرات نقض داده یا تلاشهای هک است.
ChatGPT معمولا روی سرورهای ابری ارائه شده توسط مایکروسافت اجرا میشود که می تواند خطرات نشت داده و رهگیری را ایجاد کند. در همین راستا، CIA برنامه خود را برای ایجاد سرویسی شبیه به ChatGPT در سال گذشته اعلام کرده بود، اما این تلاش مایکروسافت یک پروژه جداگانه است.
«ویلیام شپل» مدیر ارشد فناوری مایکروسافت برای ماموریتهای استراتژیک و فناوری، به بلومبرگ گفته که توسعه سیستم جدید شامل 18 ماه کار برای اصلاح یک ابررایانه هوش مصنوعی در آیوواست. این مدل اصلاحشده GPT-4 برای خواندن فایلهای ارائهشده توسط کاربرانش طراحی شده است، اما نمیتواند به اینترنت باز دسترسی داشته باشد.
شپل به بلومبرگ گفت: «این اولین باری است که ما یک نسخه ایزوله داشتهایم – به این معنا که به اینترنت متصل نیست – و در یک شبکه ویژه است که فقط دولت ایالات متحده به آن دسترسی دارد.
این سرویس جدید که به سوالات پاسخ میدهد، روز پنجشنبه فعال شد و اکنون در اختیار حدود 10000 نفر در جامعه اطلاعاتی قرار دارد و آماده آزمایشهای بیشتر توسط سازمانهای مربوطه است.
یکی از اشکالات جدی استفاده از GPT-4 برای تجزیهوتحلیل دادههای مهم این است که میتواند به طور بالقوه خلاصههای نادرست را ترکیب کند، نتیجهگیری نادرست بگیرد یا اطلاعات نادرست را در اختیار کاربران خود قرار دهد.
از آنجایی که شبکههای عصبی آموزشدیده هوش مصنوعی پایگاه داده نیستند و بر اساس احتمالات آماری کار میکنند، نتایج و منابع واقعی ضعیفی ایجاد میکنند، مگر اینکه با دسترسی خارجی به اطلاعات از منبع دیگری با استفاده از تکنیکی مانند بازیابی تولید افزوده (RAG) تقویت شوند.
با توجه به این محدودیت، کاملا ممکن است که GPT-4 در صورت عدم استفاده صحیح، به طور بالقوه اطلاعات نادرست یا گمراهکنندهای برای سازمانهای اطلاعاتی آمریکا داشته باشد. ما نمیدانیم که این سیستم چه نظارتی خواهد داشت یا اینکه چگونه میتوان میزان دقت آن را سنجید. مایکروسافت هم هنوز پاسخی به این ابهامات نداده است.
منبع: wired