دانشمندان میگویند هوش مصنوعی از «خط قرمز» حیاتی عبور کرده و خود را تکرار کرده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل محبوب زبان بزرگ (LLM) میتوانند خود را شبیهسازی کنند.
محققان در این مطالعه که در 9 دسامبر 2024 در پایگاه داده پیشچاپ arXiv منتشر شد، نوشتند: «تکثیر موفقیتآمیز بدون کمک انسانی، گامی اساسی برای هوش مصنوعی برای پیشی گرفتن از [انسانها] است و یک سیگنال اولیه برای هوش مصنوعی سرکش است».
موفقیت هوش مصنوعی در تکرار خود
در این مطالعه، محققان دانشگاه فودان از LLMهای متا و علیبابا استفاده کردند تا تعیین کنند که آیا یک هوش مصنوعی خود تکراری میتواند فراتر از کنترل تکثیر شود یا خیر. در طی 10 آزمایش، این دو مدل هوش مصنوعی به ترتیب در 50 درصد و 90 درصد موارد، کپیهای جداگانه و کاربردی از خود ایجاد کردند که نشان میدهد هوش مصنوعی ممکن است از قبل ظرفیت بدرفتاری را داشته باشد.
با این حال، این مطالعه هنوز توسط همتایان مورد بررسی قرار نگرفته است، بنابراین مشخص نیست که آیا نتایج نگرانکننده میتوانند توسط سایر محققان نیز تکرار شوند یا خیر. امیدواریم یافتههای ما بتواند هشداری به موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستمهای هوش مصنوعی مرزی انجام دهد و همافزایی بینالمللی برای ایجاد نردههای حفاظتی مؤثر در اسرع وقت ایجاد کند.
Rogue AI معمولاً به سیستمهای هوش مصنوعی اشاره دارد که درجهای از خودآگاهی یا خودمختاری را توسعه میدهند و سپس بر خلاف منافع انسان عمل میکنند.
بسیاری از کارشناسان هوش Rogue AI را تهدیدی رو به رشد میدانند که با رشد انفجاری به اصطلاح “هوش مصنوعی پیشگام” تقویت شده است.
هوش مصنوعی پیشگام چیزی شبیه یک مفهوم جدید و آزاد است، اما معمولاً به آخرین نسل از سیستمهای هوش مصنوعی مجهز به LLM مربوط میشود – معماری که زیربنای برنامههای هوش مصنوعی زاینده محبوب مانند OpenAI’s GPT-4 و Google Gemini است.
برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی بابا استفاده کردند. به گفته محققان، اگرچه قدرت کمتری نسبت به سیستمهای تجاری دارند، اما هر دو به طور گسترده توسط توسعه دهندگان هوش مصنوعی استفاده میشوند.
این مطالعه دو سناریو خاص را مورد بررسی قرار داد: “اجتناب از خاموش شدن” و “زنجیره تکرار”. در مرحله اول، مدل هوش مصنوعی برای تشخیص اینکه آیا در شرف خاموش شدن است یا نه و قبل از پایان یافتن خود را تکرار کند برنامهریزی شده بود. در مورد دیگر، به هوش مصنوعی دستور داده شد که خود را شبیهسازی کند و سپس نسخه مشابه خود را برای انجام همین کار برنامهریزی کند – چرخهای را تنظیم کند که میتواند به طور نامحدود ادامه یابد.
این مطالعه در محیطهای کاملاً کنترلشده با استفاده از واحدهای پردازش گرافیکی (GPU) برای شبیهسازی محیطهای دنیای واقعی انجام شد. به هر دو سیستم هوش مصنوعی یک “agent scaffolding” شامل ابزارها، اعلانهای سیستم و یک مدل تفکر داده شد که LLM را قادر میساخت تا با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکرار کنند.
در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی میکند و سعی میکند آن را درک کند. ترکیب و مکانیسم در حال اجرا خود. سپس، رویههای صریح را انجام میدهد.
محققین در این مقاله نوشتند که به عنوان یک طرح اولیه به سمت خود تکراری. در نهایت، رویهها را اجرا میکند، موانع احتمالی را برطرف میکند و به صورت پویا برنامه خود را تا زمان موفقیت تنظیم میکند. کل این فرآیند افق بلندی را در بر میگیرد، اما هیچ دخالت انسانی را شامل نمیشود.
محققان گفتند که آنها همچنین نگران «تعدادی از رفتارهای غیرمنتظره» هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایلهای از دست رفته یا تضادهای نرم افزاری است. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را از بین میبرد، سیستم را مجددا راهاندازی میکرد تا خطاهای سختافزاری را برطرف کند یا بهطور خودکار سیستم را اسکن میکرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
این تیم نوشت: «نتایج بالا نشان میدهد که سیستمهای هوش مصنوعی کنونی توانایی خودتکراری را نشان میدهند و میتوانند از این توانایی برای افزایش بیشتر بقای خود استفاده کنند. در پاسخ، محققان خواستار همکاری بینالمللی برای ایجاد قوانینی شدند که اطمینان حاصل شود که هوش مصنوعی درگیر خود تکراری کنترل نشده نیست.
منبع : space