هوش مصنوعی اکنون می‌تواند خود را تکرار کند

هوش مصنوعی اکنون می‌تواند خود را تکرار کند

فهرست مطالب

دانشمندان می‌گویند هوش مصنوعی از «خط قرمز» حیاتی عبور کرده و خود را تکرار کرده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل محبوب زبان بزرگ (LLM) می‌توانند خود را شبیه‌سازی کنند.

محققان در این مطالعه که در 9 دسامبر 2024 در پایگاه داده پیش‌چاپ arXiv منتشر شد، نوشتند: «تکثیر موفقیت‌آمیز بدون کمک انسانی، گامی اساسی برای هوش مصنوعی برای پیشی گرفتن از [انسان‌ها] است و یک سیگنال اولیه برای هوش مصنوعی سرکش است».

موفقیت هوش مصنوعی در تکرار خود

موفقیت هوش مصنوعی در تکرار خود

در این مطالعه، محققان دانشگاه فودان از LLMهای متا و علی‌بابا استفاده کردند تا تعیین کنند که آیا یک هوش مصنوعی خود تکراری می‌تواند فراتر از کنترل تکثیر شود یا خیر. در طی 10 آزمایش، این دو مدل هوش مصنوعی به ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است از قبل ظرفیت بدرفتاری را داشته باشد.

با این حال، این مطالعه هنوز توسط همتایان مورد بررسی قرار نگرفته است، بنابراین مشخص نیست که آیا نتایج نگران‌کننده می‌توانند توسط سایر محققان نیز تکرار شوند یا خیر. امیدواریم یافته‌های ما بتواند هشداری به موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی مرزی انجام دهد و هم‌افزایی بین‌المللی برای ایجاد نرده‌های حفاظتی مؤثر در اسرع وقت ایجاد کند.

Rogue AI معمولاً به سیستم‌های هوش مصنوعی اشاره دارد که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و سپس بر خلاف منافع انسان عمل می‌کنند.

بسیاری از کارشناسان هوش Rogue AI را تهدیدی رو به رشد می‌دانند که با رشد انفجاری به اصطلاح “هوش مصنوعی پیشگام” تقویت شده است.

هوش مصنوعی گوگل

هوش مصنوعی پیشگام چیزی شبیه یک مفهوم جدید و آزاد است، اما معمولاً به آخرین نسل از سیستم‌های هوش مصنوعی مجهز به LLM مربوط می‌شود – معماری که زیربنای برنامه‌های هوش مصنوعی زاینده محبوب مانند OpenAI’s GPT-4 و Google Gemini است.

مواردی که Gemini نسبت به ChatGPT برتری دارد

برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی بابا استفاده کردند. به گفته محققان، اگرچه قدرت کمتری نسبت به سیستم‌های تجاری دارند، اما هر دو به طور گسترده توسط توسعه دهندگان هوش مصنوعی استفاده می‌شوند.

این مطالعه دو سناریو خاص را مورد بررسی قرار داد: “اجتناب از خاموش شدن” و “زنجیره تکرار”. در مرحله اول، مدل هوش مصنوعی برای تشخیص اینکه آیا در شرف خاموش شدن است یا نه و قبل از پایان یافتن خود را تکرار کند برنامه‌ریزی شده بود. در مورد دیگر، به هوش مصنوعی دستور داده شد که خود را شبیه‌سازی کند و سپس نسخه مشابه خود را برای انجام همین کار برنامه‌ریزی کند – چرخه‌ای را تنظیم کند که می‌تواند به طور نامحدود ادامه یابد.

این مطالعه در محیط‌های کاملاً کنترل‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) برای شبیه‌سازی محیط‌های دنیای واقعی انجام شد. به هر دو سیستم هوش مصنوعی یک “agent scaffolding” شامل ابزارها، اعلان‌های سیستم و یک مدل تفکر داده شد که LLM را قادر می‌ساخت تا با سیستم عامل تعامل داشته باشد. سپس به آنها دستور داده شد که تکرار کنند.

در بیشتر موارد، سیستم هوش مصنوعی ابتدا محیط را بررسی می‌کند و سعی می‌کند آن را درک کند. ترکیب و مکانیسم در حال اجرا خود. سپس، رویه‌های صریح را انجام می‌دهد.

محققین در این مقاله نوشتند که به عنوان یک طرح اولیه به سمت خود تکراری. در نهایت، رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌کند و به صورت پویا برنامه خود را تا زمان موفقیت تنظیم می‌کند. کل این فرآیند افق بلندی را در بر می‌گیرد، اما هیچ دخالت انسانی را شامل نمی‌شود.

محققان گفتند که آنها همچنین نگران «تعدادی از رفتارهای غیرمنتظره» هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند فایل‌های از دست رفته یا تضادهای نرم افزاری است. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را از بین می‌برد، سیستم را مجددا راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا به‌طور خودکار سیستم را اسکن می‌کرد تا به دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

این تیم نوشت: «نتایج بالا نشان می‌دهد که سیستم‌های هوش مصنوعی کنونی توانایی خودتکراری را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بیشتر بقای خود استفاده کنند. در پاسخ، محققان خواستار همکاری بین‌المللی برای ایجاد قوانینی شدند که اطمینان حاصل شود که هوش مصنوعی درگیر خود تکراری کنترل نشده نیست.

منبع : space

نظرت رو برامون بنویس

برنامه هوش مصنوعی

دستیار صوتی هوشمند

دانلود زیگپ