محققها یک شباهت جالب بین نحوه پردازش اطلاعات در مدلهای بزرگ زبانی (LLMs) مثل ChatGPT و عملکرد مغز افرادی که دچار آفازی (عدم قدرت تکلم) هستن پیدا کردن. در هر دو مورد، خروجیها روان ولی اغلب بیمعنا تولید میشن، که نشوندهنده الگوهای پردازش داخلی سفت و سختی هست که میتونه معنی رو تحریف کنه.
با استفاده از تحلیل انرژی لنداسکیپ روی اسکنهای مغزی و دادههای مدلهای هوش مصنوعی، دانشمندان دینامیکهای مشترکی در جریان سیگنالها مشاهده کردن که به شباهتهای ساختاری عمیقتری اشاره داره. این یافتهها میتونه به بهبود تشخیص آفازی و طراحی هوش مصنوعی کمک کنه و نشون بده که چطور محدودیتهای داخلی میتونه بر وضوح زبان تأثیر بذاره.
نکات کلیدی:
- شباهت شناختی: سیستمهای هوش مصنوعی و بیماران آفازی هر دو خروجی روان ولی غیرقابل اعتماد تولید میکنن.
- دینامیکهای مشترک: اسکنهای مغزی و دادههای LLM الگوهای سیگنالی مشابهی رو با استفاده از تحلیل انرژی لنداسکیپ نشون میدن.
- تأثیر دوگانه: این بینشها میتونه هم معماری هوش مصنوعی رو بهبود بده و هم تشخیصهای بالینی برای اختلالات زبانی رو اصلاح کنه.
تقلید اختلال مغزی انسان با هوش مصنوعی
ابزارهایی مثل چتباتها و دیگر ابزارهای مبتنی بر هوش مصنوعی (AI) به طور گستردهای در زندگی روزمره استفاده میشن.
مدلهای بزرگ زبانی مثل ChatGPT و Llama به طرز شگفتانگیزی در پاسخهایی که میدن روان شدن، اما اغلب اطلاعات قانعکننده ولی نادرست ارائه میدن.
محققان دانشگاه توکیو این مشکل رو با اختلال زبانی انسانی به نام آفازی مقایسه میکنن، جایی که افراد ممکنه به طور روان صحبت کنن ولی جملاتشون بیمعنا یا سختفهم باشه. این شباهت میتونه به تشخیص بهتر آفازی کمک کنه و حتی به مهندسان هوش مصنوعی بینشهایی بده تا چتباتهای مبتنی بر LLM رو بهبود بدن.
این مقاله توسط یک انسان نوشته شده، اما استفاده از هوش مصنوعی برای تولید متن در بسیاری از حوزهها در حال افزایشه. با اینکه بیشتر و بیشتر افراد به این ابزارها وابسته میشن، نیاز به اطمینان از اینکه این ابزارها پاسخها و اطلاعات صحیح و منطقی به کاربرانشون ارائه میدن، روز به روز بیشتر میشه.
بسیاری از ابزارهای آشنا، از جمله ChatGPT و دیگران، به نظر خیلی روان میان. اما پاسخهاشون همیشه قابل اعتماد نیستن به خاطر اینکه مقدار زیادی محتوای اساساً ساختگی تولید میکنن.
اگر کاربر درباره موضوع خاصی اطلاعات کافی نداشته باشه، به راحتی ممکنه فکر کنه که این اطلاعات درست هستن، به ویژه با توجه به اعتماد به نفس بالایی که ChatGPT و دیگران نشون میدن.
پروفسور تاکامیتسو واتانابه از مرکز تحقیقات بینالمللی نوروانتلیجنس (WPI-IRCN) در دانشگاه توکیو گفت: نمیتونید نادیده بگیرید که بعضی از سیستمهای هوش مصنوعی چطور میتونن به طرز فصیح صحبت کنن در حالی که هنوز هم اشتباهات قابل توجهی تولید میکنن.
اما چیزی که تیم من و من رو شگفتزده کرد، شباهتی بود بین این رفتار و رفتار افرادی که دچار آفازی ورنیکه هستن، جایی که این افراد به طور روان صحبت میکنن ولی همیشه خیلی منطقی نیستن.
این ما رو به فکر فرو برد که آیا مکانیزمهای داخلی این سیستمهای هوش مصنوعی میتونه شبیه به مغز انسانهایی باشه که دچار آفازی هستن و اگر اینطور باشه، پیامدهایش چی میتونه باشه.
شباهت هوش مصنوعی به افراد دچار آفازی ورنیکه
برای بررسی این ایده، تیم از روشی به نام تحلیل انرژی لنداسکیپ استفاده کرد، تکنیکی که در ابتدا توسط فیزیکدانها برای تجسم حالتهای انرژی در فلزات مغناطیسی توسعه یافته بود، اما اخیراً برای علوم اعصاب سازگار شده.
اونها الگوهای فعالیت مغزی در حالت استراحت افراد با انواع مختلف آفازی رو بررسی کردن و با دادههای داخلی چندین LLM عمومی مقایسه کردن. و در تحلیلشون، تیم شباهتهای قابل توجهی پیدا کرد.
نحوه حرکت و دستکاری اطلاعات دیجیتال یا سیگنالها در این مدلهای هوش مصنوعی به طور نزدیکی با رفتار برخی سیگنالهای مغزی در مغز افرادی که دچار آفازیهای خاصی هستن، از جمله آفازی ورنیکه، مطابقت داشت.
واتانابه گفت: “میتونید انرژی لنداسکیپ رو به عنوان یک سطح با یک توپ روی آن تصور کنید. وقتی یک منحنی وجود داره، توپ ممکنه پایین بیفته و متوقف بشه، اما وقتی منحنیها کمعمق هستن، توپ ممکنه به طور بینظم بچرخد.”
“در آفازی، توپ نمایانگر حالت مغز فرد هست. در LLMها، این نمایانگر الگوی سیگنال مداوم در مدل بر اساس دستورالعملها و دادههای داخلیشه.”
این تحقیق چندین پیامد داره. برای علوم اعصاب، این یک روش جدید برای طبقهبندی و نظارت بر شرایطی مثل آفازی بر اساس فعالیت داخلی مغز به جای فقط علائم خارجی ارائه میده.
برای هوش مصنوعی، این میتونه به ابزارهای تشخیصی بهتری منجر بشه که به مهندسان کمک میکنه معماری سیستمهای هوش مصنوعی رو از درون به بیرون بهبود بدن. با این حال، با وجود شباهتهایی که محققان کشف کردن، اونها احتیاط میکنن که فرضیات زیادی نکنن.
واتانابه گفت: “ما نمیگیم چتباتها آسیب مغزی دارن.”
“اما ممکنه در نوعی الگوی داخلی سفت و سخت قفل شده باشن که محدود میکنه چقدر به طور انعطافپذیر میتونن از دانش ذخیرهشده استفاده کنن، درست مثل آفازی پذیرنده.”
“اینکه آیا مدلهای آینده میتونن این محدودیت رو پشت سر بذارند، هنوز مشخص نیست، اما درک این شباهتهای داخلی ممکنه اولین قدم به سمت هوش مصنوعی هوشمندتر و قابل اعتمادتر باشه
منبع : neurosciencenews