چت‌بات‌های هوش مصنوعی

چت‌بات‌های هوش مصنوعی، اختلال مغزی انسان را تقلید می‌کنند

فهرست مطالب

محقق‌ها یک شباهت جالب بین نحوه پردازش اطلاعات در مدل‌های بزرگ زبانی (LLMs) مثل ChatGPT و عملکرد مغز افرادی که دچار آفازی (عدم قدرت تکلم) هستن پیدا کردن. در هر دو مورد، خروجی‌ها روان ولی اغلب بی‌معنا تولید می‌شن، که نشون‌دهنده الگوهای پردازش داخلی سفت و سختی هست که می‌تونه معنی رو تحریف کنه.

با استفاده از تحلیل انرژی لنداسکیپ روی اسکن‌های مغزی و داده‌های مدل‌های هوش مصنوعی، دانشمندان دینامیک‌های مشترکی در جریان سیگنال‌ها مشاهده کردن که به شباهت‌های ساختاری عمیق‌تری اشاره داره. این یافته‌ها می‌تونه به بهبود تشخیص آفازی و طراحی هوش مصنوعی کمک کنه و نشون بده که چطور محدودیت‌های داخلی می‌تونه بر وضوح زبان تأثیر بذاره.

نکات کلیدی:

  • شباهت شناختی: سیستم‌های هوش مصنوعی و بیماران آفازی هر دو خروجی روان ولی غیرقابل اعتماد تولید می‌کنن.
  • دینامیک‌های مشترک: اسکن‌های مغزی و داده‌های LLM الگوهای سیگنالی مشابهی رو با استفاده از تحلیل انرژی لنداسکیپ نشون می‌دن.
  • تأثیر دوگانه: این بینش‌ها می‌تونه هم معماری هوش مصنوعی رو بهبود بده و هم تشخیص‌های بالینی برای اختلالات زبانی رو اصلاح کنه.

تقلید اختلال مغزی انسان با هوش مصنوعی

تقلید اختلال مغزی انسان با هوش مصنوعی

ابزارهایی مثل چت‌بات‌ها و دیگر ابزارهای مبتنی بر هوش مصنوعی (AI) به طور گسترده‌ای در زندگی روزمره استفاده می‌شن.

مدل‌های بزرگ زبانی مثل ChatGPT و Llama به طرز شگفت‌انگیزی در پاسخ‌هایی که می‌دن روان شدن، اما اغلب اطلاعات قانع‌کننده ولی نادرست ارائه می‌دن.

محققان دانشگاه توکیو این مشکل رو با اختلال زبانی انسانی به نام آفازی مقایسه می‌کنن، جایی که افراد ممکنه به طور روان صحبت کنن ولی جملاتشون بی‌معنا یا سخت‌فهم باشه. این شباهت می‌تونه به تشخیص بهتر آفازی کمک کنه و حتی به مهندسان هوش مصنوعی بینش‌هایی بده تا چت‌بات‌های مبتنی بر LLM رو بهبود بدن.

این مقاله توسط یک انسان نوشته شده، اما استفاده از هوش مصنوعی برای تولید متن در بسیاری از حوزه‌ها در حال افزایشه. با اینکه بیشتر و بیشتر افراد به این ابزارها وابسته می‌شن، نیاز به اطمینان از اینکه این ابزارها پاسخ‌ها و اطلاعات صحیح و منطقی به کاربرانشون ارائه می‌دن، روز به روز بیشتر می‌شه.

بسیاری از ابزارهای آشنا، از جمله ChatGPT و دیگران، به نظر خیلی روان میان. اما پاسخ‌هاشون همیشه قابل اعتماد نیستن به خاطر اینکه مقدار زیادی محتوای اساساً ساختگی تولید می‌کنن.

اگر کاربر درباره موضوع خاصی اطلاعات کافی نداشته باشه، به راحتی ممکنه فکر کنه که این اطلاعات درست هستن، به ویژه با توجه به اعتماد به نفس بالایی که ChatGPT و دیگران نشون می‌دن.

پروفسور تاکامیتسو واتانابه از مرکز تحقیقات بین‌المللی نوروانتلیجنس (WPI-IRCN) در دانشگاه توکیو گفت: نمی‌تونید نادیده بگیرید که بعضی از سیستم‌های هوش مصنوعی چطور می‌تونن به طرز فصیح صحبت کنن در حالی که هنوز هم اشتباهات قابل توجهی تولید می‌کنن.

اما چیزی که تیم من و من رو شگفت‌زده کرد، شباهتی بود بین این رفتار و رفتار افرادی که دچار آفازی ورنیکه هستن، جایی که این افراد به طور روان صحبت می‌کنن ولی همیشه خیلی منطقی نیستن.

این ما رو به فکر فرو برد که آیا مکانیزم‌های داخلی این سیستم‌های هوش مصنوعی می‌تونه شبیه به مغز انسان‌هایی باشه که دچار آفازی هستن و اگر اینطور باشه، پیامدهایش چی می‌تونه باشه.

شباهت هوش مصنوعی به افراد دچار آفازی ورنیکه

شباهت هوش مصنوعی به افراد دچار آفازی ورنیکه

برای بررسی این ایده، تیم از روشی به نام تحلیل انرژی لنداسکیپ استفاده کرد، تکنیکی که در ابتدا توسط فیزیکدان‌ها برای تجسم حالت‌های انرژی در فلزات مغناطیسی توسعه یافته بود، اما اخیراً برای علوم اعصاب سازگار شده.

اون‌ها الگوهای فعالیت مغزی در حالت استراحت افراد با انواع مختلف آفازی رو بررسی کردن و با داده‌های داخلی چندین LLM عمومی مقایسه کردن. و در تحلیلشون، تیم شباهت‌های قابل توجهی پیدا کرد.

نحوه حرکت و دستکاری اطلاعات دیجیتال یا سیگنال‌ها در این مدل‌های هوش مصنوعی به طور نزدیکی با رفتار برخی سیگنال‌های مغزی در مغز افرادی که دچار آفازی‌های خاصی هستن، از جمله آفازی ورنیکه، مطابقت داشت.

واتانابه گفت: “می‌تونید انرژی لنداسکیپ رو به عنوان یک سطح با یک توپ روی آن تصور کنید. وقتی یک منحنی وجود داره، توپ ممکنه پایین بیفته و متوقف بشه، اما وقتی منحنی‌ها کم‌عمق هستن، توپ ممکنه به طور بی‌نظم بچرخد.”

“در آفازی، توپ نمایانگر حالت مغز فرد هست. در LLMها، این نمایانگر الگوی سیگنال مداوم در مدل بر اساس دستورالعمل‌ها و داده‌های داخلیشه.”

این تحقیق چندین پیامد داره. برای علوم اعصاب، این یک روش جدید برای طبقه‌بندی و نظارت بر شرایطی مثل آفازی بر اساس فعالیت داخلی مغز به جای فقط علائم خارجی ارائه می‌ده.

برای هوش مصنوعی، این می‌تونه به ابزارهای تشخیصی بهتری منجر بشه که به مهندسان کمک می‌کنه معماری سیستم‌های هوش مصنوعی رو از درون به بیرون بهبود بدن. با این حال، با وجود شباهت‌هایی که محققان کشف کردن، اون‌ها احتیاط می‌کنن که فرضیات زیادی نکنن.

واتانابه گفت: “ما نمی‌گیم چت‌بات‌ها آسیب مغزی دارن.”

“اما ممکنه در نوعی الگوی داخلی سفت و سخت قفل شده باشن که محدود می‌کنه چقدر به طور انعطاف‌پذیر می‌تونن از دانش ذخیره‌شده استفاده کنن، درست مثل آفازی پذیرنده.”

“اینکه آیا مدل‌های آینده می‌تونن این محدودیت رو پشت سر بذارند، هنوز مشخص نیست، اما درک این شباهت‌های داخلی ممکنه اولین قدم به سمت هوش مصنوعی هوشمندتر و قابل اعتمادتر باشه

منبع : neurosciencenews

نظرت رو برامون بنویس

برنامه هوش مصنوعی
دستیار صوتی هوشمند
برنامه هوش مصنوعی
دستیار صوتی هوشمند

دانلود زیگپ