هوش مصنوعی، بهویژه در شکل مدلهای زبانی (مانند ChatGPT یا Gemini)، انقلابی در تعامل انسان و فناوری ایجاد کرده است. اکنون کاربران میتوانند به زبان طبیعی با سیستمها صحبت کنند، متن تولید کنند، مقاله بنویسند، سوال بپرسند، تحلیل بخواهند یا حتی برای حل مشکلات پیچیده از آنها کمک بگیرند. با این حال، این فناوری پیشرفته با چالشی مهم روبهروست: توهم دانایی یا Hallucination.
توهم دانایی به حالتی گفته میشود که مدلهای هوش مصنوعی با اطمینان بالا، پاسخهایی تولید میکنند که نادرست، ساختگی یا گمراهکننده هستند. مشکل اینجاست که این پاسخها نهتنها از لحاظ زبانی درست بهنظر میرسند، بلکه گاه چنان دقیق و حرفهای نوشته شدهاند که تشخیص نادرستی آنها برای کاربران عادی بسیار دشوار است.
به همین دلیل است که بسیاری از کاربران—بهویژه افرادی که تخصص کافی در موضوع ندارند—به اشتباه به خروجیهای مدلهای زبانی اعتماد کامل میکنند و گاه تصمیمهای مهمی را بر اساس اطلاعات نادرست اتخاذ مینمایند.
در این مقاله، با بررسی دقیقتر پدیدهی hallucination، علت وقوع آن را تحلیل میکنیم، چند نمونه واقعی از آن ارائه میدهیم، و در نهایت، راهکارهایی کاربردی برای کاربران ارائه خواهیم داد تا بتوانند از دام «توهم دانایی» فرار کنند.
بخش اول: توهم دانایی در هوش مصنوعی چیست؟
در علوم هوش مصنوعی، hallucination به حالتی گفته میشود که مدل زبانی (یا تصویری) اطلاعاتی را تولید میکند که واقعی نیستند؛ نه به این دلیل که قصد فریب دارد، بلکه چون بر اساس ساختار آماری زبان، محتوایی «محتمل» ولی نادرست تولید کرده است.
بهعبارت دیگر، مدلها بر اساس دادههایی که در طول آموزش دیدهاند، سعی میکنند پاسخهایی «قابل قبول» ارائه دهند. اما وقتی اطلاعات کافی ندارند یا سوال بیش از حد خاص، مبهم یا خارج از دانش مدل باشد، از الگوهای زبانی موجود استفاده میکنند تا «پاسخی شبیهبه پاسخ درست» تولید کنند. این یعنی پاسخهای قانعکنندهای که نادرستاند.
بخش دوم: چرا مدلهای زبانی دچار توهم میشوند؟
۱. عدم اتصال به واقعیت (فقدان grounding)
مدلهای زبانی مانند ChatGPT، بر پایه شبکههای عصبی آموزشدیدهاند که زبان را «از روی متن» یاد میگیرند، نه از جهان واقعی. یعنی وقتی مینویسند، به اطلاعات بیرونی وصل نیستند (مگر در نسخههایی که به پایگاه داده یا اینترنت متصلاند).
به همین دلیل، گاهی عباراتی تولید میکنند که ممکن است از نظر معنایی درست بهنظر برسند، اما هیچ ریشهای در واقعیت ندارند.
۲. فشار ساخت پاسخ کامل
مدلها طوری طراحی شدهاند که همواره پاسخی تولید کنند. حتی اگر در دادههای آموزشی اطلاعات مرتبط وجود نداشته باشد، مدل ترجیح میدهد چیزی «بگوید» تا اینکه سکوت کند. این ذاتا باعث بروز محتوای ساختگی میشود.
۳. پرسشهای مبهم یا فریبنده
اگر سوالهایی بهصورت مبهم، ناقص یا با اطلاعات نادرست مطرح شوند، مدل بر اساس الگوی زبانی قبلی، بهترین «حدس» خود را ارائه میدهد—که لزوما دقیق نیست.
بخش سوم: مثالهایی از hallucination در عمل
مثال ۱: تولید منابع جعلی
کاربر: لطفا منابعی علمی برای تأثیر قهوه بر کاهش اضطراب معرفی کن.
ChatGPT:
Johnson, A. (2019). The Impact of Coffee on Anxiety Reduction. Journal of Mental Health, 32(4), 256-263.
Lee, R. (2021). Caffeine, Cortisol and Mood. Psychology & Neuroscience, 14(2), 89-98.
مشکل؟ هیچیک از این منابع وجود خارجی ندارند. اما چون فرمت آنها حرفهایست، بهنظر کاملا معتبر میرسند.
مثال ۲: پاسخ نادرست با اطمینان کامل
کاربر: آیا خورشید از زمین کوچکتر است؟
ChatGPT: بله، خورشید اندازهای کوچکتر از زمین دارد اما دمای آن بسیار بالاست!
اگر مدل به اشتباه در آموزش یا بازخوانی داده، به چنین برداشتی برسد، آن را با اطمینان کامل میگوید—مگر اینکه با دستور اصلاحی مواجه شود.
بخش چهارم: چگونه در دام توهم دانایی نیفتیم؟
۱. همیشه تایید مستقل بگیرید
مهمترین راهکار، اعتماد نکردن کامل به خروجی مدل است. هرگاه اطلاعات عددی، علمی، حقوقی، پزشکی یا تاریخی دریافت کردید، آن را با منابع معتبر یا موتور جستوجو (ترجیحا چند منبع متفاوت) مقایسه کنید.
۲. سوال را واضح، دقیق و شفاف مطرح کنید
پرسشهای کلی، مبهم یا فریبنده احتمال توهم دانایی را بالا میبرند.
مثلا بهجای اینکه بپرسید: «آیا فلان دارو برای اضطراب خوب است؟»
بپرسید: «چه شواهد علمی برای تاثیر داروی X بر اضطراب در مقالات پزشکی وجود دارد؟»
۳. مدل را وادار به استدلال مرحلهبهمرحله کنید
بهجای دریافت پاسخ نهایی، از مدل بخواهید مسیر استدلال خود را توضیح دهد:
- «لطفا گامبهگام توضیح بده چرا به این نتیجه رسیدی.»
- «چه فرضیاتی پشت این نتیجهگیری هست؟»
وقتی مدل ملزم به توضیح باشد، احتمال خروجیهای ساختگی کاهش مییابد.
۴. درخواست منابع واقعی کنید و بررسی نمایید
هر زمان مدل منابع معرفی کرد، آنها را در گوگل یا پایگاههای علمی جستوجو کنید.
درخواستهای بهتر:
- «منبعی از PubMed یا Google Scholar بده»
- «آدرس DOI مقاله را هم ذکر کن»
- «این مقاله را با عنوان و نویسنده دقیق معرفی کن»
۵. از قابلیت بازبینی مدل استفاده کنید
در بسیاری از پلتفرمها، میتوانید از مدل بخواهید پاسخ قبلی را بازبینی کند:
- «آیا مطمئنی اطلاعاتی که دادی در منابع واقعی موجودند؟»
- «آیا ممکنه در پاسخ قبلی اشتباه کرده باشی؟»
- «لطفا دوباره بررسی کن و اگر اشتباهی هست، اصلاحش کن»
این نوع پرسشگری باعث فعال شدن لایههای بازخوردی در مدل میشود و احتمال اصلاح افزایش مییابد.
هوش مصنوعی قدرتمند است، اما بیخطا نیست
پدیده توهم دانایی نشان میدهد که حتی پیشرفتهترین مدلهای زبانی نیز بینیاز از نظارت انسانی نیستند. اعتماد کامل به خروجیهای زیگپ یا هر مدل دیگر، میتواند کاربران را به مسیر نادرست هدایت کند—مخصوصا در زمینههای تخصصی و حساس.
با این حال، راهکارها و تکنیکهایی که بررسی کردیم، میتوانند به کاربران کمک کنند تا بهجای مصرفکنندهی منفعل، به کاربرانی آگاه و فعال تبدیل شوند.
در این صورت، هوش مصنوعی به جای خطر، تبدیل به ابزاری بینقص برای ارتقاء بهرهوری و تصمیمگیری دقیقتر خواهد شد.