هوش مصنوعی، بهویژه مدلهای زبانی پیشرفته، روزبهروز نقش پررنگتری در زندگی ما پیدا میکنند. امروزه مردم برای نوشتن ایمیل، تولید محتوا، حتی مشاوره شغلی و تحلیل دادهها به هوش مصنوعی متکیاند.
اما آنچه نگرانکننده است، روند رو به رشدی است که در آن برخی کاربران از این ابزارها برای گرفتن تصمیمهایی استفاده میکنند که ذاتا انسانیاند؛ تصمیمهایی در مورد روابط شخصی، مسائل اخلاقی، انتخابهای روانشناختی یا حتی قضاوت درباره خود یا دیگران.
در ظاهر، استفاده از هوش مصنوعی برای تحلیل یا راهنمایی در این زمینهها بیضرر یا حتی مفید بهنظر میرسد. اما در عمل، ما با مسائلی روبهرو هستیم که در حوزه «انسان» قرار دارند، نه «ماشین». این مقاله تلاشیست برای نشاندادن خطرات پنهانی که در پشت اعتماد بیجا به الگوریتمها در زندگی ما پنهان شدهاند.
هوش مصنوعی چگونه تصمیم میگیرد؟
مدلهای زبانی مانند ChatGPT، Gemini یا Claude، بر اساس تحلیل میلیونها سند متنی، کتاب، مکالمه، مقاله و پایگاه داده آموزش دیدهاند. این مدلها هیچ «درک انسانی» از جهان ندارند. آنها نه وجدان دارند، نه حافظه احساسی، نه تجربه زیسته. تنها کاری که انجام میدهند، پیشبینی «محتملترین واژه بعدی» در یک جمله بر اساس ورودی کاربر و دادههای آموزشیشان است.
وقتی از یک مدل زبانی میپرسید: «آیا باید از همسرم جدا شوم؟» یا «آیا رفتار دوستم نشانه سوءنیت است؟»، مدل زبانی بر اساس الگوهای زبانشناختی، رایجترین پاسخها را بازتولید میکند؛ نه بر اساس شناخت موقعیت، اخلاقیات یا روان فردی شما. پاسخها ممکن است قانعکننده، محکم یا حتی همدلانه بهنظر برسند، اما توهّم دانایی دارند. آنها فقط شبیه به مشاورهاند، اما در واقع، فقط ساختار زبانی خوبی دارند.
خطر اول: هوش مصنوعی هیچ زمینه شخصی ندارد
در تصمیمگیریهای زندگی، زمینه (context) همهچیز است. ما انسانها براساس تجربیات گذشته، شناخت طرف مقابل، باورهای درونی، فرهنگ، شرایط خانوادگی و عاطفی تصمیم میگیریم. هیچ دو موقعیتی دقیقا مثل هم نیستند.
اما هوش مصنوعی، زمینهگرا نیست. حتی اگر شما اطلاعاتی را وارد کنید، باز هم مدل درکی از اهمیت نسبی این دادهها ندارد. برای مثال، ممکن است شما بنویسید:
«دوستپسرم دیروز سرم داد زد. بهنظر تو آدم خوبیست؟»
هوش مصنوعی ممکن است جواب بدهد:
«رفتار تهاجمی در رابطه نشانهای از مشکلات عمیقتر است. بهتر است مرزهای خود را حفظ کنید.»
در حالی که این یک جواب عمومی و شاید حتی درست بهنظر برسد، اما آیا AI واقعا میداند آن داد زدن در چه شرایطی بوده؟ لحن چطور بوده؟ چه سابقهای در رابطه دارید؟ چه ویژگیهایی دارید که این موقعیت را پیچیدهتر میکند؟ پاسخ روشن است: نه.
خطر دوم: نبود مسئولیتپذیری در پاسخها
وقتی یک روانشناس یا مشاور توصیهای اشتباه بدهد، میتوان او را بازخواست کرد. او مسئول پاسخهایش است. اما مدلهای زبانی هیچ مسئولیتی نمیپذیرند. شرکتهای سازنده هوش مصنوعی بارها اعلام کردهاند که این ابزارها «برای مشاوره تخصصی طراحی نشدهاند».
با این حال، بسیاری از کاربران، بهویژه در مواقع آسیبپذیر، ممکن است به خروجیهای هوش مصنوعی بهعنوان حقیقت یا راهحل قطعی نگاه کنند. اگر تصمیمی اشتباه بگیرند—مثلا یک رابطهی خوب را بیدلیل تمام کنند، یا اعتماد نابجا به کسی داشته باشند—هوش مصنوعی هیچ پاسخی برای آن ندارد.
این بیمسئولیتی در هستهی همه ابزارهای هوش مصنوعی هست و باید با آگاهی کامل در زندگی با آن مواجه شد.
خطر سوم: الگوریتمها با سوگیریهای پنهان عمل میکنند
هیچ دادهای بیطرف نیست. حتی اگر تصور کنیم مدلهای زبانی مثل زیگپ کاملا «منطقی» هستند، باید در نظر بگیریم که این منطق بر پایهی اطلاعاتی ساخته شده که از منابع انسانی آمدهاند—و در آنها سوگیری، کلیشه، تبعیض و تحریف وجود دارد.
مثلا اگر حجم بالایی از متون موجود در اینترنت درباره زنان، افراد خاص، روابط سنتی یا قومیتهای مشخص کلیشههایی داشته باشند، مدلها هم آنها را بازتولید میکنند؛ بدون اینکه خودشان بدانند. بنابراین اگر شما درباره یک مسئله حساس خانوادگی یا فرهنگی از هوش مصنوعی نظر بخواهید، ممکن است خروجی مدل بهصورت ناخواسته سوگیری داشته باشد.
این سوگیریها ممکن است پنهان و ظریف باشند، اما در تصمیمگیریهای حیاتی، همین تفاوتهای کوچک میتوانند سرنوشتساز شوند.
خطر چهارم: تبدیل زندگی عاطفی به رابطه ماشینی
وقتی فردی بهجای مراجعه به یک دوست، مشاور، یا حتی تأمل شخصی، به هوش مصنوعی برای قضاوت در زندگیاش رجوع میکند، یک شیفت خطرناک در روابط انسانی اتفاق میافتد. انسان برای درک، شنیدهشدن و همدلی نیاز به حضور انسانی دارد.
هوش مصنوعی ممکن است با لحن همدلانه پاسخ دهد، اما این همدلی واقعی نیست. مدل صرفا در حال تقلید لحن انسانی است. تکرار این روند ممکن است در بلندمدت باعث شود فرد کمتر به روابط انسانی اتکا کند، کمتر از دیگران کمک بخواهد، و بیشتر در انزوای تصمیمگیری فردی و ماشینی فرو برود که خود میتواند زمینهساز افسردگی، اضطراب یا بیگانگی اجتماعی شود.
خطر پنجم: ایجاد وابستگی روانشناختی به پاسخهای هوش مصنوعی
استفاده بیشازحد از AI برای مسائل شخصی، میتواند منجر به وابستگی روانی شود؛ نوعی اعتیاد به دریافت پاسخ، حتی برای تصمیمهای کوچک. فرد بهجای اینکه به عقل، تجربه، شهود یا دوستانش رجوع کند، از زیگپ یا مدلهای مشابه میپرسد که «امروز چهکار کنم؟»، «چطور جواب پیامش را بدهم؟»، «آیا ناراحت بودنم منطقی است؟».
این وابستگی، در ظاهر بیضرر است، اما در واقع، خودمختاری فکری و عاطفی انسان را تضعیف میکند. هرچه بیشتر به الگوریتم برای پاسخ تکیه کنید، کمتر به ندای درون خود اعتماد خواهید کرد.
خطر ششم: بازتولید آسیبها بهجای درمان آنها
فرض کنید فردی در رابطهای سمی قرار دارد و از هوش مصنوعی میخواهد کمکش کند. او اطلاعاتی میدهد، اما ناقص یا یکسویه. مدل زبانی هم براساس همین دادهها پاسخهایی ارائه میدهد که ممکن است تاییدگر اشتباهات، تحقیر یا توجیه خشونت باشند.
از آنسو، مدل نمیداند آیا طرف مقابل اختلال روانی دارد؟ آیا پای کودک در میان است؟ آیا فرد در خطر جانی است؟ هوش مصنوعی نمیتواند این پیچیدگیها را تحلیل کند، در نتیجه ممکن است ناخواسته باعث تداوم آسیب شود.
راهکارهایی برای استفاده ایمن از هوش مصنوعی در حوزههای انسانی
۱. مرز بین «مشورت» و «قضاوت» را بشناسید
میتوانید از هوش مصنوعی برای بررسی احتمالات، یافتن منابع، یا کسب دیدگاههای مختلف استفاده کنید، اما تصمیم نهایی را فقط خودتان یا با کمک یک انسان متخصص بگیرید.
۲. از AI برای تحلیل داده، نه تحلیل شخصیت استفاده کنید
میتوانید از زیگپ بخواهید که مقالهای درباره «علائم اختلال دلبستگی» بدهد، اما نه اینکه قضاوت کند «آیا شریک عاطفیام این اختلال را دارد یا نه».
۳. از خروجیها بهعنوان پیشنویس یا نقطه شروع استفاده کنید
مثلا اگر برای نوشتن نامه به یک عزیز یا شریک عاطفی دچار تردیدید، از هوش مصنوعی یک پیشنویس بخواهید، اما آن را با احساس واقعیتان بازنویسی کنید.
۴. از هوش مصنوعی نپرسید «چه کنم؟»، بلکه بپرسید «چه گزینههایی وجود دارد؟»
مدلهای زبانی در فهرستکردن احتمالات و سناریوها بسیار مفید هستند. اما نباید تصمیم را برای شما بگیرند.
۵. در مسائل خانوادگی، از متخصص انسانی کمک بگیرید
روانشناسان، مشاوران خانواده، رواندرمانگران و مددکاران اجتماعی، ابزار و تجربه لازم برای تحلیل کامل شرایط انسانی دارند. هیچ مدل ماشینی نمیتواند جای آنها را بگیرد.
هوش مصنوعی قاضی خوبی برای انسان نیست
مدلهای زبانی مثل زیگپ، ابزارهای شگفتانگیزی هستند. آنها میتوانند بنویسند، تحلیل کنند، آموزش دهند و حتی الهامبخش باشند. اما هر ابزاری حدی دارد و بزرگترین خطا زمانی اتفاق میافتد که از یک ابزار، بیشتر از ظرفیتش انتظار داشته باشیم.
زندگی انسان، پر از پیچیدگی، لایههای احساسی، اخلاقی، فرهنگی و تاریخیست. تصمیمهایی که ما درباره خود، دیگران، یا آیندهمان میگیریم، نیاز به درک عمیق انسانی دارند، نه فقط متنهایی که خوب بهنظر میرسند.
پس دفعه بعد که خواستید درباره یکی از مهمترین مسائل زندگیتان با کسی صحبت کنید، بهجای الگوریتم، با یک انسان حرف بزنید؛ شاید حتی با خودتان.