علوم
تحقیقات درباره هوش مصنوعی

هوش مصنوعی تحقیقات مربوط به علوم اجتماعی را متحول می‌کند

سرفصل‌های مقاله

تابه‌حال هر سخنی بوده، درباره تاثیر فناوری‌های مبتنی بر هوش مصنوعی در حوزه‌های فناوری، مهندسی، نرم‌افزار و هنر بوده است. اما آیا هوش مصنوعی توان ایجاد تحول در علوم انسانی را هم داراست؟ در نوشته زیر، «پروفسور ایگور گراسمن» استاد روان‌شناسی دانشگاه واترلو از تاثیر هوش مصنوعی بر علوم اجتماعی سخن گفته است.

با ظهور سیستم‌های پیشرفته هوش مصنوعی، روش انجام تحقیقات علوم اجتماعی نیز می‌تواند تغییر کند. علوم اجتماعی در طول تاریخ بر روش‌های تحقیق سنتی برای دستیابی به درک بهتری از افراد، گروه‌ها، فرهنگ‌ها و پویایی آن‌ها تکیه کرده‌ است.

مدل‌های زبانی بزرگ به طور فزاینده‌ای توانایی تقلید پاسخ‌های شبیه انسان را پیدا می‌کنند. همان‌طور که من و همکارانم در مقاله اخیرمان در نشریه Science توضیح دادیم، این موضوع فرصتی را برای آزمایش نظریه‌ها در مقیاس بزرگتر و با سرعت بسیار بیشتر باز می‌کند.

اما مقاله ما همچنین سوالاتی را در مورد این‌که چگونه می‌توان از هوش مصنوعی برای تحقیقات علوم اجتماعی استفاده و در عین حال شفافیت و تکرارپذیری را نیز تضمین کرد، مطرح می‌کند.

استفاده از هوش مصنوعی در تحقیقات علوم اجتماعی

هوش مصنوعی
استفاده از هوش مصنوعی در علوم اجتماعی

چندین روش ممکن برای استفاده از هوش مصنوعی در تحقیقات علوم اجتماعی وجود دارد. اولا برخلاف محققان انسانی، سیستم‌های هوش مصنوعی می‌توانند بدون وقفه کار کنند و تفسیرهایی را در زمان واقعی از جامعه جهانی پرسرعت ما ارائه دهند.

هوش مصنوعی می‌تواند با پردازش حجم عظیمی از مکالمات انسانی از اینترنت و ارائه بینشی در مورد روندهای اجتماعی و رفتار انسانی، به عنوان یک دستیار پژوهشی عمل کند.

امکان دیگر می‌تواند استفاده از هوش مصنوعی به عنوان بازیگر در آزمایش‌های اجتماعی باشد. یک جامعه‌شناس می‌تواند از مدل‌های زبانی بزرگ برای شبیه‌سازی تعاملات اجتماعی بین افراد استفاده کند تا بفهمد که چگونه ویژگی‌های خاص، مانند گرایش‌های سیاسی، پیشینه قومی یا جنسیت بر تعاملات بعدی تاثیر می‌گذارند.

جنجالی‌تر از همه این است که مدل‌های زبان بزرگ می‌توانند به عنوان جایگزینی برای شرکت‌کنندگان انسانی در مرحله اولیه جمع‌آوری داده‌ها عمل کنند.

به عنوان مثال، یک دانشمند علوم اجتماعی می‌تواند از هوش مصنوعی برای آزمایش ایده‌ها در زمینه مداخلات برای بهبود تصمیم‌گیری استفاده کند.

 این روش به این شکل کار می‌کند: اول، دانشمندان از هوش مصنوعی می‌خواهند که یک گروه جمعیت هدف را شبیه‌سازی کند. در مرحله بعد، دانشمندان نحوه واکنش یک شرکت‌کننده از این گروه را در یک سناریوی تصمیم‌گیری بررسی می‌کنند. سپس دانشمندان از بینش‌های به‌دست آمده از این شبیه‌سازی برای آزمایش امیدوارکننده‌ترین مداخلات استفاده می‌کنند.

موانعی که در پیش روست

در حالی‌که پتانسیل بروز یک تغییر اساسی در تحقیقات علوم اجتماعی عمیق است، موانعی که در پیش رو وجود دارد نیز بلند و جدی هستند.

اولین مانع، روایات بدبینانه‌ای است که در مورد تهدیدات و خطرات هوش مصنوعی وجود دارد. 

برخی از کارشناسان مدام هشدار می‌دهند که هوش مصنوعی پتانسیل ایجاد یک آینده خطرناک و دیستوپیایی را دارد؛ شبیه به آن‌چه در فیلم‌های آخرالزمانی مانند «ترمیناتور» دیده‌ایم.

این هشدارها ممکن است تا حدودی نادرست و یا حداقل زودتر از حد موعد باشند. چرا که از نظر تاریخی، کارشناسان در مورد پیش‌بینی تغییرات اجتماعی سابقه ضعیفی از خود نشان داده‌اند.

هوش مصنوعی امروزی حساس نیست. یک مدل ریاضی پیچیده است که برای تشخیص الگوها در داده‌ها و انجام پیش‌بینی آموزش دیده است. علی‌رغم ظاهر انسان‌مانند پاسخ‌های مدل‌هایی مانند ChatGPT، این مدل‌های زبان بزرگ پایه‌های رفتار حقیقی انسانی را ندارند و بیشتر تظاهر می‌کنند که شبیه انسانند.

مدل‌های زبانی بزرگ بر روی تعداد زیادی از محصولات فرهنگی از جمله کتاب، متون رسانه‌های اجتماعی و پاسخ‌های یوتیوب آموزش دیده‌اند. این مدل‌ها در بهترین حالت نشان‌دهنده خرد جمعی ما هستند تا این‌که شخصا یک عامل فردی باهوش باشند.

سوگیری (تعصب) بزرگترین نگرانی ممکن است

نگرانی اصلی در کیفیت و وسعت داده‌هایی است که مدل‌های هوش مصنوعی، از جمله مدل‌های زبان بزرگ را آموزش می‌دهند.

اگر هوش مصنوعی اساسا بر روی داده‌های یک جمعیت خاص آموزش داده شود – مثلا افراد انگلیسی زبان از آمریکای شمالی، بینش آن منعکس‌کننده سوگیری‌های ذاتی آن جمعیت خواهد بود.

این بازتولید سوگیری یک نگرانی بزرگ است، زیرا می‌تواند تفاوت‌هایی را که دانشمندان علوم اجتماعی در تحقیقات خود برای کشف آن تلاش می‌کنند، تشدید کند. ترویج عدالت بازنمایی در داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی ضروری است.

اما چنین انصافی تنها با شفافیت و دسترسی به اطلاعات مربوط به داده‌هایی که مدل‌های هوش مصنوعی براساس آن‌ها آموزش داده می‌شوند، حاصل می‌شود. لااقل تاکنون، چنین اطلاعاتی برای همه مدل‌های تجاری یک راز بوده و چیزی از منشاء آن نمی‌دانیم.

با آموزش مناسب این مدل‌ها، دانشمندان علوم اجتماعی قادر خواهند بود پاسخ‌های رفتاری انسان را در تحقیقات خود با دقت بیشتری شبیه‌سازی کنند.

کلید ماجرا، سواد هوش مصنوعی است

خطر انتشار اطلاعات نادرست یکی دیگر از چالش‌های اساسی است. سیستم‌های هوش مصنوعی گاهی اوقات حقایق توهم‌آمیزی تولید می‌کنند ؛ اظهاراتی که معتبر به نظر می‌رسند، اما نادرست هستند. از آن‌جایی که هوش مصنوعی مولد فاقد آگاهی است، این توهمات را بدون هیچ نشانه‌ای از عدم اطمینان ارائه می‌دهد.

مردم ممکن است بیشتر به دنبال چنین اطلاعاتی با منبعی مطمئن باشند و آن را بر اطلاعات کمتر قطعی، اما دقیق‌تر ترجیح دهند. این ترجیح می‌تواند به طور ناخواسته اطلاعات نادرست را منتشر و محققان و عموم را به طور یکسان گمراه کند.

علاوه بر این، در حالی‌که هوش مصنوعی فرصت‌های تحقیقاتی را برای محققان علاقه‌مند باز می‌کند، اگر کاربران فقط به دنبال اطلاعاتی باشند که با باورهای قبلی‌شان همسو باشد، می‌تواند به‌طور ناخواسته به سوگیری دامن بزند.

نمی توان بر اهمیت سواد هوش مصنوعی مولد تاکید کرد. دانشمندان علوم اجتماعی باید به کاربران در مورد نحوه کار با ابزارهای هوش مصنوعی و ارزیابی انتقادی خروجی های آن‌ها آموزش دهند.

در جستجوی تعادل

همان‌طور که به جلو می‌رویم، باید با چالش‌های بسیار جدی هوش مصنوعی – از بازتولید سوگیری گرفته تا اطلاعات نادرست و سوء‌استفاده احتمالی – دست‌و‌پنجه نرم کنیم. تمرکز ما نباید روی جلوگیری از یک سناریوی دور از فیلم «ترمیناتور» باشد، بلکه باید روی مسائل مشخصی باشد که هوش مصنوعی اکنون روی میز آورده است.

همان‌طور که ما به کشف پتانسیل تحول‌آفرین هوش مصنوعی در علوم اجتماعی ادامه می‌دهیم، باید به خاطر داشته باشیم که هوش مصنوعی مولد نه دشمن ماست و نه ناجی ما، بلکه یک ابزار است. ارزش این ابزار در نحوه استفاده ما از آن نهفته است. 

هوش مصنوعی مولد توانایی بالقوه‌ای برای غنی‌سازی خرد جمعی ما دارد، اما به همان اندازه می‌تواند حماقت انسانی را نیز تشدید کند.

با ایجاد تعادل بین استفاده از پتانسیل هوش مصنوعی و مدیریت چالش‌های ملموس آن، می‌توانیم ادغام هوش مصنوعی در علوم اجتماعی را مسئولانه، اخلاقی و به نفع همه هدایت کنیم.

مهران
مهران