[vc_row][vc_column][vc_column_text]تابهحال هر سخنی بوده، درباره تاثیر فناوریهای مبتنی بر هوش مصنوعی در حوزههای فناوری، مهندسی، نرمافزار و هنر بوده است. اما آیا هوش مصنوعی توان ایجاد تحول در علوم انسانی را هم داراست؟ در نوشته زیر، «پروفسور ایگور گراسمن» استاد روانشناسی دانشگاه واترلو از تاثیر هوش مصنوعی بر علوم اجتماعی سخن گفته است.
با ظهور سیستمهای پیشرفته هوش مصنوعی، روش انجام تحقیقات علوم اجتماعی نیز میتواند تغییر کند. علوم اجتماعی در طول تاریخ بر روشهای تحقیق سنتی برای دستیابی به درک بهتری از افراد، گروهها، فرهنگها و پویایی آنها تکیه کرده است.[/vc_column_text][vc_btn title=”همین حالا از هوش مصنوعی لئوناردو فارسی استفاده کن” style=”3d” color=”primary” align=”center” link=”url:https%3A%2F%2Fzigap.ir%2F|target:_blank”][/vc_column][/vc_row]
مدلهای زبانی بزرگ به طور فزایندهای توانایی تقلید پاسخهای شبیه انسان را پیدا میکنند. همانطور که من و همکارانم در مقاله اخیرمان در نشریه Science توضیح دادیم، این موضوع فرصتی را برای آزمایش نظریهها در مقیاس بزرگتر و با سرعت بسیار بیشتر باز میکند.
اما مقاله ما همچنین سوالاتی را در مورد اینکه چگونه میتوان از هوش مصنوعی برای تحقیقات علوم اجتماعی استفاده و در عین حال شفافیت و تکرارپذیری را نیز تضمین کرد، مطرح میکند.
استفاده از هوش مصنوعی در تحقیقات علوم اجتماعی

چندین روش ممکن برای استفاده از هوش مصنوعی در تحقیقات علوم اجتماعی وجود دارد. اولا برخلاف محققان انسانی، سیستمهای هوش مصنوعی میتوانند بدون وقفه کار کنند و تفسیرهایی را در زمان واقعی از جامعه جهانی پرسرعت ما ارائه دهند.
هوش مصنوعی میتواند با پردازش حجم عظیمی از مکالمات انسانی از اینترنت و ارائه بینشی در مورد روندهای اجتماعی و رفتار انسانی، به عنوان یک دستیار پژوهشی عمل کند.
امکان دیگر میتواند استفاده از هوش مصنوعی به عنوان بازیگر در آزمایشهای اجتماعی باشد. یک جامعهشناس میتواند از مدلهای زبانی بزرگ برای شبیهسازی تعاملات اجتماعی بین افراد استفاده کند تا بفهمد که چگونه ویژگیهای خاص، مانند گرایشهای سیاسی، پیشینه قومی یا جنسیت بر تعاملات بعدی تاثیر میگذارند.
جنجالیتر از همه این است که مدلهای زبان بزرگ میتوانند به عنوان جایگزینی برای شرکتکنندگان انسانی در مرحله اولیه جمعآوری دادهها عمل کنند.
به عنوان مثال، یک دانشمند علوم اجتماعی میتواند از هوش مصنوعی برای آزمایش ایدهها در زمینه مداخلات برای بهبود تصمیمگیری استفاده کند.
این روش به این شکل کار میکند: اول، دانشمندان از هوش مصنوعی میخواهند که یک گروه جمعیت هدف را شبیهسازی کند. در مرحله بعد، دانشمندان نحوه واکنش یک شرکتکننده از این گروه را در یک سناریوی تصمیمگیری بررسی میکنند. سپس دانشمندان از بینشهای بهدست آمده از این شبیهسازی برای آزمایش امیدوارکنندهترین مداخلات استفاده میکنند.
موانعی که در پیش روست
در حالیکه پتانسیل بروز یک تغییر اساسی در تحقیقات علوم اجتماعی عمیق است، موانعی که در پیش رو وجود دارد نیز بلند و جدی هستند.
اولین مانع، روایات بدبینانهای است که در مورد تهدیدات و خطرات هوش مصنوعی وجود دارد.
برخی از کارشناسان مدام هشدار میدهند که هوش مصنوعی پتانسیل ایجاد یک آینده خطرناک و دیستوپیایی را دارد؛ شبیه به آنچه در فیلمهای آخرالزمانی مانند «ترمیناتور» دیدهایم.
این هشدارها ممکن است تا حدودی نادرست و یا حداقل زودتر از حد موعد باشند. چرا که از نظر تاریخی، کارشناسان در مورد پیشبینی تغییرات اجتماعی سابقه ضعیفی از خود نشان دادهاند.
هوش مصنوعی امروزی حساس نیست. یک مدل ریاضی پیچیده است که برای تشخیص الگوها در دادهها و انجام پیشبینی آموزش دیده است. علیرغم ظاهر انسانمانند پاسخهای مدلهایی مانند ChatGPT، این مدلهای زبان بزرگ پایههای رفتار حقیقی انسانی را ندارند و بیشتر تظاهر میکنند که شبیه انسانند.
مدلهای زبانی بزرگ بر روی تعداد زیادی از محصولات فرهنگی از جمله کتاب، متون رسانههای اجتماعی و پاسخهای یوتیوب آموزش دیدهاند. این مدلها در بهترین حالت نشاندهنده خرد جمعی ما هستند تا اینکه شخصا یک عامل فردی باهوش باشند.
سوگیری (تعصب) بزرگترین نگرانی ممکن است
نگرانی اصلی در کیفیت و وسعت دادههایی است که مدلهای هوش مصنوعی، از جمله مدلهای زبان بزرگ را آموزش میدهند.
اگر هوش مصنوعی اساسا بر روی دادههای یک جمعیت خاص آموزش داده شود – مثلا افراد انگلیسی زبان از آمریکای شمالی، بینش آن منعکسکننده سوگیریهای ذاتی آن جمعیت خواهد بود.
این بازتولید سوگیری یک نگرانی بزرگ است، زیرا میتواند تفاوتهایی را که دانشمندان علوم اجتماعی در تحقیقات خود برای کشف آن تلاش میکنند، تشدید کند. ترویج عدالت بازنمایی در دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی ضروری است.
اما چنین انصافی تنها با شفافیت و دسترسی به اطلاعات مربوط به دادههایی که مدلهای هوش مصنوعی براساس آنها آموزش داده میشوند، حاصل میشود. لااقل تاکنون، چنین اطلاعاتی برای همه مدلهای تجاری یک راز بوده و چیزی از منشاء آن نمیدانیم.
با آموزش مناسب این مدلها، دانشمندان علوم اجتماعی قادر خواهند بود پاسخهای رفتاری انسان را در تحقیقات خود با دقت بیشتری شبیهسازی کنند.
کلید ماجرا، سواد هوش مصنوعی است
خطر انتشار اطلاعات نادرست یکی دیگر از چالشهای اساسی است. سیستمهای هوش مصنوعی گاهی اوقات حقایق توهمآمیزی تولید میکنند ؛ اظهاراتی که معتبر به نظر میرسند، اما نادرست هستند. از آنجایی که هوش مصنوعی مولد فاقد آگاهی است، این توهمات را بدون هیچ نشانهای از عدم اطمینان ارائه میدهد.
مردم ممکن است بیشتر به دنبال چنین اطلاعاتی با منبعی مطمئن باشند و آن را بر اطلاعات کمتر قطعی، اما دقیقتر ترجیح دهند. این ترجیح میتواند به طور ناخواسته اطلاعات نادرست را منتشر و محققان و عموم را به طور یکسان گمراه کند.
علاوه بر این، در حالیکه هوش مصنوعی فرصتهای تحقیقاتی را برای محققان علاقهمند باز میکند، اگر کاربران فقط به دنبال اطلاعاتی باشند که با باورهای قبلیشان همسو باشد، میتواند بهطور ناخواسته به سوگیری دامن بزند.
نمی توان بر اهمیت سواد هوش مصنوعی مولد تاکید کرد. دانشمندان علوم اجتماعی باید به کاربران در مورد نحوه کار با ابزارهای هوش مصنوعی و ارزیابی انتقادی خروجی های آنها آموزش دهند.
در جستجوی تعادل
همانطور که به جلو میرویم، باید با چالشهای بسیار جدی هوش مصنوعی – از بازتولید سوگیری گرفته تا اطلاعات نادرست و سوءاستفاده احتمالی – دستوپنجه نرم کنیم. تمرکز ما نباید روی جلوگیری از یک سناریوی دور از فیلم «ترمیناتور» باشد، بلکه باید روی مسائل مشخصی باشد که هوش مصنوعی اکنون روی میز آورده است.
همانطور که ما به کشف پتانسیل تحولآفرین هوش مصنوعی در علوم اجتماعی ادامه میدهیم، باید به خاطر داشته باشیم که هوش مصنوعی مولد نه دشمن ماست و نه ناجی ما، بلکه یک ابزار است. ارزش این ابزار در نحوه استفاده ما از آن نهفته است.
هوش مصنوعی مولد توانایی بالقوهای برای غنیسازی خرد جمعی ما دارد، اما به همان اندازه میتواند حماقت انسانی را نیز تشدید کند.
با ایجاد تعادل بین استفاده از پتانسیل هوش مصنوعی و مدیریت چالشهای ملموس آن، میتوانیم ادغام هوش مصنوعی در علوم اجتماعی را مسئولانه، اخلاقی و به نفع همه هدایت کنیم.