[vc_row][vc_column][vc_column_text]ظهور انفجاری هوش مصنوعی مولد در حال حاضر روزنامهنگاری، امور مالی و پزشکی را متحول کرده است، اما میتواند تأثیر مخربی بر سیاست و دموکراسی نیز داشته باشد. به عنوان مثال، پرسیدن از یک چتبات چگونه در یک بوروکراسی پیچیده هدایت شود یا کمک کند تا نامهای به یک مقام منتخب تهیه کند، میتواند مشارکت مدنی را تقویت کند.
با این حال، همین فناوری، با پتانسیل برای تولید اطلاعات نادرست، تهدیدی برای دخالت در نمایندگی دموکراتیک، تضعیف پاسخگویی دموکراتیک و تخریب اعتماد اجتماعی و سیاسی است. این مقاله دامنه تهدید را در هر یک از این حوزهها تحلیل میکند و در مورد نردههای محافظ بالقوه برای این سوء استفادهها، از جمله شبکههای عصبی مورد استفاده برای شناسایی محتوای تولید شده، خودتنظیمی توسط پلتفرمهای هوش مصنوعی و سواد دیجیتالی بیشتر از سوی عموم، بحث میکند.[/vc_column_text][vc_btn title=”دستیار هوش مصنوعی فارسی” style=”3d” color=”primary” align=”center” link=”url:https%3A%2F%2Fzigap.ir%2F|target:_blank”][/vc_column][/vc_row]
تنها یک ماه پس از معرفی، ChatGPT، این چتبات هوش مصنوعی مولد، به 100 میلیون کاربر ماهانه رسید و آن را به سریعترین برنامه در حال رشد تاریخ تبدیل کرد. برای مثال، سرویس پخش ویدئو نتفلیکس، که اکنون نامی شناخته شده است، سه سال و نیم طول کشید تا به یک میلیون کاربر ماهانه دسترسی پیدا کند.
اما بر خلاف نتفلیکس، افزایش چشمگیر ChatGPT و پتانسیل آن برای خوب یا بد، بحثهای قابل توجهی را برانگیخت. آیا دانشآموزان میتوانند از ابزار تحقیق یا نوشتن استفاده کنند یا بهتر بگوییم سوء استفاده کنند؟ آیا روزنامهنگاران و کدنویسان را از کار میاندازد؟ آیا همانطور که یکی از مقالات نیویورک تایمز بیان میکند، با امکان دادن به ورودیهای تودهای و جعلی برای تأثیرگذاری بر نمایندگی دموکراتیک، «دموکراسی را از بین ببرد؟
آیا هوش مصنوعی برای دموکراسی خطرناک است؟
فنآوریهای جدید سوالات و نگرانیهای جدیدی را در ابعاد و فوریتهای مختلف ایجاد میکند. به عنوان مثال، ترس از اینکه هوش مصنوعی مولد، هوش مصنوعی که قادر به تولید محتوای جدید است، یک تهدید وجودی ایجاد کند، نه قریب الوقوع است و نه لزوماً قابل قبول است.
سناریوی گیره کاغذ نیک بوستروم، که در آن ماشینی که برای بهینهسازی گیرههای کاغذ برنامهریزی شده است، همه چیزهایی را که در مسیر دستیابی به آن هدف قرار دارد از بین میبرد، در آستانه تحقق نیست. اما یکی از مواردی که باید خود را حل کند زیرا برنامهها به طور یکپارچهتر در موتورهای جستجو ادغام میشوند.
قضاوت در مورد پیامدهای شغلی هوش مصنوعی مولد در نهایت دشوار خواهد بود، با این حال پیامدهای بالقوه برای دموکراسی فوری و جدی است. هوش مصنوعی مولد سه ستون اصلی حکومت دموکراتیک را تهدید میکند: نمایندگی، پاسخگویی، و در نهایت، اعتماد.
مشکلسازترین جنبه هوش مصنوعی مولد این است که در دید آشکار پنهان میشود و حجم عظیمی از محتوا تولید میکند که میتواند فضای رسانهای، اینترنت و ارتباطات سیاسی را با انگیزهای بیمعنا در بهترین حالت و در بدترین حالت اطلاعات نادرست را پر کند. برای مقامات دولتی، این تلاشها برای درک احساسات تشکیل دهنده را تضعیف میکند و کیفیت نمایندگی دموکراتیک را تهدید میکند.
برای رایدهندگان، تلاشها برای نظارت بر آنچه مقامات منتخب انجام میدهند و نتایج اقدامات آنها را تهدید میکند و پاسخگویی دموکراتیک را از بین میبرد. یک اقدام پیشگیرانه معقول شناختی در چنین محیط رسانهای این است که هیچ چیز را باور نکنیم، نیهیلیسمی که در تضاد با دموکراسی پر جنب و جوش است و اعتماد اجتماعی را تخریب میکند.
همانطور که واقعیت عینی حتی از گفتمان رسانهای دورتر میشود، آن دسته از رأیدهندگانی که بهکلی هماهنگ نمیشوند، احتمالاً بهشدت بیشتر به سایر اکتشافیها، مانند حزبگرایی تکیه میکنند، که تنها دو قطبیسازی و فشار بر نهادهای دموکراتیک را تشدید میکند.
تهدید به نمایندگی دموکراتیک
همانطور که رابرت دال در سال 1972 نوشت، دموکراسی مستلزم “پاسخگویی مستمر دولت به ترجیحات شهروندانش است.” اما برای اینکه مقامات منتخب به ترجیحات رای دهندگان خود پاسخ دهند، ابتدا باید بتوانند این ترجیحات را تشخیص دهند. . نظرسنجیهای افکار عمومی، که (حداقل در حال حاضر) عمدتاً از دستکاری محتوای تولید شده توسط هوش مصنوعی مصون هستند، به مقامات منتخب یک پنجره به ترجیحات رای دهندگانشان میدهند.
اما اکثر شهروندان حتی فاقد دانش اساسی سیاسی هستند و سطوح دانش خاص سیاستی احتمالاً هنوز پایینتر است. به این ترتیب، قانونگذاران انگیزههای قوی دارند تا بیشترین پاسخ را به موکلان دارای دیدگاههای قوی در مورد یک موضوع سیاستی خاص و کسانی که برای آنها موضوع بسیار برجسته است مکاتبات مکتوب مدتهاست که محور اصلی این بوده است که چگونه مقامات منتخب انگشت خود را روی نبض مناطق خود نگه میدارند، بهویژه برای سنجش اولویتهای کسانی که به شدت در مورد یک موضوع بسیج شدهاند.
با این حال، در عصر هوش مصنوعی مولد، سیگنالهای ارسال شده توسط تعادل ارتباطات الکترونیکی در مورد مسائل مهم سیاست ممکن است به شدت گمراه کننده باشد. پیشرفتهای فناوری اکنون به بازیگران بدخواه اجازه میدهد تا با ایجاد پیامهای منحصربهفرد در هر طرف از مسائل بیشمار، «احساسات سازنده» کاذب را در مقیاس ایجاد کنند. حتی با وجود فناوری قدیمی، قانونگذاران برای تشخیص بین ارتباطات انسانی و تولید شده توسط ماشین تلاش کردند.
در یک آزمایش میدانی که در سال 2020 در ایالات متحده انجام شد، نامههای حمایتی را در مورد شش موضوع مختلف نوشتیم و سپس از آن نامهها برای آموزش آنچه در آن زمان مدل پیشرفته هوش مصنوعی مولد GPT-3 بود، برای نوشتن صدها مورد استفاده کردیم. نامههای حمایت از جناح چپ و راست. ما نامههای تصادفی مبتنی بر هوش مصنوعی و انسانی را به 7200 قانونگذار ایالتی ارسال کردیم که در مجموع حدود 35000 ایمیل بود.
سپس نرخ پاسخگویی را با مکاتبات انسانی و ایجاد شده توسط هوش مصنوعی مقایسه کرد تا میزان توانایی قانونگذاران در تشخیص (و در نتیجه پاسخ ندادن به) درخواستهای مکتوب ماشینی را ارزیابی کند. در سه موضوع، نرخ پاسخ به پیامهای نوشته شده توسط هوش مصنوعی و انسان از نظر آماری غیرقابل تشخیص بود.
در سه موضوع دیگر، نرخ پاسخدهی به ایمیلهای تولیدشده با هوش مصنوعی پایینتر بود، اما بهطور میانگین فقط ۲ درصد. این نشان میدهد که یک عامل مخرب که قادر به ایجاد هزاران ارتباط منحصربهفرد به راحتی باشد، میتواند به طور بالقوه تصور قانونگذاران را در مورد مسائلی که مربوط به آن هستند منحرف کند. مهمتر از همه برای انتخابکنندگانشان و همچنین احساس آنها در مورد هر موضوعی است.
تهدیدات برای پاسخگویی دموکراتیک
یک دموکراسی سالم همچنین مستلزم آن است که شهروندان بتوانند مقامات دولتی را در قبال اقدامات خود، به ویژه از طریق انتخابات آزاد و منصفانه، مسئول بدانند. با این حال، برای اینکه پاسخگویی در صندوق های رای موثر باشد، رای دهندگان باید به اطلاعات مربوط به اقداماتی که نمایندگانشان به نام آنها انجام میدهند، دسترسی داشته باشند.
نگرانیها مبنی بر اینکه سوگیری حزبی در رسانههای جمعی، که رای دهندگان برای مدت طولانی برای اطلاعات سیاسی بر آن تکیه میکنند، میتواند تاثیر بگذارد. نتایج انتخابات طولانی مدت است، اما هوش مصنوعی مولد تهدیدی به مراتب بیشتر برای یکپارچگی انتخاباتی است.
همانطور که به طور گسترده شناخته شده است، بازیگران خارجی از طیف وسیعی از فناوریهای جدید در تلاشی هماهنگ برای تأثیرگذاری بر انتخابات ریاست جمهوری 2016 ایالات متحده استفاده کردند. در گزارش کمیته اطلاعات سنا در سال 2018 آمده است:
این عوامل (روس) که خود را به عنوان آمریکایی جلوه داده بودند، از تبلیغات هدفمند، مقالات خبری جعلی عمدی، محتوای خودساخته و ابزارهای پلتفرم رسانههای اجتماعی برای تعامل و تلاش برای فریب ده ها میلیون کاربر رسانههای اجتماعی در ایالات متحده استفاده کردند. این کمپین به دنبال دوقطبی کردن آمریکاییها بر اساس تفاوتهای اجتماعی، ایدئولوژیکی و نژادی بود، وقایع دنیای واقعی را برانگیخت و بخشی از حمایت پنهانی دولت خارجی از نامزد مورد علاقه روسیه در انتخابات ریاست جمهوری ایالات متحده بود.
تهدیدات اعتماد دموکراتیک
پیشرفتها در هوش مصنوعی مولد میتواند به بازیگران مخرب اجازه دهد اطلاعات نادرست تولید کنند، از جمله محتوایی که هدفگذاری شده است تا جمعیتشناختی خاص و حتی افراد را در مقیاس بزرگ جذب کند. گسترش پلتفرمهای رسانههای اجتماعی امکان انتشار بیدردسر اطلاعات نادرست، از جمله کانالگذاری کارآمد آن به حوزههای خاص را میدهد.
تحقیقات نشان میدهد که اگرچه خوانندگان در سراسر طیف سیاسی نمیتوانند بین طیفی از محتوای ساخته شده توسط انسان و هوش مصنوعی تمایز قائل شوند (که همه آنها را قابل قبول میدانند)، اطلاعات نادرست لزوماً نظر خوانندگان را تغییر نخواهد داد. دیدگاههای فردی نسبتاً ریشهدار هستند و چیز کمی وجود دارد که بتواند احساسات قبلی افراد را تغییر دهد.
خطر این است که با تکثیر محتوای غیر معتبر، متن، تصاویر و ویدئو، به صورت آنلاین، مردم ممکن است ندانند چه چیزی را باور کنند و بنابراین به کل اکوسیستم اطلاعاتی اعتماد ندارند. اعتماد به رسانهها در حال حاضر کم است، و گسترش ابزارهایی که میتوانند محتوای غیر معتبر تولید کنند، این اعتماد را بیش از پیش از بین میبرد.
این، به نوبه خود، میتواند سطوح پایین و خطرناک اعتماد به دولت را تضعیف کند. اعتماد اجتماعی یک چسب ضروری است که جوامع دموکراتیک را در کنار هم نگه میدارد. این امر به مشارکت مدنی و مشارکت سیاسی دامن میزند، اعتماد به نهادهای سیاسی را تقویت میکند و احترام به ارزشهای دموکراسی را ترویج میکند، که سنگری مهم در برابر عقبنشینی و اقتدارگرایی دموکراتیک است.
اعتماد در چندین جهت عمل میکند. برای نخبگان سیاسی، پاسخگویی مستلزم این است که پیامهایی که دریافت میکنند بهطور قانونی نشاندهنده اولویتهای تشکیلدهنده باشد و نه یک کارزار هماهنگ برای ارائه نادرست احساسات عمومی به خاطر پیشبرد یک دیدگاه خاص.
برای شهروندان، اعتماد میتواند انگیزه مشارکت و مشارکت سیاسی باشد و مقاومت در برابر تهدیدات علیه نهادها و عملکردهای دموکراتیک را تشویق کند. کاهش چشمگیر اعتماد آمریکاییها به دولت در نیم قرن گذشته یکی از مستندترین تحولات در سیاست ایالات متحده است. در حالی که بسیاری از عوامل در این فرسایش نقش داشتهاند، اعتماد به رسانهها و اعتماد به دولت ارتباط تنگاتنگی با یکدیگر دارند. بمباران شهروندان با محتوای صحت مشکوک تولید شده توسط هوش مصنوعی میتواند به طور جدی اعتماد به رسانهها را تهدید کند و عواقب شدیدی برای اعتماد به دولت داشته باشد.