سال آینده به عنوان “سال دموکراسی” نامگذاری شده و همهجا صحبت از صحبت از هوش مصنوعی و دموکراسی است. یک سری انتخابات کلیدی قرار است برگزار شود، از جمله در مکانهایی با قدرت و جمعیت قابل توجه، مانند ایالات متحده، اتحادیه اروپا، هند، اندونزی و مکزیک. در بسیاری از این حوزه های قضایی، دموکراسی در معرض تهدید یا در حال افول است. مسلم است که دنیای بی ثبات ما بعد از سال 2024 متفاوت به نظر میرسد.
هوش مصنوعی یکی از عوامل ناشناختهای است که میتواند نقش تعیینکنندهای در انتخابات آینده داشته باشد. این فناوری در حال حاضر به روشهای مختلفی در فرآیند انتخابات ظاهر میشود، با این حال بسیاری از این محصولات به سختی قبل از عرضه در جامعه آزمایش شدهاند.
هوش مصنوعی زاینده (مولد)، که تولید متون مصنوعی، ویدئوها و پیامهای صوتی را آسان میکند و تشخیص آن را از محتوای تولید شده توسط انسان دشوار میکند، توسط برخی از تیمهای مبارزات سیاسی مورد استقبال قرار گرفته است. ویدئوی جنجالی که در صورت انتخاب مجدد جو بایدن، دنیای در حال فروپاشی را نشان میدهد، توسط یک سرویس اطلاعاتی خارجی که به دنبال دستکاری در انتخابات ایالات متحده است، ساخته نشده است، بلکه توسط کمیته ملی جمهوری خواهان ساخته شده است.
هوش مصنوعی و دموکراسی
سرویس های اطلاعاتی خارجی نیز از هوش مصنوعی مولد برای تقویت عملیات نفوذ خود استفاده میکنند. الکس استاموس، هشدار میدهد که: «کاری که زمانی تیمی متشکل از 20 تا 40 نفر از برای تولید 100000 قطعه کار میکردند، اکنون میتواند توسط یک نفر با استفاده از هوش مصنوعی متنباز انجام شود.
هوش مصنوعی همچنین هدف قرار دادن پیامها را آسانتر میکند تا به مخاطبان خاصی برسد. این تجربه فردی، پیچیدگی بررسی این موضوع را افزایش میدهد که آیا کاربران و رأیدهندگان اینترنت با اطلاعات نادرست تغذیه میشوند یا خیر.
در حالی که بسیاری از تأثیرات هوش مصنوعی مولد بر انتخابات هنوز در حال مطالعه است، آنچه شناخته شده است باعث اطمینان نمیشود. ما میدانیم که مردم تشخیص آنها بین رسانههای مصنوعی و صداهای معتبر دشوار است و فریب آنها را آسان میکند. ما همچنین میدانیم که هوش مصنوعی تعصبات را علیه اقلیتها تکرار میکند و تقویت میکند. به علاوه، ما میدانیم که شرکتهای هوش مصنوعی که به دنبال سود هستند، به دنبال ترویج ارزشهای دموکراتیک نیز نیستند.
بسیاری از اعضای تیمهای استخدام شده برای مقابله با دستکاری و اطلاعات نادرست خارجی توسط شرکتهای رسانههای اجتماعی، به ویژه از سال 2016، اخراج شدهاند. یوتیوب صراحتاً گفته است که دیگر «محتوای ادعاهای نادرست مبنی بر وقوع تقلب، اشتباهات یا اشکالات گسترده در سال ۲۰۲۰ و سایر انتخابات ریاست جمهوری گذشته ایالات متحده» را حذف نخواهد کرد. البته به احتمال زیاد دروغهای مربوط به انتخابات گذشته در مبارزات انتخاباتی 2024 نقش خواهد داشت.
به همین ترتیب، پس از اینکه ایلان ماسک مدیریت ایکس را که قبلاً توییتر نامیده میشد، به دست گرفت، تیمهای اعتماد و ایمنی را از بین برد. درست زمانی که موانع دفاعی بیش از همه مورد نیاز است، در حال برداشته شدن هستند.
در دانشگاههای ایالات متحده، کارشناسانی که تحقیقات مستقلی در مورد اطلاعات نادرست آنلاین انجام میدهند، مورد حملات سیاسی قرار گرفتهاند. این تلاشها برای تضعیف کارهای مهم عمیقاً نگران کننده است. و در هند، بزرگترین کشوری که در سال 2024 پای صندوقهای رای رفت، جامعه مدنی و روزنامه نگارانی که به دنبال تحقیق در مورد شیوههای انتخاباتی هستند نیز تحت فشار زیادی قرار دارند. هوش مصنوعی و دموکراسی سال سختی را پیش رو خواهد داشت.
اقداماتی وجود دارد که میتوانیم برای جلوگیری از ایجاد شگفتیهای ناخوشایند این فناوری جدید در سال 2024 انجام دهیم. حسابرسیهای مستقل برای سوگیری و تحقیق در مورد تلاشهای اطلاعات نادرست باید مورد حمایت قرار گیرند. شرکتهای هوش مصنوعی باید به محققان دسترسی به اطلاعاتی را که در حال حاضر پنهان است، مانند تصمیمهای تعدیل محتوا، ارائه دهند. تیمهای بینالمللی باید انتخاباتی را که امسال برگزار میشود، مانند انتخابات هلند، لهستان و مصر مطالعه کنند تا بفهمند هوش مصنوعی چگونه نقش بازی میکند.
وقتی نوبت به هوش مصنوعی و انتخابات میرسد، معتقدیم که نمیتوانیم به اندازه کافی مراقب باشیم. دموکراسیها آزمایشهای ارزشمندی هستند، با مجموعهای از دشمنان رو به رشد. بیایید امیدوار باشیم که سال 2024 واقعاً «سال هوش مصنوعی و دموکراسی» باشد و نه سالی که نشان دهنده افول قاطع آن باشد.
شما میتوانید همین حالا از طریق زبان فارسی به موتورهای هوش مصنوعی مولد مانند ChatGPT و سرویس متن به عکس لئوناردو دسترسی پیدا کنید. تنها کافی است اپلیکیشن زیگپ را دانلود و به راحتی از آن استفاده کنید. همچنین شما میتوانید نظرات خود را با ما و سایر کاربران در شبکههای اجتماعی ما در اینستاگرام و تلگرام به اشتراک بگذارید.