هوش مصنوعی ممکن است به خطری در زمینه انتشار اطلاعات نادرست در زمینه انتخابات تبدیل شود. این فناوری ساخت محتوای جعلی – اما متقاعدکننده – دیپفیک با هدف فریب رایدهندگان را برای هر کسی که دارای گوشی هوشمند و اندکی تخیل است، آسان میکند.
همین چند سال پیش تولید عکسها، ویدیوها یا صداهای جعلی به تیمهایی از افراد با زمان، مهارت و پول نیاز داشت. اکنون، سرویسهای هوش مصنوعی زاینده رایگان و کمهزینه از شرکتهایی مانند Google و OpenAI به افراد اجازه میدهند تا با یک ورودی متنی ساده، «دیپفیک» با کیفیت بالا ایجاد کنند.
گسترش تهدیدات ویدیوهای دیپفیک
ماههاست که موجی از دیپفیکهای هوش مصنوعی مرتبط با انتخابات در اروپا و آسیا در شبکههای اجتماعی ظاهر شده است. این پدیده به عنوان یک هشدار برای بیش از 50 کشوری بود که امسال قرار است انتخابات برگزار کنند.
برخی از نمونههای ویدئوهای تولیدی دیپفیک عبارت بودند از:
- ویدئویی از رئیسجمهور طرفدار غرب مولداوی که از یک حزب سیاسی طرفدار روسیه حمایت میکند.
- صوتی از رهبر حزب لیبرال اسلواکی در حال بحث در مورد تغییر برگههای رای و افزایش قیمت آبجو.
- ویدئویی از یک نماینده زن مسلمان اپوزیسیون در بنگلادش با لباس نامناسب.
«هنری آجر» که یک شرکت مشاوره تجاری به نام «مشاوره فضای پنهان» در بریتانیا را اداره میکند، میگوید: «مسئله دیگر این نیست که آیا دیپفیکهای هوش مصنوعی میتوانند بر انتخابات تاثیر بگذارند یا خیر، بلکه این است که چقدر تاثیرگذار خواهند بود. این روزها پیدا کردن افرادی که با دیدن یک ویدئو گیج شدهاند و نمیدانند محتوای آن اصیل است یا جعلی، کار سختی نیست.»
چالشی برای دموکراسی
با نزدیکتر شدن رقابتهای ریاستجمهوری ایالات متحده، «کریستوفر رای» مدیر دفتر تحقیقات فدرال (FBI) هشداری درباره تهدید فزاینده هوش مصنوعی زاینده صادر کرد. او گفت که این فناوری تلاش گروههای خارجی را برای اعمال نفوذ بد در انتخابات آسان میکند.
با دیپفیکهای هوش مصنوعی، تصویر یک نامزد میتواند بسیار بدتر یا بسیار بهتر شود. رایدهندگان میتوانند با دیدن این ویدئوها به سمت یا برخلاف جهت این نامزدها حرکت یا حتی به طور کلی از رای دادن اجتناب کنند.
اما کارشناسان میگویند، شاید بزرگترین تهدید برای دموکراسی این باشد که رشد دیپفیکهای هوش مصنوعی میتواند به اعتماد مردم به آنچه میبینند و میشنوند آسیب برساند.
پیچیدگی این فناوری، تشخیص اینکه چه کسی پشت دیپفیکهای هوش مصنوعی است را دشوار میکند. کارشناسان میگویند دولتها و شرکتها هنوز قادر به توقف این مشکل نیستند.
بزرگترین شرکتهای فناوری جهان اخیرا – و بهطور داوطلبانه – توافقنامهای را امضا کردند تا از ایجاد اختلال در انتخابات توسط ابزارهای هوش مصنوعی جلوگیری کنند. به عنوان مثال، شرکتی که اینستاگرام و فیسبوک را در اختیار دارد، گفته است که شروع به برچسبگذاری دیپفیکهایی که در سرویسهایش ظاهر میشود خواهد کرد.
اما محدود کردن دیپفیکها بر روی اپلیکیشنهایی مانند تلگرام که توافقنامه داوطلبانه را امضا نکرده است، دشوارتر است. تلگرام از پیامهای رمزگذاری شده استفاده میکند که کشف آنها دشوار است.
نگرانی در مورد تلاش برای محدود کردن هوش مصنوعی
برخی از کارشناسان نگران هستند که تلاشها برای محدود کردن دیپفیکهای هوش مصنوعی میتواند منجر به نتایج برنامهریزی نشده شود.
«تیم هارپر» کارشناس مرکز دموکراسی و فناوری در واشنگتن دیسی است. او میگوید گاهی اوقات دولتها یا شرکتهای خوشنیت ممکن است مرز “بسیار نازک” بین تفسیر سیاسی و “تلاش نامشروع برای بدنام کردن یک نامزد” را از بین ببرند.
خدمات عمده هوش مصنوعی زاینده، قوانینی برای محدود کردن اطلاعات نادرست سیاسی دارند. اما کارشناسان میگویند شکست دادن محدودیتها یا استفاده از خدمات دیگر بسیار آسان است.
نرمافزارهای هوش مصنوعی تنها تهدید موجود نیست.
خود نامزدها میتوانند با ادعای اینکه رویدادهایی که آنها را در موقعیتهای بد نشان میدهند توسط هوش مصنوعی ساخته شدهاند، سعی کنند رایدهندگان را فریب دهند.
«لیزا رپل» محقق بنیاد بینالمللی سیستمهای انتخاباتی در آرلینگتون ویرجینیا میگوید: دنیایی که در آن همه چیز مشکوک است – و بنابراین هرکسی می تواند آنچه را که معتقد است انتخاب کند – جهانی است که واقعا برای دموکراسی چالشبرانگیز است.