جعلی بودن هوش مصنوعی به سرعت در حال تبدیل شدن به یکی از بزرگترین مشکلاتی است که ما در فضای آنلاین با آن روبرو هستیم. تصاویر دیپفیک هوش مصنوعی همه جا هستند.
تصاویر، ویدیوها و صداهای فریبنده در نتیجه افزایش و استفاده نادرست از ابزارهای هوش مصنوعی مولد در حال گسترش هستند. از آنجایی که تقریباً هر روز دیپفیکهای هوش مصنوعی ظاهر میشوند و همه افراد از تیلور سویفت گرفته تا دونالد ترامپ را به تصویر میکشند، تشخیص اینکه چه چیزی واقعی است از چه چیزی نیست سختتر میشود.
تولیدکنندههای ویدیو و تصویر مانند DALL-E، Midjourney و OpenAI’s Sora، ایجاد دیپفیک هوش مصنوعی را برای افراد بدون هیچگونه مهارت فنی آسان میکنند، فقط یک درخواست را تایپ کنید و سیستم آن را تولید میکند.
تشخیص دیپفیک هوش مصنوعی
این تصاویر جعلی ممکن است بیضرر به نظر برسند. اما میتوان از آنها برای کلاهبرداری و سرقت هویت یا تبلیغات و دستکاری در انتخابات استفاده کرد. در ادامه نحوه جلوگیری از گول خوردن توسط دیپفیک هوش مصنوعی آمده است.
در روزهای اولیه دیپ فیک، این فناوری به دور از ایدهآل بود و اغلب نشانههای آشکاری از دستکاری بر جای میگذاشت. بررسیکنندگان واقعیت به تصاویری با خطاهای آشکار اشاره کردهاند، مانند دستهایی با شش انگشت یا عینکهایی که عدسیهایی با شکل متفاوت دارند.
اما با بهبود هوش مصنوعی، کار بسیار دشوارتر شده است. هنری آژدر، مؤسس شرکت مشاوره «مشاوره فضای پنهان» و یک متخصص برجسته در هوش مصنوعی مولد، گفت: برخی از توصیههای به اشتراک گذاشته شده – مانند جستجوی الگوهای چشمک زدن غیرطبیعی در بین افراد در ویدیوهای دیپ فیک – دیگر قابل اجرا نیستند.
او گفت، با این حال، چیزهایی وجود دارد که باید به دنبال آنها باشید. آژدر گفت: بسیاری از عکسهای دیپفیک هوش مصنوعی، بهویژه افراد، دارای درخشندگی الکترونیکی هستند، «یک نوع اثر صافکننده زیباییشناختی» که باعث میشود پوست «بهطور باورنکردنی براق به نظر برسد».
با این حال، او هشدار داد که تحریک خلاق گاهی اوقات میتواند این و بسیاری از نشانههای دستکاری هوش مصنوعی را از بین ببرد. سازگاری سایهها و نور را بررسی کنید. اغلب سوژه در فوکوس واضح است و به طور متقاعد کنندهای واقعی به نظر میرسد، اما عناصر موجود در پس زمینه ممکن است چندان واقعی یا صیقلی نباشند.
روشهای شناسایی دیپفیک
تعویض چهره یکی از رایجترین روشهای دیپ فیک است. کارشناسان توصیه میکنند که لبههای صورت را با دقت نگاه کنید. آیا رنگ پوست صورت با بقیه قسمتهای سر یا بدن مطابقت دارد؟ لبههای صورت تیز هستند یا تار؟
اگر مشکوک هستید که ویدیوی صحبت کردن یک فرد تحت تأثیر قرار گرفته است، به دهان او نگاه کنید. آیا حرکات لب آنها کاملاً با صدا مطابقت دارد؟ آژدر پیشنهاد میکند که به دندان ها نگاه کنید. آیا آنها واضح هستند یا مبهم هستند و به نوعی با ظاهرشان در زندگی واقعی سازگار نیستند؟
شرکت امنیت سایبری نورتون میگوید که الگوریتمها ممکن است هنوز به اندازه کافی برای تولید دندانهای فردی پیچیده نباشند، بنابراین فقدان خطوط کلی برای دندانهای فردی میتواند یک سرنخ باشد. گاهی اوقات زمینه اهمیت دارد. کمی دقت کنید و در نظر بگیرید که آیا آنچه میبینید قابل قبول است یا خیر.
وبسایت روزنامهنگاری پوینتر توصیه میکند که اگر میبینید یک شخصیت عمومی کاری انجام میدهد که «اغراقآمیز، غیرواقعی یا غیرمنطقی» به نظر میرسد، ممکن است یک دیپفیک هوش مصنوعی باشد. به عنوان مثال، آیا پاپ واقعاً همان طور که در یک عکس جعلی بدنام نشان داده شده است، یک ژاکت پفدار لوکس میپوشد؟ اگر او این کار را میکرد، آیا عکسها یا فیلمهای اضافی توسط منابع قانونی منتشر نمیشد؟
در Met Gala، لباسهای بیش از حد بالا نکته اصلی است که بر سردرگمی افزوده است. اما چنین رویدادهای نام بزرگی معمولاً توسط عکاسان رسمی معتبر پوشش داده میشود که عکسهای زیادی تولید میکنند که می تواند به تأیید صحت کمک کند. یکی از سرنخها مبنی بر ساختگی بودن عکس کیتی پری، فرش روی پلهها است که برخی از کاربران شبکههای اجتماعی چشم عقابی به آن اشاره کردند که مربوط به رویداد سال 2018 است.
روش دیگر استفاده از هوش مصنوعی برای مبارزه با هوش مصنوعی است.
OpenAI روز سهشنبه اعلام کرد که ابزاری را برای شناسایی محتوای ساخته شده با DALL-E 3، آخرین نسخه تولید کننده تصویر هوش مصنوعی خود، منتشر میکند. مایکروسافت ابزار احراز هویتی را توسعه داده است که میتواند عکسها یا ویدیوها را تجزیه و تحلیل کند تا در مورد دستکاری بودن آن امتیاز اطمینان کسب کند. FakeCatcher، سازنده تراشه اینتل، از الگوریتمهایی برای تجزیه و تحلیل پیکسلهای یک تصویر استفاده میکند تا تشخیص دهد که آیا واقعی یا جعلی است.
ابزارهای آنلاینی وجود دارند که قول میدهند در صورت آپلود فایل یا چسباندن پیوند به مطالب مشکوک، جعلی را شناسایی کنند. اما برخی، مانند ابزار OpenAI و احراز هویت مایکروسافت، فقط برای شرکای منتخب و نه برای عموم در دسترس هستند. این تا حدی به این دلیل است که محققان نمیخواهند بازیگران بد را راهنمایی کنند و به آنها در مسابقه تسلیحاتی دیپفیک برتری بیشتری بدهند.
آژدر گفت که دسترسی آزاد به ابزارهای تشخیص همچنین میتواند به مردم این تصور را بدهد که “فناوریهای خداگونه هستند که میتوانند تفکر انتقادی را برای ما برون سپاری کنند” در حالی که در عوض ما باید از محدودیتهای آنها آگاه باشیم.
همه اینها گفته میشود، هوش مصنوعی با سرعت سرسامآوری در حال پیشرفت است و مدلهای هوش مصنوعی روی دادههای اینترنتی آموزش میبینند تا محتوای با کیفیتتر و با نقصهای کمتر تولید کنند. این بدان معناست که هیچ تضمینی وجود ندارد که این توصیه حتی یک سال بعد همچنان معتبر باشد.
کارشناسان میگویند حتی ممکن است باری را بر دوش مردم عادی بگذاریم که شرلوکهای دیجیتالی شوند، زیرا میتواند به آنها یک حس اعتماد به نفس کاذب بدهد زیرا تشخیص دیپفیکها حتی برای چشمان آموزش دیده دشوار میشود.
منبع: techtarget