عکسها، ویدیوها و تصاویر جعلی در نتیجه افزایش و استفاده نادرست از ابزارهای هوش مصنوعی به صورت آنلاین پخش میشوند. و تشخیص چیزی که واقعی است از چه چیزی که واقعی نیست، مدام سختتر میشود.
سازندگان ویدیو و تصویر هوش مصنوعی مانند DALL-E، Midjourney، و OpenAI’s Sora، ایجاد تصاویر «دیپفیک» را برای افرادی که مهارتهای فنی کمی دارند، آسان کردهاند.
ممکن است تصاویر جعلی هوش مصنوعی بیضرر به نظر برسند، اما میتوان از آنها برای فریب دادن مردم، سرقت هویت، تبلیغ و نفوذ ناعادلانه در انتخابات استفاده کرد.
چگونه جعلی بودن یک تصویر را تشخیص دهیم؟
همین یک سال پیش، این فناوری به دور از ایدهآل بودن بود و تشخیص اینکه عکسی با هوش مصنوعی ایجاد شده است آسانتر بود. تصاویر جعلی خطاهای واضحی مانند دستهایی با شش انگشت یا عینکهایی با اشکال مختلف را نشان میدادند و به سادگی میشد جعلی بودن تصویری که با هوش مصنوعی ساخته شده را فهمید.
اما با بهبود هوش مصنوعی، کار بسیار دشوارتر شده است.
«هنری اجر» موسس شرکت مشاوره هوش مصنوعی Latent Space Advisory و یک متخصص برجسته در زمینه هوش مصنوعی زاینده است. او گفت که برخی توصیههای به اشتراک گذاشته شده – مانند جستجوی حرکات غیرطبیعی چشم در افراد در ویدئوهای دیپفیک – دیگر قابل استفاده نیست.
با این حال به گفته او هنوز راههایی برای تشخیص وجود دارد.
اجر میگوید بسیاری از عکسهای دیپفیک هوش مصنوعی، بهویژه از افراد، «اثر صافی» دارند که باعث میشود پوست بسیار «براق» به نظر برسد. با این حال، او هشدار داد که هوش مصنوعی گاهی اوقات میتواند عکسها را تغییر دهد و نشانههای ایجاد هوش مصنوعی را حذف کند.
به سایهها و نور نگاه کنید. اغلب سوژه واضح است و واقعی به نظر میرسد، اما عناصر موجود در بقیه عکس ممکن است چندان واقعی یا صیقلی به نظر نرسند.
به چهرهها نگاه کنید
یکی از رایجترین دیپفیکها، تعویض یک چهره با چهره دیگر است. این عمل تعویض چهره نامیده میشود.
کارشناسان توصیه میکنند که لبههای صورت را با دقت نگاه کنید. آیا رنگ پوست صورت با بقیه قسمتهای سر یا بدن مطابقت دارد؟ آیا لبههای صورت تیز است یا نامشخص؟
اگر مشکوک هستید که ویدیوی صحبت کردن فردی توسط هوش مصنوعی تغییر کرده است، به دهان او نگاه کنید. آیا حرکات لب آنها کاملا با صدا مطابقت دارد؟
شرکت امنیت سایبری «نورتون» میگوید که این فناوری برای ایجاد دندانهای فردی آماده نیست. بنابراین اجر پیشنهاد میکند به دندانهای افراد نگاه کنید. آیا واضح هستند یا نامشخص و به نوعی مانند دندانها در زندگی واقعی به نظر نمیرسند؟
گاهی اوقات زمینه عکس مهم است. یک دقیقه وقت بگذارید و در نظر بگیرید که آیا آنچه میبینید واقعا ممکن است اتفاق بیفتد یا خیر.
وبسایت روزنامهنگاری «پوینتر» توصیه میکند که اگر میبینید یک فرد شناختهشده کاری انجام میدهد که غیرواقعی به نظر میرسد یا شبیه خودش نیست، ممکن است یک دیپفیک باشد.
استفاده از هوش مصنوعی برای تشخیص تصاویر جعلی
روش دیگر، استفاده از هوش مصنوعی برای مبارزه با هوش مصنوعی است.
مایکروسافت ابزاری را توسعه داده که میتواند عکسها یا ویدیوها را مطالعه و در صورت تغییر آنها را رتبهبندی کند. FakeCatcher شرکت فناوری «اینتل»، از برنامههای رایانهای برای مطالعه کوچکترین قسمتهای یک تصویر به نام پیکسل استفاده میکند تا بگوید واقعی یا جعلی است.
با این حال، برخی از این ابزارها در دسترس عموم نیستند. دلیل آن این است که محققان نمیخواهند به افراد شرور کمک کنند تا دیپفیکهای خود را بهبود بخشند.
همه اینها گفته شد، هوش مصنوعی بسیار سریع در حال توسعه است. و مدلهای هوش مصنوعی بر روی دادههای اینترنتی آموزش داده میشوند تا محتوای بهتری با اشتباهات کمتر تولید کنند.
این بدان معناست که این توصیه برای یافتن دیپفیک ممکن است حتی یک سال دیگر نادرست باشد و چندان به درد شما نخورد.
کارشناسان میگویند حتی ممکن است خطرناک باشد که به افراد معمولی پیشنهاد کنیم که میتوانند دیپفیکها را پیدا کنند. این به این دلیل است که حتی برای چشمان آموزش دیده، این کار به طور فزاینده ای دشوار میشود.