اگر اخیراً در فهمیدن اینکه تصویر یک انسان واقعی است یا از طریق هوش مصنوعی (AI) ایجاد شده است مشکل داشتید، تنها نیستید.
یک مطالعه جدید از محققان دانشگاه واترلو نشان داد که افراد در تشخیص اینکه چه کسی یک شخص واقعی است و چه کسی به طور مصنوعی ایجاد شده است، دشوارتر از آنچه انتظار میرفت، مشکل داشتند.
در مطالعه واترلو به 260 شرکتکننده، 20 عکس بدون برچسب ارائه شد: 10 مورد از افراد واقعی بودند که از جستجوهای گوگل به دست آمده بودند، و 10 مورد دیگر توسط Stable Diffusion یا DALL-E، دو برنامه متداول هوش مصنوعی که تصاویر را تولید میکردند، تولید شدند.
تشخیص انسان از ساخته هوش مصنوعی مولد
از شرکت کنندگان خواسته شد تا هر تصویر را واقعی یا تولید شده توسط هوش مصنوعی برچسب گذاری کنند و توضیح دهند که چرا تصمیم خود را گرفتهاند. تنها 61 درصد از شرکت کنندگان میتوانند تفاوت بین افراد تولید شده توسط هوش مصنوعی و افراد واقعی را تشخیص دهند که بسیار کمتر از آستانه 85 درصدی است که محققان انتظار داشتند.
آندریا پوکول، کاندیدای دکترای علوم کامپیوتر در دانشگاه واترلو و نویسنده اصلی این مطالعه، میگوید: «مردم آنقدر که فکر میکنند در ایجاد تمایز ماهر نیستند. شرکت کنندگان هنگام جستجوی محتوای تولید شده توسط هوش مصنوعی زاینده به جزئیاتی مانند انگشتان، دندانها و چشمها به عنوان شاخصهای ممکن توجه کردند، اما ارزیابیهای آنها همیشه درست نبود.
پوکول خاطرنشان کرد که ماهیت این مطالعه به شرکت کنندگان اجازه میدهد تا عکسها را به طور طولانی بررسی کنند، در حالی که اکثر کاربران اینترنت به صورت گذرا به تصاویر نگاه میکنند. او ادامه داد: «افرادی که فقط در حال چک کردن هستند یا وقت ندارند، این نشانهها را دریافت نخواهند کرد.
پوکول اضافه کرد که سرعت بسیار سریعی که در آن فناوری هوش مصنوعی در حال توسعه است، درک پتانسیل اقدامات مخرب یا شرورانه ناشی از تصاویر تولید شده توسط هوش مصنوعی را دشوار میکند. سرعت تحقیقات و قوانین آکادمیک اغلب نمیتواند ادامه یابد: تصاویر تولید شده توسط هوش مصنوعی از زمان شروع مطالعه در اواخر سال 2022 حتی واقعیتر شدهاند. تشخیص انسان از محتوای تولید شده توسط هوش مصنوعی هم سختتر شده است.
این تصاویر تولید شده توسط هوش مصنوعی زاینده بهعنوان ابزاری سیاسی و فرهنگی، بهویژه تهدیدآمیز هستند که میتواند هر کاربر را در موقعیتهای شرمآور یا سازشآور، تصاویر جعلی از شخصیتهای عمومی ایجاد کند.
پوکول میگوید: اطلاعات نادرست جدید نیست، اما ابزارهای اطلاعات نادرست دائما در حال تغییر و تحول بودهاند. ممکن است به جایی برسد که مردم، صرف نظر از اینکه چقدر آموزش دیده باشند، همچنان برای تشخیص انسان واقعی از تقلبی تلاش کنند. به همین دلیل است که ما نیاز به توسعه ابزارهایی برای شناسایی و مقابله با آن داریم. این مانند یک مسابقه تسلیحاتی جدید هوش مصنوعی است.
مطالعه با عنوان «دیدن دیگر باور نمیکند: نظرسنجی در مورد وضعیت دیپفیکها، انسانهای تولیدشده توسط هوش مصنوعی و سایر رسانههای غیر معتبر» در مجله Advances in Computer Graphics منتشر شده است.
شما میتوانید همین حالا از طریق زبان فارسی به موتورهای هوش مصنوعی مولد مانند ChatGPT و لئوناردو دسترسی پیدا کنید. تنها کافی است اپلیکیشن زیگپ را دانلود و به راحتی از آن استفاده کنید. همچنین شما میتوانید نظرات خود را با ما و سایر کاربران در شبکههای اجتماعی ما در اینستاگرام و تلگرام به اشتراک بگذارید.