به گفته CyberSecurity، کلاهبرداران به طور گستردهای از هوش مصنوعی (AI) برای باورپذیرتر و موثرتر کردن کلاهبرداریهای خود استفاده میکنند. مدیر اجرایی داتوک امیرودین، میگوید کلاهبرداریهای مبتنی بر هوش مصنوعی روز به روز هوشمندتر میشوند و تشخیص آنها را سختتر میکند.
او گفت که به روز ماندن در مورد آخرین تاکتیکهای کلاهبرداری و اتخاذ تدابیر لازم ضروری است. به گفته امیرودین، برخی از تکنیکهای رایج کلاهبرداری مبتنی بر هوش مصنوعی شامل دیپ فیک، شبیه سازی صدا، ایمیلهای فیشینگ و پیامهای متنی و همچنین دستکاری رسانههای اجتماعی است.
«دیپفیکها ویدیوها یا صداهای ضبطشدهای هستند که دستکاری شدهاند تا به نظر برسد که شخص دیگری در حال گفتن یا انجام کاری است که هرگز انجام نداده است.
کلاهبرداریهای مبتنی بر هوش مصنوعی
کلاهبرداران میتوانند از دیپ فیک برای جعل هویت افراد مورد اعتماد مانند یک دوست یا یکی از اعضای خانواده استفاده کنند تا قربانیان را فریب دهند تا به آنها پول یا اطلاعات شخصی بدهند.
شبیه سازی صدا تکنیکی است که به کلاهبرداران اجازه میدهد صدای مصنوعی ایجاد کنند که دقیقاً شبیه صدای دیگران باشد. کلاهبرداران میتوانند از این صدا برای برقراری تماس تلفنی با قربانیان استفاده کنند و وانمود کنند که به کسی اعتماد دارند. هوش مصنوعی میتواند برای ایجاد ایمیلهایی که به نظر میرسد از طرف بانک یا شرکت کارت اعتباری قربانی باشد، استفاده شود و از آنها بخواهد اطلاعات حساب خود را تأیید کنند.
دستکاری رسانههای اجتماعی یکی دیگر از روشهای رایج کلاهبرداریهای مبتنی بر هوش مصنوعی است که به موجب آن کلاهبرداران از هوش مصنوعی برای هدف قرار دادن افراد یا گروههای خاص در رسانههای اجتماعی با تبلیغات یا پیامهای شخصی استفاده میکنند.
برای مثال، یک هوش مصنوعی میتواند برای شناسایی افرادی که اخیراً طلاق گرفته یا بیکار شدهاند، استفاده شود و سپس آنها را با تبلیغات کلاهبرداری هدف قرار دهد که به آنها کمک میکند تا به سرعت ثروتمند شوند.
آموزش مهمترین نکته در برابر هکرها است
مدیر بخش تحقیقات جنایات تجاری فدرال (CCID) هشدار داد وقتی کلاهبرداران شروع به استفاده از هوش مصنوعی در فعالیتهای خود میکنند، دروغهای عمیق، جعل صدا و دستکاری بازار مالی میتوانند به آینده جرم تبدیل شوند. البته بهترین دفاع در برابر کلاهبرداری هوشیاری و آموزش است. وی گفت که مردم باید محتاط و نسبت به هرگونه ارتباط مشکوک با شک و تردید رفتار کنند.
وی افزود که وقتی هر فرد یا سازمانی با شما تماس میگیرد، ابتدا باید هویت آنها را تأیید کرد. به عنوان مثال، اگر از هیئت درآمد داخلی (LHDN) تماسی دریافت کردید که ادعا میکند مالیات پرداخت نشده دارید، باید مستقیماً برای تأیید ادعا با LHDN تماس بگیرید.
امیرودین هم گفت وقتی صحبت از ارتباطات تولید شده توسط هوش مصنوعی میشود، مراقب علائم قرمز مانند عبارتهای غیرمعمول، تناقض در لحن یا عدم دقت واقعی باشید. دیپفیکها، نسبت به ناهنجاریهایی در تن صدا یا هندسه صورت، مانند نورهای عجیب و غریب یا پیکسلسازی در تصاویر ویدیویی هوشیار باشید. مهمتر از همه، هرگز اطلاعات شخصی یا مالی را در اختیار طرفهای تایید نشده قرار ندهید.
با دنبال کردن اخبار و بهروزرسانیهای تایید شده از منابع مورد اعتماد، از جمله سازمانهای مجری قانون، از کلاهبرداریهای مبتنی بر هوش مصنوعی مطلع شوید.
امیرودین اضافه کرد که هکرها از پتانسیل فناوریهای هوش مصنوعی مانند دیپفیک برای انتشار اطلاعات نادرست و اثربخشی فیشینگ هوش مصنوعی یا ترانسفورماتورهای از پیش آموزشدیدهای مخرب (GPT) در جمعآوری اطلاعات خطرناک، استفاده میکنند. هوش مصنوعی مولد به طور بالقوه میتواند برای انتشار اطلاعات نادرست، ایجاد فریب و اصلاح کدهای مخرب برای فرار از دفاع سایبری استفاده شود.
عواقب این اقدامات میتواند وخیم باشد و منجر به آسیب به زیرساختهای دیجیتال و نقض دادههای حساس شود. از سوی دیگر، صنعت امنیت سایبری از هوش مصنوعی برای مبارزه با این جنایات و غلبه بر چندین چالش استفاده کرده است. در عین حال هوش مصنوعی فرصتی را برای ارتقای استانداردهای موجود با استفاده از چنین ابزارهایی برای نظارت، شناسایی و مقابله با تهدیدات و حملات هوش مصنوعی فراهم میکند.
به این ترتیب، هوش مصنوعی به عنوان یک شمشیر دو لبه عمل میکند و هم برای تلاشهای امنیت سایبری و هم برای مجرمان بالقوه به طور یکسان مزایایی را به همراه دارد.
شما هم میتوانید همین حالا از طریق زبان فارسی به موتورهای هوش مصنوعی مولد مانند ChatGPT و سرویس متن به عکس لئوناردو دسترسی پیدا کنید. تنها کافی است اپلیکیشن زیگپ را دانلود و به راحتی از آن استفاده کنید. همچنین شما میتوانید نظرات خود را با ما و سایر کاربران در شبکههای اجتماعی ما در اینستاگرام و تلگرام به اشتراک بگذارید.