تکامل هوش مصنوعی فقط روی صنایع مختلف تأثیر نمیذاره، بلکه روشهای کلاهبرداران سایبری رو هم تغییر داده. یکی از روندهای نگرانکننده، استفاده از هوش مصنوعی برای تقویت حملات فیشینگ هست، که این کلاهبرداریها رو دقیقتر میکنه، افراد خاصی رو هدف قرار میده و تشخیص این حملات رو تقریباً غیرممکن میکنه.
طبق یک مطالعه اخیر از Kaspersky، تعداد حملات سایبری که سازمانها در ۱۲ ماه گذشته تجربه کردن، در آفریقای جنوبی ۲۹ درصد افزایش پیدا کرده. تهدید اصلی هم از حملات فیشینگ بود، به طوری که ۶۷ درصد از افرادی که در این نظرسنجی شرکت کردن، این نوع حادثه رو گزارش دادن.
با افزایش استفاده از هوش مصنوعی توسط کلاهبرداران سایبری، بیش از نیمی از پاسخدهندگان در آفریقای جنوبی (۵۳ درصد) انتظار دارن که تعداد حملات فیشینگ به طور قابل توجهی افزایش پیدا کنه. در این متن، Kaspersky بررسی میکنه که هوش مصنوعی چطور در فیشینگ استفاده میشه و چرا فقط تجربه کافی نیست تا از قربانی شدن جلوگیری بشه.
شخصیسازی حملات فیشینگ از طریق هوش مصنوعی
قبلاً حملات فیشینگ به پیامهای عمومی و انبوهی که به هزاران نفر ارسال میشد، وابسته بود، با این امید که برخی از دریافتکنندگان فریب بخورند. اما هوش مصنوعی این رو به نوشتن ایمیلهای فیشینگ بسیار شخصیسازی شده در تعداد زیاد تغییر داده. با استفاده از اطلاعات عمومی مثل اطلاعات موجود در شبکههای اجتماعی، سایتهای شغلی و وبسایتهای شرکتها، این ابزارهای مبتنی بر هوش مصنوعی میتونن ایمیلهایی رو تولید کنن که به نقش، علایق و سبک ارتباطی یک فرد خاص متناسب باشه.
برای مثال، یک CFO ممکنه ایمیل تقلبیای دریافت کنه که لحن و قالب پیامهای CEO خودش رو تقلید میکنه و شامل ارجاعات دقیقی به رویدادهای اخیر شرکت هست. این سطح از سفارشیسازی باعث میشه که کارکنان به شدت در تشخیص بین ارتباطات واقعی و مخرب دچار مشکل بشن.
تکنولوژی دیپفیک
هوش مصنوعی همچنین دیپفیکها رو به سلاحهای فیشینگ اضافه کرده. کلاهبرداران به طور گستردهای از این تکنولوژی برای ایجاد پیامهای صوتی و تصویری جعلی اما بسیار دقیق استفاده میکنن که به صدای و ظاهر مدیرانی که میخوان تقلید کنن، شباهت داره.
برای مثال، در یک مورد گزارش شده، مهاجمان از دیپفیک برای تقلید از چندین عضو کارکنان در حین یک ویدیو کنفرانس استفاده کردن و موفق شدن کارمند رو قانع کنن که حدود ۲۵.۶ میلیون دلار منتقل کنه. با پیشرفت تکنولوژی دیپفیک، انتظار میره که این نوع حملات بیشتر و شناساییشون سختتر بشه.
دور زدن دفاعهای سنتی
کلاهبرداران میتونن با استفاده از هوش مصنوعی، اسکریپت سیستمهای فیلتر ایمیل سنتی رو دستکاری کنن. با تحلیل و تقلید از الگوهای ایمیلهای معتبر، ایمیلهای فیشینگ تولید شده توسط هوش مصنوعی میتونن از تشخیص نرمافزارهای امنیتی عبور کنن. الگوریتمهای یادگیری ماشین میتونن کمپینهای فیشینگ رو در زمان واقعی آزمایش و بهینهسازی کنن و نرخ موفقیتشون رو افزایش بدن و به تدریج پیچیدهتر بشن.
چرا تجربه کافی نیست
حتی کارکنان با تجربه هم قربانی این حملات پیشرفته فیشینگ میشن. سطح واقعگرایی و شخصیسازی که هوش مصنوعی میتونه به دست بیاره، ممکنه شک و تردیدهایی رو که باعث احتیاط حرفهایهای با تجربه میشه، تحتالشعاع قرار بده. علاوه بر این، حملات تولید شده توسط هوش مصنوعی معمولاً از روانشناسی انسانی مثل فوریت، ترس یا اقتدار استفاده میکنن و کارکنان رو تحت فشار قرار میدن تا بدون بررسی صحت درخواست، اقدام کنن.
مقابله با فیشینگ تحت تأثیر هوش مصنوعی
برای دفاع در برابر حملات فیشینگ مبتنی بر هوش مصنوعی، سازمانها باید رویکردی پیشگیرانه و چندلایه اتخاذ کنن که بر امنیت سایبری جامع تأکید داشته باشه. آموزشهای منظم و بهروز در زمینه امنیت سایبری با تمرکز بر هوش مصنوعی برای کارکنان بسیار حیاتی هست و بهشون کمک میکنه تا نشانههای ظریف فیشینگ و دیگر تاکتیکهای مخرب رو شناسایی کنن.
مدل امنیتی “عدم اعتماد” هم نقش مهمی در کاهش آسیبهای احتمالی یک حمله موفق ایفا میکنه. با محدود کردن دسترسی به دادهها و سیستمهای حساس، این رویکرد اطمینان حاصل میکنه که حتی اگر مهاجمان یک لایه امنیتی رو نقض کنن، نمیتونن کل شبکه رو به خطر بندازن.
منبع : itnewsafrica