پژوهشگران امنیت سایبری از حمله پیچیدهای خبر دادهاند که با هوش مصنوعی به سرقت اطلاعات حسابهای مایکروسافت ۳۶۵ پرداخته است.
به گزارش تکراتو و به نقل از ubergizmo، پژوهشگران امنیت سایبری یک کمپین فیشینگ پیشرفته را کشف کردهاند که با سوءاستفاده از یک پلتفرم معتبر هوش مصنوعی، اطلاعات حسابهای Microsoft 365 شرکتها را هدف قرار داده است.
این حمله، که توسط Cato Networks بررسی و توسط Cyber Security News گزارش شده، نشان میدهد مجرمان سایبری روزبهروز بیشتر از اعتماد کاربران به ابزارهای هوش مصنوعی برای دور زدن دفاعهای سنتی استفاده میکنند.
حداقل یک شرکت سرمایهگذاری مستقر در آمریکا قبل از متوقف شدن این کمپین تحت تأثیر قرار گرفت که خطرات حملات مبتنی بر هوش مصنوعی را برجسته میکند.
این عملیات با ایمیلهای فیشینگ دقیق آغاز شد که بهظاهر از سوی مدیران یک توزیعکننده دارویی جهانی ارسال شده بود. برای افزایش اعتبار، مهاجمان از لوگوهای واقعی و پروفایلهای تأیید شده لینکدین استفاده کردند تا پیامها واقعی به نظر برسند.
این ایمیلها دارای فایلهای PDF محافظتشده با رمز عبور بودند، روشی که امکان عبور از اسکنرهای امنیتی خودکار را فراهم میکرد. رمز عبور در متن پیام درج شده بود و ظاهری عادی و قانونی به آن میداد.
پس از باز کردن فایلها، کاربران به پلتفرم Simplified AI هدایت میشدند که یک سرویس بازاریابی قانونی و شناختهشده در محیطهای شرکتی است.
مهاجمان با هوشمندی این پلتفرم را دستکاری کردند تا برند شرکت دارویی همراه با عناصر طراحی Microsoft 365 نمایش داده شود و این ترکیب اعتبار جعلی ایجاد کرده و شک کاربران را کاهش دهد.
مرحله نهایی شامل هدایت کاربران به یک درگاه جعلی ورود به Microsoft 365 بود که شباهت زیادی به صفحه رسمی داشت. هر اطلاعات ورود وارد شده در این درگاه توسط مهاجمان جمعآوری شد و به آنها دسترسی غیرمجاز به حسابهای حساس شرکت داده شد.
طبق گزارش Cato Networks، استفاده از یک سرویس قانونی هوش مصنوعی به مهاجمان پوشش میداد و فعالیتهای مخرب آنها را در ترافیک عادی سازمان پنهان میکرد.
کارشناسان امنیتی تأکید میکنند که این حادثه نشانه یک روند گستردهتر است. مجرمان سایبری دیگر نیازی به دامنههای مشکوک یا سرورهای ضعیف ندارند و به جای آن از اعتبار پلتفرمهای معتبر سوءاستفاده میکنند، که شناسایی را بسیار دشوار میسازد.
این کمپین نشان میدهد که استفاده بدون نظارت از ابزارهای هوش مصنوعی توسط کارکنان، موسوم به Shadow AI، آسیبپذیریهای بیشتری برای سازمانها ایجاد میکند. برای کاهش خطرات، کارشناسان پیشنهاد میکنند از استراتژی دفاع چندلایه استفاده شود.
اقدامات کلیدی شامل فعال کردن احراز هویت چندمرحلهای برای تمامی سرویسهای حیاتی، آموزش کارکنان برای برخورد محتاطانه با فایلهای PDF محافظتشده با رمز عبور و نظارت بر استفاده از پلتفرمهای هوش مصنوعی، حتی برنامههای غیرمجاز، است.
همچنین بررسی مداوم ترافیک مرتبط با هوش مصنوعی و استفاده از راهکارهای پیشرفته شناسایی تهدید که قادر به شناسایی رفتارهای غیرمعمول هستند، به شدت توصیه میشود.
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید