آنطور که گزارشها میگویند تدابیر امنیتی غول جستجوگر نمیگذارد هکرها از هوش مصنوعی گوگل برای حملات سایبری خود استفاده کنند.
به گزارش تکراتو به نقل از androidheadlines، از زمانی که مشخص شد ChatGPT میتواند کدنویسی کند، بسیاری پیشبینی کردند که هکرها به دنبال سوءاستفاده از هوش مصنوعی خواهند بود. این موضوع باعث افزایش بدافزارهای اینترنتی شده است. اما خبر خوب اینجاست که هکرهایی که تلاش کردند از هوش مصنوعی گوگل برای اهداف مخرب استفاده کنند، ناکام ماندند.
گوگل تدابیر امنیتی سختگیرانهای را برای جمنای در نظر گرفته است. این مدلهای هوش مصنوعی بسیار قدرتمند هستند، بنابراین اگر بدون محدودیت در اختیار افراد قرار بگیرند، میتوانند آسیبهای جدی ایجاد کنند. به همین دلیل، تمام مدلهای پیشرفته هوش مصنوعی دارای محافظتهای امنیتی هستند تا از سوءاستفادههای احتمالی جلوگیری شود.
گوگل بهطور مستقیم کاربران جمینی را رصد نمیکند، اما اگر کسی از این ابزار برای یادگیری روشهای هک یا ساخت بمب استفاده کند، احتمالا مورد توجه گوگل قرار میگیرد. بر اساس گزارش گوگل، چندین گروه هکری تلاش کردند از جمینی برای پیشبرد اهداف خود استفاده کنند، اما ناکام ماندند.
طبق اطلاعات منتشر شده:
۱۰ گروه از ایران، ۹ گروه از کره شمالی، ۲۰ گروه از چین و برخی از روسیه در این ماجرا دخیل بودهاند.
هکرها سعی داشتند روشهای فیشینگ پیشرفته برای جیمیل، ساخت بدافزار برای کروم و دور زدن تاییدیههای حساب گوگل را یاد بگیرند.
اما به دلیل محدودیتهای امنیتی گوگل، نتوانستند به اطلاعات مهمی دست پیدا کنند و تنها برخی بهبودهای جزئی در بهرهوری خود داشتند.
در نهایت، هکرها بهجای تولید بدافزار، از جمنای برای ترجمه محتوا، اصلاح کد و تحقیقات امنیتی استفاده کردند. این اتفاق نشان میدهد که گوگل توانسته هوش مصنوعی خود را در برابر تهدیدات سایبری مقاوم نگه دارد.
اخبار گوگل
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید