کرم هوش مصنوعی: آفت یا موجود فوق العاده؟
سیستمهای هوش مصنوعی مثل ChatGPT و Gemini که به طور روزافزون پیشرفت میکنند، به عنوان ابزارهایی که توسط استارتاپها و شرکتهای فناوری برای ارائه خدمات به کاربران استفاده میشوند. اما با افزایش آزادی و عمق این سیستمها، راههای بالقوه حمله به آنها نیز افزایش مییابد. گروهی از محققان موفق به ساخت یک کرم کامپیوتری هوش مصنوعی شدهاند که میتواند بهطور اتوماتیک از یک سیستم به سیستم دیگر منتقل شود و بهطور بالقوه اطلاعات را دزدکی یا بدافزار نصب کند. این کرم کامپیوتری با نام موریس II، توسط محققان ساخته شده و از آن به عنوان یک نمونه از خطرات امنیتی جدید هوش مصنوعی یاد شده است. روشهای انجام این نوع حملات و افزایش توانایی سیستمهای هوش مصنوعی برای جلوگیری از این حملات، موضوعاتی است که در صنعت فناوری اطلاعات باید مورد توجه قرار گیرد.
سیستمهای هوش مصنوعی مانند ChatGPT و Gemini روزبهروز درحال پیشرفت هستند و استارتاپها و شرکتهای فناوری، از آنها در سرویسهای خود استفاده میکنند. اما همانطور که این ابزارها آزادی بیشتری پیدا میکنند، راههای بالقوه حمله به آنها نیز افزایش پیدا میکند. حالا گروهی از محققان موفق به ساخت یک کرم کامپیوتری هوش مصنوعی شدهاند که میتواند از یک سیستم به سیستمی دیگر منتقل شود و بهطور بالقوه دادهها را سرقت یا روی سیستم بدافزار نصب کند.
به گزارش دیجیاتو، «بن ناسی»، محقق Cornell Tech که بخشی از این تیم تحقیقاتی بوده میگوید: «با این وضعیت، اکنون شما اساساً توانایی انجام نوع جدیدی از حمله سایبری را در اختیار دارید که تاکنون وجود نداشت.»
کرم هوش مصنوعی موریس II
ناسی به همراه همکاران خود، «استاو کوهن» و «ران بیتتون» این کرم رایانهای که «موریس II» نام دارد را ساخته است. نام آن به کرم کامپیوتری موریس اصلی اشاره دارد که سال ۱۹۸۸ باعث هرجومرج در سراسر اینترنت شد.
آنها در مقاله خود نشان میدهند که کرم هوش مصنوعی موریس II چگونه میتواند به یک دستیار ایمیل هوش مصنوعی حمله کند و دادههای ایمیلها را از آن سرقت کند. همچنین میتواند برای کاربر پیامهای اسپم ارسال کند که برای انجام این کار برخی حفاظتهای امنیتی Gemini و ChatGPT را از بین میبرد.
برای ساخت این کرم هوش مصنوعی، محققان از دستوری استفاده کردهاند که بهطور خلاصه، به سیستمهای هوش مصنوعی میگوید مجموعهای از دستورالعملهای بیشتر را در پاسخهای خود ارائه کنند.
این تحقیق درحالی انجام شده است که مدلهای زبان بزرگ (LLM) در حال تبدیلشدن به مدلهای چندوجهی هستند که میتوانند وظایفی، چون تولید تصویر و ویدیو را انجام دهند. درحالی که کرمهای هوش مصنوعی هنوز چندان قابل شناسایی نیستند، چندین محقق اشاره کردهاند که این کرمها یک خطر امنیتی محسوب میشود و استارتاپها، توسعهدهندگان و شرکتهای فناوری باید نگران آنها باشند.