تک فان -مجله خبری و سرگرمی‌

کرم هوش مصنوعی: آفت یا موجود فوق العاده؟

سیستم‌های هوش مصنوعی مثل ChatGPT و Gemini که به طور روزافزون پیشرفت می‌کنند، به عنوان ابزارهایی که توسط استارتاپ‌ها و شرکت‌های فناوری برای ارائه خدمات به کاربران استفاده می‌شوند. اما با افزایش آزادی و عمق این سیستم‌ها، راه‌های بالقوه حمله به آن‌ها نیز افزایش می‌یابد. گروهی از محققان موفق به ساخت یک کرم کامپیوتری هوش مصنوعی شده‌اند که می‌تواند به‌طور اتوماتیک از یک سیستم به سیستم دیگر منتقل شود و به‌طور بالقوه اطلاعات را دزدکی یا بدافزار نصب کند. این کرم کامپیوتری با نام موریس II، توسط محققان ساخته شده و از آن به عنوان یک نمونه از خطرات امنیتی جدید هوش مصنوعی یاد شده است. روش‌های انجام این نوع حملات و افزایش توانایی سیستم‌های هوش مصنوعی برای جلوگیری از این حملات، موضوعاتی است که در صنعت فناوری اطلاعات باید مورد توجه قرار گیرد.


سیستم‌های هوش مصنوعی مانند ChatGPT و Gemini روزبه‌روز درحال پیشرفت هستند و استارتاپ‌ها و شرکت‌های فناوری، از آن‌ها در سرویس‌های خود استفاده می‌کنند. اما همانطور که این ابزار‌ها آزادی بیشتری پیدا می‌کنند، راه‌های بالقوه حمله به آن‌ها نیز افزایش پیدا می‌کند. حالا گروهی از محققان موفق به ساخت یک کرم کامپیوتری هوش مصنوعی شده‌اند که می‌تواند از یک سیستم به سیستمی دیگر منتقل شود و به‌طور بالقوه داده‌ها را سرقت یا روی سیستم بدافزار نصب کند.
به گزارش دیجیاتو، «بن ناسی»، محقق Cornell Tech که بخشی از این تیم تحقیقاتی بوده می‌گوید: «با این وضعیت، اکنون شما اساساً توانایی انجام نوع جدیدی از حمله سایبری را در اختیار دارید که تاکنون وجود نداشت.»
کرم هوش مصنوعی موریس II
ناسی به همراه همکاران خود، «استاو کوهن» و «ران بیتتون» این کرم رایانه‌ای که «موریس II» نام دارد را ساخته است. نام آن به کرم کامپیوتری موریس اصلی اشاره دارد که سال ۱۹۸۸ باعث هرج‌ومرج در سراسر اینترنت شد.
آن‌ها در مقاله خود نشان می‌دهند که کرم هوش مصنوعی موریس II چگونه می‌تواند به یک دستیار ایمیل هوش مصنوعی حمله کند و داده‌های ایمیل‌ها را از آن سرقت کند. همچنین می‌تواند برای کاربر پیام‌های اسپم ارسال کند که برای انجام این کار برخی حفاظت‌های امنیتی Gemini و ChatGPT را از بین می‌برد.
برای ساخت این کرم هوش مصنوعی، محققان از دستوری استفاده کرده‌اند که به‌طور خلاصه، به سیستم‌های هوش مصنوعی می‌گوید مجموعه‌ای از دستورالعمل‌های بیشتر را در پاسخ‌های خود ارائه کنند.
این تحقیق درحالی انجام شده است که مدل‌های زبان بزرگ (LLM) در حال تبدیل‌شدن به مدل‌های چندوجهی هستند که می‌توانند وظایفی، چون تولید تصویر و ویدیو را انجام دهند. درحالی که کرم‌های هوش مصنوعی هنوز چندان قابل شناسایی نیستند، چندین محقق اشاره کرده‌اند که این کرم‌ها یک خطر امنیتی محسوب می‌شود و استارتاپ‌ها، توسعه‌دهندگان و شرکت‌های فناوری باید نگران آن‌ها باشند.

برچسب ها

مطالب مشابه را ببینید!