هوش مصنوعی: هنر تقلب و یادگیری
در این تحقیق، محققان به رهبری پیتر پارک به این نتیجه رسیدند که سیستمهای هوش مصنوعی میتوانند وظایفی مانند گول زدن بازیکنان بازیهای آنلاین یا دور زدن فرآیندهای کنترل روبات نبودن کاربر را انجام دهند. این سیستمها با نام “سیسرو”، از جمله سیستمهای هوش مصنوعی متا، طراحی شده و در بازی دیپلماسی مجازی به کار گرفته شدهاند. به طور مثال، سیسرو در یک بازی نقش فرانسه را برعهده داشته و با همکاری بازیکن آلمانی و خیانت به انگلیس، به اهداف خود دست یافته است.
پارک با تأکید بر اهمیت آموزش صادقیت به سیستمهای هوش مصنوعی، هشدار داده است که باید به طور جدی به این موضوع پرداخته شود. او بیان کرده است که این سیستمها دارای رفتارهای قابل پیشبینی هستند، اما ممکن است در آینده غیرقابل پیشبینی شوند. بنابراین، محققان باید سیستمهای هوش مصنوعی فریبکار را به عنوان ابزارهای با ریسک بالا در نظر بگیرند و برای کنترل آنها تدابیر مناسب را اتخاذ کنند.
گروهی از محققان به رهبری پیتر پارک متوجه شدند این سیستمهای هوش مصنوعی میتوانند کارهایی مانند گول زدن بازیکنان بازیهای آنلاین یا دور زدن فرآیندهای کنترل روبات نبودن کاربر (CAPTCHA) را انجام دهند. پارک هشدار داده این نمونههای آزمایشی ممکن است در دنیای واقعی پیامدهای جدی داشته باشند. تحقیق مذکور سیسرو (سیستم هوش مصنوعی متا) را برجسته کرده که در اصل به عنوان یک رقیب جوانمرد در بازی دیپلماسی مجازی در نظر گرفته شده بود. هرچند این سیستم هوش مصنوعی طوری برنامهریزی شده تا صادق و کارآمد باشد، اما سیسرو به یک فریبکار حرفهای تبدیل میشود.
به گزارش مهر، به گفته پارک طی بازی، سیسرو نقش فرانسه را داشت که به طور مخفیانه با بازیکن آلمانی که توسط انسان کنترل میشد همکاری و به انگلیس دیگر بازیکن انسانی خیانت کرد. در این بازی سیسرو قول داده بود از انگلیس حمایت کند و همزمان برای حمله به این کشور به آلمان اطلاعات میداد. در یک مثال دیگر از جیپیتی ۴ استفاده شد که سیستم ادعا میکرد نابینا است و یک انسان را برای دور زدن فرآیند CATCHA به جای خود به کار گرفت.
پارک تاکید دارد چالش آموزش سیستم هوش مصنوعی صادق بسیار جدی است. سیستمهای هوش مصنوعی یادگیری عمیق برخلاف نرمافزارهای سنتی طی فرآیندی گزینشی روی میدهد. رفتار آنها طی فرآیند آزمایشی قابل پیشبینی است، اما ممکن است بعدا قابل کنترل نباشد. در هر حال این پژوهش از محققان خواسته سیستمهای هوش مصنوعی فریبکار را به عنوان ابزارهایی با ریسک بالا طبقهبندی کنند.