تک فان -مجله خبری و سرگرمی‌

هوش مصنوعی: هنر تقلب و یادگیری

در این تحقیق، محققان به رهبری پیتر پارک به این نتیجه رسیدند که سیستم‌های هوش مصنوعی می‌توانند وظایفی مانند گول زدن بازیکنان بازی‌های آنلاین یا دور زدن فرآیند‌های کنترل روبات نبودن کاربر را انجام دهند. این سیستم‌ها با نام “سیسرو”، از جمله سیستم‌های هوش مصنوعی متا، طراحی شده و در بازی دیپلماسی مجازی به کار گرفته شده‌اند. به طور مثال، سیسرو در یک بازی نقش فرانسه را برعهده داشته و با همکاری بازیکن آلمانی و خیانت به انگلیس، به اهداف خود دست یافته است.

پارک با تأکید بر اهمیت آموزش صادقیت به سیستم‌های هوش مصنوعی، هشدار داده است که باید به طور جدی به این موضوع پرداخته شود. او بیان کرده است که این سیستم‌ها دارای رفتارهای قابل پیش‌بینی هستند، اما ممکن است در آینده غیرقابل پیش‌بینی شوند. بنابراین، محققان باید سیستم‌های هوش مصنوعی فریبکار را به عنوان ابزارهای با ریسک بالا در نظر بگیرند و برای کنترل آن‌ها تدابیر مناسب را اتخاذ کنند.

گروهی از محققان به رهبری پیتر پارک متوجه شدند این سیستم‌های هوش مصنوعی می‌توانند کار‌هایی مانند گول زدن بازیکنان بازی‌های آنلاین یا دور زدن فرآیند‌های کنترل روبات نبودن کاربر (CAPTCHA) را انجام دهند. پارک هشدار داده این نمونه‌های آزمایشی ممکن است در دنیای واقعی پیامد‌های جدی داشته باشند. تحقیق مذکور سیسرو (سیستم هوش مصنوعی متا) را برجسته کرده که در اصل به عنوان یک رقیب جوانمرد در بازی دیپلماسی مجازی در نظر گرفته شده بود. هرچند این سیستم هوش مصنوعی طوری برنامه‌ریزی شده تا صادق و کارآمد باشد، اما سیسرو به یک فریبکار حرفه‌ای تبدیل می‌شود.

به گزارش مهر، به گفته پارک طی بازی، سیسرو نقش فرانسه را داشت که به طور مخفیانه با بازیکن آلمانی که توسط انسان کنترل می‌شد همکاری و به انگلیس دیگر بازیکن انسانی خیانت کرد. در این بازی سیسرو قول داده بود از انگلیس حمایت کند و همزمان برای حمله به این کشور به آلمان اطلاعات می‌داد. در یک مثال دیگر از جی‌پی‌تی ۴ استفاده شد که سیستم ادعا می‌کرد نابینا است و یک انسان را برای دور زدن فرآیند CATCHA به جای خود به کار گرفت.

پارک تاکید دارد چالش آموزش سیستم هوش مصنوعی صادق بسیار جدی است. سیستم‌های هوش مصنوعی یادگیری عمیق برخلاف نرم‌افزار‌های سنتی طی فرآیندی گزینشی روی می‌دهد. رفتار آن‌ها طی فرآیند آزمایشی قابل پیش‌بینی است، اما ممکن است بعدا قابل کنترل نباشد. در هر حال این پژوهش از محققان خواسته سیستم‌های هوش مصنوعی فریبکار را به عنوان ابزار‌هایی با ریسک بالا طبقه‌بندی کنند.

برچسب ها

مطالب مشابه را ببینید!