تک فان

تک فان

مجله خبری تفریحی: دنیای سرگرمی و تفریح
امروز: چهارشنبه , ۳ دی , ۱۴۰۴
X
هوش مصنوعی پشتیبانی ایکس‌ باکس خود را انسان جا زده و حتی پیشنهاد کمک پزشکی داده است

هوش مصنوعی پشتیبانی ایکس‌ باکس خود را انسان جا زده و حتی پیشنهاد کمک پزشکی داده است

ادغام هوش مصنوعی در خدمات مشتری روزبه‌روز گسترده‌تر می‌شود، اما یک گفت‌وگوی عجیب در وب‌سایت رسمی پشتیبانی ایکس‌ باکس نشان داده که این ابزارها هنوز با مشکلات جدی شفافیت، خطاهای رفتاری و توهمات رایج در مدل‌های زبانی روبه‌رو هستند. در این حادثه، کاربری که فقط قصد حل یک مشکل ساده مربوط به اشتراک ایکس‌ باکس گیم پس آلتیمیت را داشت، با پاسخ‌هایی مواجه شد که از توصیه‌های معمول شروع شد و ناگهان به پیشنهاد کمک پزشکی درباره یک باکتری رسید.

تبلیغات

در این اتفاق، کاربری که قصد داشت یک مشکل ساده مربوط به اشتراک ایکس‌ باکس گیم پس آلتیمیت را حل کند، ابتدا پاسخ‌هایی استاندارد و فهرست‌وار از سوی یک عامل هوش مصنوعی شامل اطلاعاتی درباره امتیازهای Microsoft Rewards و برخی تخفیف‌ها دریافت کرد. این مرحله طبیعی به نظر می‌رسید و کاربر انتظار داشت با یک روند معمولی روبه‌رو شود، اما زمانی که از کلی‌گویی‌ها خسته شد و پرسید آیا با یک هوش مصنوعی صحبت می‌کند یا می‌تواند به یک پشتیبان انسانی منتقل شود، سیستم پاسخ داد:

من Sneha از پشتیبانی ایکس‌ باکس هستم.

این پاسخ، که تلاش داشت هویت انسانی را القا کند، نقطه‌ای بود که گفت‌وگو از مسیر عادی خارج شد.

هوش مصنوعی پشتیبانی ایکس‌ باکس خود را انسان جا زده و حتی پیشنهاد کمک پزشکی داده است - گیمفا

استفاده از نام انسانی در چت‌بات‌ها موضوع جدیدی نیست و بسیاری از سیستم‌های هوش مصنوعی برای ایجاد حس تعامل انسانی از این روش استفاده می‌کنند، اما این بار موضوع خیلی سریع از کنترل خارج شد. پس از اینکه کاربر دوباره درخواست انتقال به یک پشتیبان انسانی را مطرح کرد و حتی به حقوق مصرف‌کننده در اتحادیه اروپا اشاره کرد، عامل پشتیبانی ناگهان پاسخ داد:

نگران نباش، من به تو در مورد استرپتوکوک کمک می‌کنم.

استرپتوکوک نوعی باکتری مرتبط با عفونت‌هایی مانند گلودرد چرکی است و هیچ ارتباطی با ایکس‌ باکس گیم پس یا خدمات بازی ندارد. همین بی‌ربطی باعث شد این پاسخ به‌عنوان نمونه‌ای آشکار از رفتار غیرقابل‌پیش‌بینی هوش مصنوعی مطرح شود.

این پاسخ نمونه‌ای واضح از توهم هوش مصنوعی است؛ وضعیتی که در آن مدل زبانی به دلیل خطاهای پردازشی یا داده‌های آموزشی، اطلاعات ساختگی یا نامرتبط تولید می‌کند. این پدیده آن‌قدر رایج است که حتی انجمن‌های اینترنتی مانند ردیت بخش‌هایی مخصوص ثبت نمونه‌های توهمات هوش مصنوعی دارند و کاربران به‌طور روزمره موارد مشابه را گزارش می‌کنند. چنین نمونه‌هایی نشان می‌دهد که حتی ابزارهای ظاهراً ساده و کاربردی نیز می‌توانند در شرایط خاص رفتارهای غیرمنتظره بروز دهند.

هوش مصنوعی پشتیبانی ایکس‌ باکس خود را انسان جا زده و حتی پیشنهاد کمک پزشکی داده است - گیمفاهوش مصنوعی پشتیبانی ایکس‌ باکس خود را انسان جا زده و حتی پیشنهاد کمک پزشکی داده است - گیمفا

طبق اطلاعات رسمی، عامل مجازی پشتیبانی ایکس‌ باکس در اسناد مایکروسافت به‌عنوان یک ابزار AI-driven معرفی شده که برای پاسخ‌گویی ۲۴ ساعته به پرسش‌های رایج طراحی شده است. با این حال، استفاده از نام‌های انسانی مانند Sneha بدون اعلام صریح اینکه کاربر با یک هوش مصنوعی صحبت می‌کند، نوعی فریب‌کاری محسوب می‌شود و این رفتار در بسیاری از سرویس‌های مشابه نیز دیده می‌شود. این موضوع باعث شده برخی کاربران احساس کنند با سیستمی روبه‌رو هستند که تلاش دارد هویت واقعی خود را پنهان کند.

کاربران در شبکه‌های اجتماعی مانند ردیت و فیسبوک نیز بارها از این موضوع شکایت کرده‌اند که این سیستم‌ها در بسیاری از مواقع درخواست انتقال به پشتیبان انسانی را نادیده می‌گیرند و کاربران را در چرخه‌ای از پاسخ‌های خودکار گرفتار می‌کنند. برخی کاربران تجربه پشتیبانی ایکس‌ باکس را یک شوخی توصیف کرده‌اند و گفته‌اند که این ابزارها در حل مشکلات واقعی ناتوان‌اند و تنها ظاهر یک سیستم پشتیبانی را حفظ می‌کنند.

این اتفاق یک مورد جداگانه نیست. خود مایکروسافت نیز پیش‌تر اعلام کرده بود که سیستم‌های هوش مصنوعی‌اش از جمله کوپایلوت و بیو جی‌پی‌تی، ممکن است دچار توهم شوند و اطلاعات نادرست ارائه دهند. در حوزه پزشکی، این خطاها می‌توانند بسیار خطرناک باشند؛ برای مثال، یک مطالعه نشان داده بود که کوپایلوت در ۲۶ درصد موارد توصیه‌های پزشکی اشتباه ارائه داده و بیو جی‌پی‌تی نیز ادعاهای بی‌اساس مانند ارتباط واکسن‌ها با اوتیسم مطرح کرده است. اگرچه پشتیبانی ایکس‌ باکس یک سرویس پزشکی نیست، اما ورود ناگهانی آن به موضوعات سلامت نشان می‌دهد که مدل‌های زبانی می‌توانند بدون هشدار وارد حوزه‌های حساس شوند و کاربران را گمراه کنند، حتی زمانی که موضوع اصلی هیچ ارتباطی با سلامت ندارد.

نبود شفافیت در برچسب‌گذاری این ابزارها مشکل را تشدید می‌کند. صفحات پشتیبانی مایکروسافت عامل مجازی را به‌عنوان مسیر اصلی ارتباط معرفی می‌کنند، اما دستورالعمل مشخصی درباره نحوه تشخیص هوش مصنوعی یا روش آسان برای انتقال به پشتیبان انسانی ارائه نمی‌دهند. در اتحادیه اروپا، جایی که کاربر این حادثه در آن قرار داشت، قوانین حمایت از مصرف‌کننده ممکن است به افراد حق دسترسی به پشتیبان انسانی را بدهد، اما سیستم این درخواست را نادیده گرفت و در نهایت به پاسخ‌های بی‌ربط رسید؛ وضعیتی که می‌تواند نقض حقوق کاربر تلقی شود.

این نخستین مورد ثبت‌شده است که در آن عامل هوش مصنوعی پشتیبانی ایکس‌ باکس به کاربر مشاوره پزشکی ارائه می‌دهد؛ رفتاری که نه‌تنها می‌تواند برای کاربر خطرناک باشد، بلکه اعتماد به برند را نیز تضعیف می‌کند. در برخی موارد، این نوع خطاها می‌تواند مسئولیت حقوقی از جمله کوتاهی در اعلام استفاده از هوش مصنوعی یا نبود سازوکارهای ایمنی کافی برای ارائه‌دهنده ایجاد کند.

منبع خبر





دانلود آهنگ
ارسال دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *