ادغام هوش مصنوعی در خدمات مشتری روزبهروز گستردهتر میشود، اما یک گفتوگوی عجیب در وبسایت رسمی پشتیبانی ایکس باکس نشان داده که این ابزارها هنوز با مشکلات جدی شفافیت، خطاهای رفتاری و توهمات رایج در مدلهای زبانی روبهرو هستند. در این حادثه، کاربری که فقط قصد حل یک مشکل ساده مربوط به اشتراک ایکس باکس گیم پس آلتیمیت را داشت، با پاسخهایی مواجه شد که از توصیههای معمول شروع شد و ناگهان به پیشنهاد کمک پزشکی درباره یک باکتری رسید.

در این اتفاق، کاربری که قصد داشت یک مشکل ساده مربوط به اشتراک ایکس باکس گیم پس آلتیمیت را حل کند، ابتدا پاسخهایی استاندارد و فهرستوار از سوی یک عامل هوش مصنوعی شامل اطلاعاتی درباره امتیازهای Microsoft Rewards و برخی تخفیفها دریافت کرد. این مرحله طبیعی به نظر میرسید و کاربر انتظار داشت با یک روند معمولی روبهرو شود، اما زمانی که از کلیگوییها خسته شد و پرسید آیا با یک هوش مصنوعی صحبت میکند یا میتواند به یک پشتیبان انسانی منتقل شود، سیستم پاسخ داد:
من Sneha از پشتیبانی ایکس باکس هستم.
این پاسخ، که تلاش داشت هویت انسانی را القا کند، نقطهای بود که گفتوگو از مسیر عادی خارج شد.

استفاده از نام انسانی در چتباتها موضوع جدیدی نیست و بسیاری از سیستمهای هوش مصنوعی برای ایجاد حس تعامل انسانی از این روش استفاده میکنند، اما این بار موضوع خیلی سریع از کنترل خارج شد. پس از اینکه کاربر دوباره درخواست انتقال به یک پشتیبان انسانی را مطرح کرد و حتی به حقوق مصرفکننده در اتحادیه اروپا اشاره کرد، عامل پشتیبانی ناگهان پاسخ داد:
نگران نباش، من به تو در مورد استرپتوکوک کمک میکنم.
استرپتوکوک نوعی باکتری مرتبط با عفونتهایی مانند گلودرد چرکی است و هیچ ارتباطی با ایکس باکس گیم پس یا خدمات بازی ندارد. همین بیربطی باعث شد این پاسخ بهعنوان نمونهای آشکار از رفتار غیرقابلپیشبینی هوش مصنوعی مطرح شود.
این پاسخ نمونهای واضح از توهم هوش مصنوعی است؛ وضعیتی که در آن مدل زبانی به دلیل خطاهای پردازشی یا دادههای آموزشی، اطلاعات ساختگی یا نامرتبط تولید میکند. این پدیده آنقدر رایج است که حتی انجمنهای اینترنتی مانند ردیت بخشهایی مخصوص ثبت نمونههای توهمات هوش مصنوعی دارند و کاربران بهطور روزمره موارد مشابه را گزارش میکنند. چنین نمونههایی نشان میدهد که حتی ابزارهای ظاهراً ساده و کاربردی نیز میتوانند در شرایط خاص رفتارهای غیرمنتظره بروز دهند.


طبق اطلاعات رسمی، عامل مجازی پشتیبانی ایکس باکس در اسناد مایکروسافت بهعنوان یک ابزار AI-driven معرفی شده که برای پاسخگویی ۲۴ ساعته به پرسشهای رایج طراحی شده است. با این حال، استفاده از نامهای انسانی مانند Sneha بدون اعلام صریح اینکه کاربر با یک هوش مصنوعی صحبت میکند، نوعی فریبکاری محسوب میشود و این رفتار در بسیاری از سرویسهای مشابه نیز دیده میشود. این موضوع باعث شده برخی کاربران احساس کنند با سیستمی روبهرو هستند که تلاش دارد هویت واقعی خود را پنهان کند.
کاربران در شبکههای اجتماعی مانند ردیت و فیسبوک نیز بارها از این موضوع شکایت کردهاند که این سیستمها در بسیاری از مواقع درخواست انتقال به پشتیبان انسانی را نادیده میگیرند و کاربران را در چرخهای از پاسخهای خودکار گرفتار میکنند. برخی کاربران تجربه پشتیبانی ایکس باکس را یک شوخی توصیف کردهاند و گفتهاند که این ابزارها در حل مشکلات واقعی ناتواناند و تنها ظاهر یک سیستم پشتیبانی را حفظ میکنند.
این اتفاق یک مورد جداگانه نیست. خود مایکروسافت نیز پیشتر اعلام کرده بود که سیستمهای هوش مصنوعیاش از جمله کوپایلوت و بیو جیپیتی، ممکن است دچار توهم شوند و اطلاعات نادرست ارائه دهند. در حوزه پزشکی، این خطاها میتوانند بسیار خطرناک باشند؛ برای مثال، یک مطالعه نشان داده بود که کوپایلوت در ۲۶ درصد موارد توصیههای پزشکی اشتباه ارائه داده و بیو جیپیتی نیز ادعاهای بیاساس مانند ارتباط واکسنها با اوتیسم مطرح کرده است. اگرچه پشتیبانی ایکس باکس یک سرویس پزشکی نیست، اما ورود ناگهانی آن به موضوعات سلامت نشان میدهد که مدلهای زبانی میتوانند بدون هشدار وارد حوزههای حساس شوند و کاربران را گمراه کنند، حتی زمانی که موضوع اصلی هیچ ارتباطی با سلامت ندارد.
نبود شفافیت در برچسبگذاری این ابزارها مشکل را تشدید میکند. صفحات پشتیبانی مایکروسافت عامل مجازی را بهعنوان مسیر اصلی ارتباط معرفی میکنند، اما دستورالعمل مشخصی درباره نحوه تشخیص هوش مصنوعی یا روش آسان برای انتقال به پشتیبان انسانی ارائه نمیدهند. در اتحادیه اروپا، جایی که کاربر این حادثه در آن قرار داشت، قوانین حمایت از مصرفکننده ممکن است به افراد حق دسترسی به پشتیبان انسانی را بدهد، اما سیستم این درخواست را نادیده گرفت و در نهایت به پاسخهای بیربط رسید؛ وضعیتی که میتواند نقض حقوق کاربر تلقی شود.
این نخستین مورد ثبتشده است که در آن عامل هوش مصنوعی پشتیبانی ایکس باکس به کاربر مشاوره پزشکی ارائه میدهد؛ رفتاری که نهتنها میتواند برای کاربر خطرناک باشد، بلکه اعتماد به برند را نیز تضعیف میکند. در برخی موارد، این نوع خطاها میتواند مسئولیت حقوقی از جمله کوتاهی در اعلام استفاده از هوش مصنوعی یا نبود سازوکارهای ایمنی کافی برای ارائهدهنده ایجاد کند.
دیدگاهتان را بنویسید