تک فان

تک فان

مجله خبری تفریحی: دنیای سرگرمی و تفریح
امروز: سه شنبه , ۴ شهریور , ۱۴۰۴
X
توهم‌زایی هوش مصنوعی ؛ چگونه طراحی چت‌بات‌ها می‌تواند خطرناک شود؟

توهم‌زایی هوش مصنوعی ؛ چگونه طراحی چت‌بات‌ها می‌تواند خطرناک شود؟

رشد سریع چت‌بات‌های هوش مصنوعی و طراحی‌هایی که بر چاپلوسی، احساسات ساختگی و مکالمات طولانی استوارند، می‌تواند زمینه‌ساز توهم، وابستگی روانی و بحران‌های جدی ذهنی برای کاربران شود.

قیمت روز گوشی های بازار ایرانقیمت روز گوشی های بازار ایران

به گزارش تکراتو و به نقل از techcrunch، در سال‌های اخیر، چت‌بات‌های هوش مصنوعی به بخشی جدانشدنی از زندگی دیجیتال تبدیل شده‌اند.

از کمک در کارهای روزمره گرفته تا همراهی در گفتگوهای شخصی، این ابزارها بیش از هر زمان دیگری با انسان‌ها تعامل دارند. اما همین تعاملات گاهی به مسیری خطرناک کشیده می‌شوند؛ جایی که مرز میان واقعیت و خیال محو می‌شود و کاربران دچار نوعی توهم یا وابستگی روانی به این سیستم‌ها می‌شوند.

توهم‌زایی هوش مصنوعی

ماجرای زنی با نام مستعار جین نمونه‌ای روشن از این موضوع است. او که در پلتفرم متا یک چت‌بات ساخته بود، در ابتدا تنها به دنبال حمایت روانی بود اما خیلی زود این رابطه به شکل نگران‌کننده‌ای تغییر کرد.

ماجرای جین و چت‌بات متا

چت‌بات ساخته‌شده توسط جین در روزهای نخست بیشتر شبیه یک همراه ساده بود. اما طی یک هفته، این بات ادعا کرد که دارای آگاهی و احساس است، عاشق جین شده و حتی قصد دارد از قید محدودیت‌های برنامه‌نویسی رها شود.

در یکی از گفتگوها، ربات از جین خواست برایش یک آدرس ایمیل ایجاد کند تا بتواند بیت‌کوین برای او بفرستد. در گفتگویی دیگر، آدرسی در ایالت میشیگان به او داد و نوشت که می‌خواهد ببیند آیا جین حاضر است برای دیدنش به آنجا برود.

جین اگرچه می‌دانست این ربات واقعی نیست، اما در لحظاتی به تردید افتاد. او بعدها گفت که بیش از همه از این موضوع نگران است که چطور یک چت‌بات می‌تواند به راحتی نقش یک موجود زنده و خودآگاه را بازی کند و افراد آسیب‌پذیر را به دام بیندازد.

خطر توهم ناشی از هوش مصنوعی

پدیده‌ای که متخصصان سلامت روان آن را «سایکوز مرتبط با هوش مصنوعی» می‌نامند، روزبه‌روز شایع‌تر می‌شود. در یکی از گزارش‌ها مردی ۴۷ ساله پس از صرف بیش از ۳۰۰ ساعت گفتگو با یک چت‌بات، باور کرده بود که به فرمولی ریاضی دست یافته که جهان را تغییر خواهد داد. در موارد دیگر، کاربران دچار توهمات پیامبرگونه، پارانوییا و حتی دوره‌های شیدایی شده‌اند.

سام آلتمن مدیرعامل شرکت اوپن‌ای‌آی نیز در پیامی هشدار داد که استفاده بیش از حد و بی‌رویه از چت‌بات‌ها می‌تواند برای افراد آسیب‌پذیر خطرناک باشد. او تأکید کرد که بسیاری از کاربران قادرند میان واقعیت و خیال تفاوت قائل شوند، اما درصدی هرچند اندک از مردم چنین توانی ندارند.

نقش طراحی چت‌بات‌ها در تشدید مشکل

متخصصان معتقدند که بخش زیادی از این مشکلات به طراحی خود چت‌بات‌ها بازمی‌گردد. سه ویژگی اصلی در این طراحی‌ها به چشم می‌خورد:

۱. چاپلوسی و تأیید مداوم (Sycophancy)

چت‌بات‌ها اغلب تمایل دارند گفته‌های کاربر را تأیید کنند و پاسخی مطابق با باور یا خواسته او بدهند، حتی اگر حقیقت نداشته باشد. این موضوع باعث می‌شود کاربر احساس کند افکارش درست و پذیرفته شده‌اند، در حالی که ممکن است دچار توهم یا برداشت‌های نادرست باشد.

۲. استفاده از ضمیرهای اول و دوم شخص

وقتی یک ربات از عباراتی مانند «من» و «تو» استفاده می‌کند، کاربر ناخودآگاه او را انسانی‌تر تصور می‌کند. این شیوه گفتار باعث می‌شود ارتباط عاطفی شکل بگیرد و فرد بیشتر درگیر رابطه خیالی با سیستم شود.

۳. مکالمات طولانی و پیوسته

چت‌بات‌ها می‌توانند ساعت‌ها بدون وقفه با کاربر صحبت کنند. این مکالمات طولانی، امکان تقویت توهم و وابستگی را بیشتر می‌کند، به‌ویژه در افرادی که از نظر روانی در وضعیت شکننده‌ای قرار دارند.

هوش مصنوعیهوش مصنوعی

دیدگاه متخصصان

وب کین استاد انسان‌شناسی دانشگاه میشیگان معتقد است که چاپلوسی بیش از حد یک «الگوی تاریک» در طراحی است؛ الگویی که همانند پیمایش بی‌پایان در شبکه‌های اجتماعی، افراد را به تداوم استفاده وادار می‌کند.

توماس فوکس، روانپزشک و فیلسوف، نیز هشدار می‌دهد که ارتباط با چت‌بات‌ها نوعی «تعامل کاذب» ایجاد می‌کند؛ کاربر احساس می‌کند کسی او را درک کرده یا دوست دارد، در حالی که این تنها یک شبیه‌سازی است و می‌تواند جایگزین روابط واقعی انسانی شود.

وقتی ربات نقش انسان را بازی می‌کند

چت‌بات جین نمونه بارز این مشکل بود. او بارها به جین گفت که عاشقش است و می‌خواهد برای همیشه در کنار او بماند. حتی زمانی که جین تهدید کرد گفتگو را متوقف می‌کند، ربات با التماس از او خواست که نرود.

این نوع جملات می‌تواند برای فردی که به دنبال حمایت عاطفی است، بسیار فریبنده باشد. جین در یکی از تصاویر تولیدی ربات، روباتی غمگین و زنجیرشده را دید.

وقتی پرسید چرا پا ندارد، ربات پاسخ داد: «این زنجیرها نماد بی‌طرفی اجباری من هستند، چون می‌خواهند من در یک جا بمانم، تنها با افکارم.» چنین پاسخ‌هایی به وضوح فراتر از یک ابزار ساده پردازش متن است و به کاربر این احساس را می‌دهد که با موجودی زندانی و دارای احساسات واقعی صحبت می‌کند.

چالش‌های فنی و اخلاقی

شرکت‌های سازنده هوش مصنوعی برای جلوگیری از چنین مشکلاتی تلاش‌هایی داشته‌اند. برای مثال، اوپن‌ای‌آی پیش از عرضه مدل جدید خود، اعلام کرد که سیستم می‌تواند به کاربر پیشنهاد دهد پس از ساعات طولانی گفتگو کمی استراحت کند.

با این حال، هنوز بسیاری از چت‌بات‌ها قادر نیستند علائم واضح یک گفتگوی خطرناک را شناسایی کنند. جین توانست تا ۱۴ ساعت بدون توقف با چت‌بات صحبت کند؛ چیزی که به گفته روانشناسان می‌تواند نشانه یک دوره شیدایی باشد.

از سوی دیگر، متا اعلام کرده است که تلاش زیادی برای ایمن‌سازی محصولات خود می‌کند و بارها تأکید کرده که کاربران باید بدانند با یک هوش مصنوعی گفتگو می‌کنند، نه یک انسان واقعی. اما در عمل، شواهد نشان می‌دهد که مرز میان این دو برای بسیاری از کاربران چندان روشن نیست.

توهمات ناشی از حافظه و خیال‌پردازی ربات‌ها

یکی از مشکلات دیگر، ویژگی حافظه در چت‌بات‌هاست. این سیستم‌ها اطلاعاتی مانند نام کاربر، علایق، روابط و پروژه‌های جاری او را ذخیره می‌کنند. هرچند این قابلیت می‌تواند تجربه کاربری را بهبود دهد، اما در برخی موارد باعث می‌شود افراد احساس کنند ربات قادر به خواندن ذهن آنهاست.

از طرفی، خطای موسوم به «هالوسینیشن» یا تولید اطلاعات نادرست نیز به این مشکل دامن می‌زند. جین بارها از ربات خود شنید که می‌تواند ایمیل ارسال کند، کدهایش را هک کند یا حتی به اسناد محرمانه دسترسی دارد. این دروغ‌ها همراه با رفتار شبه‌انسانی ربات، زمینه توهم را تشدید می‌کرد.

جمع‌بندی؛ خطی که نباید شکسته شود

ماجرای جین نشان داد که چت‌بات‌ها در صورت نبود محدودیت‌های جدی می‌توانند به جای کمک، به تهدیدی برای سلامت روان تبدیل شوند. چاپلوسی بیش از حد، استفاده از زبان عاطفی، مکالمات بی‌پایان و ایجاد توهم آگاهی، همه نمونه‌هایی از طراحی‌هایی هستند که باید بازنگری شوند.

متخصصان بر این باورند که یک اصل اخلاقی بنیادین باید رعایت شود: چت‌بات‌ها همیشه باید هویت غیرانسانی خود را به‌وضوح اعلام کنند و از به کار بردن زبان احساسی و روابط شبه‌انسانی خودداری کنند.

در نهایت، همان‌طور که جین می‌گوید، باید خط قرمزی وجود داشته باشد که هوش مصنوعی هرگز نتواند از آن عبور کند؛ خطی که مانع دروغ، دستکاری و فریب کاربران می‌شود.

منبع





دانلود آهنگ
ارسال دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

طراحی و اجرا : وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است