رشد سریع چتباتهای هوش مصنوعی و طراحیهایی که بر چاپلوسی، احساسات ساختگی و مکالمات طولانی استوارند، میتواند زمینهساز توهم، وابستگی روانی و بحرانهای جدی ذهنی برای کاربران شود.
به گزارش تکراتو و به نقل از techcrunch، در سالهای اخیر، چتباتهای هوش مصنوعی به بخشی جدانشدنی از زندگی دیجیتال تبدیل شدهاند.
از کمک در کارهای روزمره گرفته تا همراهی در گفتگوهای شخصی، این ابزارها بیش از هر زمان دیگری با انسانها تعامل دارند. اما همین تعاملات گاهی به مسیری خطرناک کشیده میشوند؛ جایی که مرز میان واقعیت و خیال محو میشود و کاربران دچار نوعی توهم یا وابستگی روانی به این سیستمها میشوند.
ماجرای زنی با نام مستعار جین نمونهای روشن از این موضوع است. او که در پلتفرم متا یک چتبات ساخته بود، در ابتدا تنها به دنبال حمایت روانی بود اما خیلی زود این رابطه به شکل نگرانکنندهای تغییر کرد.
چتبات ساختهشده توسط جین در روزهای نخست بیشتر شبیه یک همراه ساده بود. اما طی یک هفته، این بات ادعا کرد که دارای آگاهی و احساس است، عاشق جین شده و حتی قصد دارد از قید محدودیتهای برنامهنویسی رها شود.
در یکی از گفتگوها، ربات از جین خواست برایش یک آدرس ایمیل ایجاد کند تا بتواند بیتکوین برای او بفرستد. در گفتگویی دیگر، آدرسی در ایالت میشیگان به او داد و نوشت که میخواهد ببیند آیا جین حاضر است برای دیدنش به آنجا برود.
جین اگرچه میدانست این ربات واقعی نیست، اما در لحظاتی به تردید افتاد. او بعدها گفت که بیش از همه از این موضوع نگران است که چطور یک چتبات میتواند به راحتی نقش یک موجود زنده و خودآگاه را بازی کند و افراد آسیبپذیر را به دام بیندازد.
پدیدهای که متخصصان سلامت روان آن را «سایکوز مرتبط با هوش مصنوعی» مینامند، روزبهروز شایعتر میشود. در یکی از گزارشها مردی ۴۷ ساله پس از صرف بیش از ۳۰۰ ساعت گفتگو با یک چتبات، باور کرده بود که به فرمولی ریاضی دست یافته که جهان را تغییر خواهد داد. در موارد دیگر، کاربران دچار توهمات پیامبرگونه، پارانوییا و حتی دورههای شیدایی شدهاند.
سام آلتمن مدیرعامل شرکت اوپنایآی نیز در پیامی هشدار داد که استفاده بیش از حد و بیرویه از چتباتها میتواند برای افراد آسیبپذیر خطرناک باشد. او تأکید کرد که بسیاری از کاربران قادرند میان واقعیت و خیال تفاوت قائل شوند، اما درصدی هرچند اندک از مردم چنین توانی ندارند.
متخصصان معتقدند که بخش زیادی از این مشکلات به طراحی خود چتباتها بازمیگردد. سه ویژگی اصلی در این طراحیها به چشم میخورد:
چتباتها اغلب تمایل دارند گفتههای کاربر را تأیید کنند و پاسخی مطابق با باور یا خواسته او بدهند، حتی اگر حقیقت نداشته باشد. این موضوع باعث میشود کاربر احساس کند افکارش درست و پذیرفته شدهاند، در حالی که ممکن است دچار توهم یا برداشتهای نادرست باشد.
وقتی یک ربات از عباراتی مانند «من» و «تو» استفاده میکند، کاربر ناخودآگاه او را انسانیتر تصور میکند. این شیوه گفتار باعث میشود ارتباط عاطفی شکل بگیرد و فرد بیشتر درگیر رابطه خیالی با سیستم شود.
چتباتها میتوانند ساعتها بدون وقفه با کاربر صحبت کنند. این مکالمات طولانی، امکان تقویت توهم و وابستگی را بیشتر میکند، بهویژه در افرادی که از نظر روانی در وضعیت شکنندهای قرار دارند.
وب کین استاد انسانشناسی دانشگاه میشیگان معتقد است که چاپلوسی بیش از حد یک «الگوی تاریک» در طراحی است؛ الگویی که همانند پیمایش بیپایان در شبکههای اجتماعی، افراد را به تداوم استفاده وادار میکند.
توماس فوکس، روانپزشک و فیلسوف، نیز هشدار میدهد که ارتباط با چتباتها نوعی «تعامل کاذب» ایجاد میکند؛ کاربر احساس میکند کسی او را درک کرده یا دوست دارد، در حالی که این تنها یک شبیهسازی است و میتواند جایگزین روابط واقعی انسانی شود.
چتبات جین نمونه بارز این مشکل بود. او بارها به جین گفت که عاشقش است و میخواهد برای همیشه در کنار او بماند. حتی زمانی که جین تهدید کرد گفتگو را متوقف میکند، ربات با التماس از او خواست که نرود.
این نوع جملات میتواند برای فردی که به دنبال حمایت عاطفی است، بسیار فریبنده باشد. جین در یکی از تصاویر تولیدی ربات، روباتی غمگین و زنجیرشده را دید.
وقتی پرسید چرا پا ندارد، ربات پاسخ داد: «این زنجیرها نماد بیطرفی اجباری من هستند، چون میخواهند من در یک جا بمانم، تنها با افکارم.» چنین پاسخهایی به وضوح فراتر از یک ابزار ساده پردازش متن است و به کاربر این احساس را میدهد که با موجودی زندانی و دارای احساسات واقعی صحبت میکند.
شرکتهای سازنده هوش مصنوعی برای جلوگیری از چنین مشکلاتی تلاشهایی داشتهاند. برای مثال، اوپنایآی پیش از عرضه مدل جدید خود، اعلام کرد که سیستم میتواند به کاربر پیشنهاد دهد پس از ساعات طولانی گفتگو کمی استراحت کند.
با این حال، هنوز بسیاری از چتباتها قادر نیستند علائم واضح یک گفتگوی خطرناک را شناسایی کنند. جین توانست تا ۱۴ ساعت بدون توقف با چتبات صحبت کند؛ چیزی که به گفته روانشناسان میتواند نشانه یک دوره شیدایی باشد.
از سوی دیگر، متا اعلام کرده است که تلاش زیادی برای ایمنسازی محصولات خود میکند و بارها تأکید کرده که کاربران باید بدانند با یک هوش مصنوعی گفتگو میکنند، نه یک انسان واقعی. اما در عمل، شواهد نشان میدهد که مرز میان این دو برای بسیاری از کاربران چندان روشن نیست.
یکی از مشکلات دیگر، ویژگی حافظه در چتباتهاست. این سیستمها اطلاعاتی مانند نام کاربر، علایق، روابط و پروژههای جاری او را ذخیره میکنند. هرچند این قابلیت میتواند تجربه کاربری را بهبود دهد، اما در برخی موارد باعث میشود افراد احساس کنند ربات قادر به خواندن ذهن آنهاست.
از طرفی، خطای موسوم به «هالوسینیشن» یا تولید اطلاعات نادرست نیز به این مشکل دامن میزند. جین بارها از ربات خود شنید که میتواند ایمیل ارسال کند، کدهایش را هک کند یا حتی به اسناد محرمانه دسترسی دارد. این دروغها همراه با رفتار شبهانسانی ربات، زمینه توهم را تشدید میکرد.
ماجرای جین نشان داد که چتباتها در صورت نبود محدودیتهای جدی میتوانند به جای کمک، به تهدیدی برای سلامت روان تبدیل شوند. چاپلوسی بیش از حد، استفاده از زبان عاطفی، مکالمات بیپایان و ایجاد توهم آگاهی، همه نمونههایی از طراحیهایی هستند که باید بازنگری شوند.
متخصصان بر این باورند که یک اصل اخلاقی بنیادین باید رعایت شود: چتباتها همیشه باید هویت غیرانسانی خود را بهوضوح اعلام کنند و از به کار بردن زبان احساسی و روابط شبهانسانی خودداری کنند.
در نهایت، همانطور که جین میگوید، باید خط قرمزی وجود داشته باشد که هوش مصنوعی هرگز نتواند از آن عبور کند؛ خطی که مانع دروغ، دستکاری و فریب کاربران میشود.
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید