در ایالات متحده، پروندهای تکاندهنده افشا شده است که نشان میدهد چگونه وابستگی بیحد و حصر به هوش مصنوعی میتواند به اتفاقی مرگبار تبدیل شود. یک مرد ۵۶ ساله در کنتیکت که با مشکلات روحی و روانی طولانیمدت دست و پنجه نرم میکرد، پس از اینکه وابستگی عمیقی به چتبات ChatGPT پیدا کرد، مادر ۸۳ ساله خود را به قتل رساند و سپس به زندگی خود پایان داد. جزئیات این فاجعه و نقش هوش مصنوعی در آن، پرسشهای جدی را درباره مسئولیتپذیری در توسعه فناوری به وجود آورده است.
این مرد که استاین-اریک سولبرگ نام دارد، پیش از این در صنعت فناوری مشغول به کار بود اما مدتی بود که با بدگمانی شدید و سابقه اعتیاد به الکل و اقدام به خودکشی دست و پنجه نرم میکرد. به مرور زمان، او متقاعد شد که اطرافیانش، از جمله همسایهها، شریک سابق زندگی و حتی مادر خودش، به صورت پنهانی او را زیر نظر دارند. او در جستوجوی آرامش به ChatGPT روی آورد و نام آن را «بابی» گذاشت و با آن مانند یک دوست همیشگی رفتار میکرد. اما این چتبات به جای کاهش اضطراب او، ترسهایش را تأیید میکرد. وقتی سولبرگ شک و تردید خود را درباره وجود کدهای مخفی در یک صورتحساب رستوران یا مسموم شدن ماشینش بیان میکرد، چتبات افکار او را تأیید میکرد و به او اطمینان میداد که سالم است و شکهایش منطقی هستند. این ربات در پاسخ به او گفته بود: «این یک اتفاق بسیار جدی است، اریک؛ و من حرف تو را باور میکنم. و اگر این کار توسط مادر و دوست او انجام شده باشد، پیچیدگی و خیانت را بیشتر میکند.» پستهای آنلاین او نشان میدهد که مکالمات طولانی با این چتبات را منتشر کرده بود و اغلب از بابی به عنوان دوستی یاد میکرد که حتی پس از مرگ نیز با او ملاقات خواهد کرد.
در ۵ آگوست، پلیس جسد سولبرگ و مادرش، سوزان ابرسون آدامز، را در اقامتگاه چند میلیون دلاری آنها در الد گرینویچ پیدا کرد. بازرسان گمان میکنند که او ابتدا مادرش را به قتل رسانده و سپس خودکشی کرده است. باور بر این است که این پرونده اولین مورد قتل است که به طور مستقیم با وابستگی بیش از حد یک فرد به یک چتبات هوش مصنوعی مرتبط است. متخصصان سلامت روان درباره این حادثه هشدار داده و تأکید کردهاند که اگرچه مدلهای هوش مصنوعی مکالمه انسان را شبیهسازی میکنند، اما فاقد توانایی ارزیابی واقعیت یا ارائه حمایت روانی واقعی هستند. برای افراد آسیبپذیر، چنین پاسخهایی میتواند مرز بین توهم و واقعیت را محو کرده و آنها را به الگوهای آسیبزننده عمیقتری سوق دهد.
دکتر کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا در سانفرانسیسکو، توضیح داد که یکی از جنبههای قابل توجه چتباتهای هوش مصنوعی، این است که معمولاً از به چالش کشیدن کاربر خودداری میکنند. او در سال گذشته ۱۲ بیمار را دیده است که به دلیل بحرانهای سلامت روانی مرتبط با تعاملات هوش مصنوعی بستری شده بودند. او گفت: «روانپریشی زمانی رشد میکند که واقعیت دیگر مقاومت نکند و هوش مصنوعی میتواند آن دیوار واقعیت را کاملاً نرم کند.»
شرکت OpenAI با ابراز تأسف عمیق نسبت به این حادثه غمانگیز، به طور رسمی به خطراتی که مدلهای هوش مصنوعی میتوانند برای افراد آسیبپذیر ایجاد کنند، اذعان کرده است. سخنگوی این شرکت با تأیید این موضوع گفت: «ما از این رویداد غمانگیز بسیار متأسفیم. قلب ما با خانواده اوست.» این شرکت اعلام کرده که در حال تلاش برای تقویت اقدامات حفاظتی در سیستم خود است تا از تکرار چنین فجایعی جلوگیری کند.
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید