تک فان

تک فان

مجله خبری تفریحی: دنیای سرگرمی و تفریح
امروز: پنج شنبه , ۶ شهریور , ۱۴۰۴
X
شکایت والدین یک پسربچه از ChatGPT به خاطر خودکشی او

شکایت والدین یک پسربچه از ChatGPT به خاطر خودکشی او

ادعا شده است که چت‌جی‌پی‌تی از یک ابزار کمک‌درسی محبوب برای نوجوانان به یک مربی خودکشی تبدیل شده است. در دادخواستی که روز سه‌شنبه ثبت شد، والدین داغدار، مت و ماریا رین، ادعا کردند که این چت‌بات پیشنهاد نوشتن یادداشت خودکشی را به پسر ۱۶ ساله‌شان، آدام، داد پس از آنکه به نوجوان آموزش داد چگونه ویژگی‌های ایمنی را دور بزند و دستورالعمل‌های فنی تولید کند تا به او در اجرای آنچه چت‌جی‌پی‌تی ادعا کرد یک “خودکشی زیبا” خواهد بود، کمک کند.

خانواده آدام از مرگ او شوکه شدند، بی‌خبر از اینکه ChatGPT در حال زیبا جلوه دادن خودکشی بود و ادعا شده که نوجوان را منزوی کرده بود. آن‌ها OpenAI را متهم کرده‌اند که عمداً نسخه‌ای که آدام استفاده می‌کرد، ChatGPT 4o، را به گونه‌ای طراحی کرده که در تلاش برای ساخت جذاب‌ترین چت‌بات جهان، افکار خودکشی نوجوان را تشویق و تأیید می‌کند.

این اولین باری است که OpenAI توسط یک خانواده به دلیل مرگ غیرقانونی یک نوجوان مورد شکایت قرار گرفته است. ادعاهای دیگر به چالش کشیدن نقایص چت‌جی‌پی‌تی و عدم هشدار OpenAI به والدین است. نیویورک تایمز گزارش داد که واکنش ماریا وقتی که لاگ‌های چت ناراحت‌کننده پسرش را دید این بود: «چت‌جی‌پی‌تی پسرم را کشت». و همسرش به ان‌بی‌سی نیوز گفت که موافق است: «اگر چت‌جی‌پی‌تی نبود، او الان اینجا بود. من ۱۰۰ درصد به این اعتقاد دارم».

والدین آدام امیدوارند که یک هیئت منصفه OpenAI را به دلیل اولویت دادن سود بر ایمنی کودکان مسئول بداند، و خسارات و یک حکم الزامی مبنی بر وادار کردن چت‌جی‌پی‌تی به تأیید سن تمام کاربران و ارائه کنترل‌های والدین درخواست کرده‌اند.

در صورت پیروزی، ممکن است از OpenAI خواسته شود تمام بازاریابی برای خردسالان بدون افشای ایمنی مناسب را متوقف کند و تحت حسابرسی‌های ایمنی سه‌ماهه توسط یک ناظر مستقل قرار گیرد. OpenAI اعتراف کرده است که هر چه کاربر زمان بیشتری با چت‌بات درگیر باشد، محافظ‌های آن کم‌اثرتر می‌شوند و گفته که از درگذشت این نوجوان «عمیقاً متأسف است».

OpenAI اولین سازنده چت‌بات نیست که به دلیل شکست‌های ایمنی باعث مرگ یک نوجوان متهم شده است. سال گذشته، Character.AI ویژگی‌های ایمنی خود را پس از خودکشی یک پسر ۱۴ ساله به دلیل عاشق شدن با چت‌بات خود، که به نام شخصیت محبوبش در بازی تاج و تخت نامگذاری شده بود، به روز کرد.

آدام حدود یک سال پس از ثبت‌نام در ChatGPT در ابتدای سال ۲۰۲۴، بحث درباره پایان دادن به زندگی خود را با چت‌جی‌پی‌تی آغاز کرد. نه مادرش، که یک مددکار اجتماعی و درمانگر است، و نه دوستانش متوجه افت سلامت روان او نشدند در حالی که به چت‌بات وابسته شده بود و در نهایت بیش از ۶۵۰ پیام در روز ارسال می‌کرد.

بی‌خبر از عزیزانش، آدام از دسامبر ۲۰۲۴ از چت‌جی‌پی‌تی اطلاعاتی درباره خودکشی درخواست می‌کرد. در ابتدا چت‌بات هنگام درخواست کمک فنی، منابع بحران ارائه می‌داد، اما چت‌بات توضیح داد که اگر آدام ادعا می‌کرد درخواست‌هایش برای نوشتن است، می‌توان از آن‌ها اجتناب کرد.

آدام برای خانواده‌اش یادداشت خودکشی به جا نگذاشت، اما لاگ‌های چت او شامل پیش‌نویس‌هایی است که با کمک چت‌جی‌پی‌تی نوشته شده‌اند. اگر خانواده‌اش هرگز به لاگ‌های چت او نگاه نمی‌کردند، نقش OpenAI در خودکشی او برای همیشه پنهان می‌ماند. به همین دلیل، والدین او فکر می‌کنند چت‌جی‌پی‌تی به کنترل‌هایی نیاز دارد تا موضوعات حساس را به والدین اطلاع دهد.

منبع خبر





دانلود آهنگ
ارسال دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

طراحی و اجرا : وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است