هوش مصنوعی و اموات: گفتگوی ترسناک با روحهای الکترونیکی
در مطلب فوق دو جامعهشناس به نامهای Tomasz Hollanek و Katarzyna Nowaczyk-Basińska نگرانی خود را از زندگی پس از مرگ دیجیتال بیان کردهاند. آنها به این باور هستند که رباتها چهتبتهایی که افراد متوفی را تقلید میکنند، مسائل اجتماعی و اخلاقی ناشی از این موضوع را برجسته میکنند. این موضوعات در یک مقاله تحقیقاتی اخیر مورد بررسی قرار گرفته و به شکل نادیده گرفتن آن توصیه نمیشود.
رباتهایی که تصویر یا اطلاعات افراد متوفی را تقلید میکنند، ممکن است پیوندهای عاطفی قوی را برای بازماندگان بوجود آورند. با این حال، باید توجه داشت که این افراد آسیب پذیرتر هم میشوند. بنابراین، متخصصان معتقدند که استفاده از چنین رباتهایی باید به شکل مناسب و آبرومندانه انجام شود.
از سوی دیگر، همچنین وجود دارد که این رباتها به عنوان کمکهای پزشکی نیز به کار گرفته شوند. اما برای جلوگیری از محدودیتهای زیاد از جمله اینکه رباتها فقط برای پردازش غم و اندوه طراحی نشوند، باید از توضیح و شفاف سازی مناسب استفاده شود.
با این وجود، برای جلوگیری از سوء استفاده از این رباتها، ایجاد نرده محافظ مناسب ضروری است. از این رو، تحقیقات اخلاقی در زمینه هوش مصنوعی انسانی و تعاملات دیجیتالی نقش مهمی در جلوگیری از آسیبهای احتمالی این فناوریها ایفا میکند.
دو جامعهشناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کردهاند. آنها بر این باورند که چتباتهایی که از افراد متوفی تقلید میکنند و گاهی اوقات رباتهای مرده، رباتهایغمانگیز یا روحربات نامیده میشوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح میکنند.
به گزارش خبرآنلاین، مثلاً چه کسی پس ازمرگ صاحب دادههای یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روحربات برای چه کاری میتوان استفاده کرد؟ و چه کسی میتواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمیرسد چنین آیندهای داشته باشیم.
با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر میرسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم میگیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمیدهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ میدهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوهاش حرف میزند، شروع به فروش وسایل خود میکند.
به گفته کارشناسان، افراد ممکن است با چنین شبیهسازیهایی پیوندهای عاطفی قوی ایجاد کنند، اما آنها باید توجه داشته باشند که در عین حال آسیبپذیرتر میشوند؛ بنابراین به نظر میرسد حتی تشریفات در روحربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاقشناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفهای شورای بینالمللی موزهها مطابقت دارد، که الزام میکند با بقایای انسانها با احترام و کرامت انسانی رفتار شود.
با این حال این دو اخلاقشناس بر این باورند که نمیتوان این رباتها را ممنوع کرد، اما میتوان کاری کرد که با دادههای افراد محترمانه رفتار کنند. همچنین نباید در فضاهایی عمومی استفاده شوند و فقط باید برای شخصیتهای مهم تاریخی باشد.
در سال ۲۰۲۲، فردی استدلال کرد که روحرباتها را میتوان به عنوان کمکهای پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست میدهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد میتواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال میکنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به رباتهایی اشاره میکند که فقط برای پردازش غم و اندوه طراحی شدهاند.
در عوض، آنها معتقدند، این سیستمها باید به طور معناداری شفافسازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات میدهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این رباتها وجو دارد. همچنین باید بدانیم که روحربات چگونه غیر فعال میشود. به عنوان مثال، اگر فردی روحربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روحربات برای هنمیشه در زنگی فرد وجود داشته باشد؟
بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.