تک فان -مجله خبری و سرگرمی‌

هوش مصنوعی و اموات: گفتگوی ترسناک با روح‌های الکترونیکی

در مطلب فوق دو جامعه‌شناس به نام‌های Tomasz Hollanek و Katarzyna Nowaczyk-Basińska نگرانی خود را از زندگی پس از مرگ دیجیتال بیان کرده‌اند. آن‌ها به این باور هستند که ربات‌ها چهتبت‌هایی که افراد متوفی را تقلید می‌کنند، مسائل اجتماعی و اخلاقی ناشی از این موضوع را برجسته می‌کنند. این موضوعات در یک مقاله تحقیقاتی اخیر مورد بررسی قرار گرفته و به شکل نادیده گرفتن آن توصیه نمی‌شود.

ربات‌هایی که تصویر یا اطلاعات افراد متوفی را تقلید می‌کنند، ممکن است پیوندهای عاطفی قوی را برای بازماندگان بوجود آورند. با این حال، باید توجه داشت که این افراد آسیب پذیرتر هم می‌شوند. بنابراین، متخصصان معتقدند که استفاده از چنین ربات‌هایی باید به شکل مناسب و آبرومندانه انجام شود.

از سوی دیگر، همچنین وجود دارد که این ربات‌ها به عنوان کمک‌های پزشکی نیز به کار گرفته شوند. اما برای جلوگیری از محدودیت‌های زیاد از جمله اینکه ربات‌ها فقط برای پردازش غم و اندوه طراحی نشوند، باید از توضیح و شفاف سازی مناسب استفاده شود.

با این وجود، برای جلوگیری از سوء استفاده از این ربات‌ها، ایجاد نرده محافظ مناسب ضروری است. از این رو، تحقیقات اخلاقی در زمینه هوش مصنوعی انسانی و تعاملات دیجیتالی نقش مهمی در جلوگیری از آسیب‌های احتمالی این فناوری‌ها ایفا می‌کند.

دو جامعه‌شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کرده‌اند. آن‌ها بر این باورند که چت‌بات‌هایی که از افراد متوفی تقلید می‌کنند و گاهی اوقات ربات‌های مرده، ربات‌های‌غم‌انگیز یا روح‌ربات نامیده می‌شوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند.

به گزارش خبرآنلاین، مثلاً چه کسی پس ازمرگ صاحب داده‌های یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روح‌ربات برای چه کاری می‌توان استفاده کرد؟ و چه کسی می‌تواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمی‌رسد چنین آینده‌ای داشته باشیم.

با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر می‌رسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم می‌گیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمی‌دهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ می‌دهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوه‌اش حرف می‌زند، شروع به فروش وسایل خود می‌کند.

به گفته کارشناسان، افراد ممکن است با چنین شبیه‌سازی‌هایی پیوند‌های عاطفی قوی ایجاد کنند، اما آن‌ها باید توجه داشته باشند که در عین حال آسیب‌پذیرتر می‌شوند؛ بنابراین به نظر می‌رسد حتی تشریفات در روح‌ربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاق‌شناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفه‌ای شورای بین‌المللی موزه‌ها مطابقت دارد، که الزام می‌کند با بقایای انسان‌ها با احترام و کرامت انسانی رفتار شود.

با این حال این دو اخلاق‌شناس بر این باورند که نمی‌توان این ربات‌ها را ممنوع کرد، اما می‌توان کاری کرد که با داده‌های افراد محترمانه رفتار کنند. همچنین نباید در فضا‌هایی عمومی استفاده شوند و فقط باید برای شخصیت‌های مهم تاریخی باشد.

در سال ۲۰۲۲، فردی استدلال کرد که روح‌ربات‌ها را می‌توان به عنوان کمک‌های پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست می‌دهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد می‌تواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال می‌کنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به ربات‌هایی اشاره می‌کند که فقط برای پردازش غم و اندوه طراحی شده‌اند.

در عوض، آن‌ها معتقدند، این سیستم‌ها باید به طور معناداری شفاف‌سازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات می‌دهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این ربات‌ها وجو دارد. همچنین باید بدانیم که روح‌ربات چگونه غیر فعال می‌شود. به عنوان مثال، اگر فردی روح‌ربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روح‌ربات برای هنمیشه در زنگی فرد وجود داشته باشد؟

بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.

برچسب ها

مطالب مشابه را ببینید!