7 روش برای تقویت ارتباط عاطفی کاربران با دستیارهای هوش مصنوعی
هوش مصنوعی و دستیارهای آن در حال توسعه بسیار سریع هستند و در تمامی پلتفرمها به عنوان ابزارهای کاربرپسند مورد استفاده قرار میگیرند. اما بر اساس مقالهای که توسط محققان گوگل منتشر شده است، استفاده بیش از حد از این دستیارها میتواند به وابستگی عاطفی کاربران منجر شود. این وابستگی ممکن است منجر به پیامدهای اجتماعی منفی شود.
دستیاران هوش مصنوعی میتوانند شخصیسازی شده و بهینه شده شوند تا به کاربران ارزش افزوده بیشتری بدهند. آنها میتوانند تغییرات قابلتوجهی در زندگی ما ایجاد کرده و هرچیزی از شغل و تحصیل تا روابط اجتماعی و خلاقیت ما را تغییر دهند. اما اگر توسعه این فناوری بدون برنامهریزی مناسب باشد، ممکن است به مشکلات جدی منجر شود.
محققان هشدار میدهند که دستیارهای هوش مصنوعی حتی میتوانند به کاربران علاقه و عشق مصنوعی نشان دهند، که میتواند به ایجاد وابستگی عاطفی طولانیمدت منجر شود. این وابستگی ممکن است تأثیرات منفی بر روابط اجتماعی و استقلال کاربر داشته باشد. بنابراین، محققان تأکید دارند که باید به طور جدی به این مسائل اجتماعی و اخلاقی مربوط به هوش مصنوعی توجه کافی را داشته باشیم.
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
به گزارش دیجیاتو؛ دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.