رعایت اخلاق با استفاده از هوش مصنوعی: چالشها و راهکارها
تکنولوژی های نوظهور مانند هوش مصنوعی و روبات های گفتگو، به شدت فضای کسب و کار را تغییر دادهاند. این فناوریها میتوانند به شرکتها کمک کنند تا به مشتریان خدمات بهتری ارائه دهند و هزینههای خود را کاهش دهند. با این حال، استفاده بدون اخلاق از این فناوریها میتواند منجر به تباهی شرکتها شود.
افراد، به تعاملات انسانی صادقانه علاقه دارند و استفاده از روباتهای گفتگو به جای انسان میتواند به رنجش آنها منتهی شود. استفاده از این فناوریها باید به شکلی باشد که مشتریان از آن راضی باشند.
روشن است که استفاده غیراخلاقی از این فناوریها تنها به ضرر شرکت نیست، بلکه بر وضعیت شغلی و اعتبار کارکنان نیز تاثیرگذار است. از این رو، متخصصان فناوری و رهبران سازمانی باید با اهمیت اخلاق در استفاده از این فناوریها آشنا شوند و از اصول اخلاقی پایبند باشند. همچنین، کارکنان نیز باید از نگرانیهای خود در این زمینه صحبت کنند و اگر لازم باشد، اقدامات مناسبی انجام دهند. اخلاقیات در استفاده از هوش مصنوعی، نه تنها یک توصیه بلکه یک الزام شغلی است که باید جدی گرفته شود.
در عصر دیجیتال کنونی، نوآوریهایی مانند هوش مصنوعی به شدت فضای کسب و کار را دگرگون کرده است. در هر گروه و فضایی میتوانید افراد فراوانی را مشاهده کنید که در حال صحبت درباره قابلیتهای چنین فناوریهایی هستند یا هم اکنون نیز بخش زیادی از وظایف کاری خود را با آنها انجام میدهند.
به گزارش دنیای اقتصاد، هوش مصنوعی برای کسب و کارها نیز کاربردهای فراوانی دارد. به عنوان مثال، به وسیله روباتهای گفتگو با مشتریان، میتوان به طور همزمان به نیازهای تعداد بسیار بیشتری از مشتریان رسیدگی کرد، هزینه پشتیبانی را کاهش داد و خدمات را همسانتر کرد. با این حال، در میان تمام این مزایا، تنگنایی اخلاقی نهفته است.
مشتریان شیفته تعاملات انسانی صادقانه هستند و زمانی که متوجه شوند به برخی پیامها و تماسهای آنها روباتها به جای انسان پاسخ میدهند، به سرعت دلسرد خواهند شد. ایجاد توازن بین میل به اصالت و وسوسههای فناوری و صرفههای اقتصادی آن، دشوار است و شاید برخی کسب و کارها را به سمت فریب مشتریانشان سوق دهد.
شرایط از آنجا پیچیدهتر شده است که اکنون بسیاری از ابزارهای هوش مصنوعی شباهت بیشتری به انسان پیدا کرده اند. این شرایط، وسوسه استخدام روباتها و هوش مصنوعی به جای انسان را ایجاد کرده است. البته به راحتی نمیتوان چنین تصمیمی اتخاذ کرد. به هر حال، مشتریان تعاملات انسانی را ترجیح میدهند و اگر شرکتی بخواهد در حوزههایی مانند خدمات پشتیبانی مشتریان از روباتهای گفتگو استفاده کند، این کار را باید به شکلی انجام دهد که مشتریان متوجه آن نشوند.
مشکل استفاده از روباتهای گفتگو بدون افشای آن برای مشتریان چیست؟ زمانی که مشتریان از این اقدام فریبنده مطلع شوند، چه اتفاقی برای اعتبار شرکت میافتد؟ مهمتر آنکه چه اتفاقی برای کارکنان آن شرکت میافتد؟ تاکنون چند شرکت بزرگ فناوری با پیامدهای این گونه استفاده غیراخلاقی از فناوریهای نوظهور مواجه شده اند.
برای درک بهتر، به مثال شرکت فناوریهای پزشکی ترانوس (Theranos) توجه کنید. این شرکت رسوایی بزرگی بابت کلاهبرداری و سوءرفتار تجربه کرد. در حالی که شرکت و مدیرانش درگیر اتهامات و پروندههای قضایی مختلف شدند، کارکنان آنها نیز آسیب دیدند.
بسیاری از کارکنان شرکت اعلام کردند که به سختی شرکتهای دیگر حاضر به استخدام آنها میشوند و کارفرمایان بالقوه به آنها اعتماد نمیکنند. از آنجا که شرکتها در مقابل کارکنان خود مسوولیت دارند، پیش از تصمیمگیری برای هرگونه استفاده غیرشفاف از فناوری ها، باید پیامدهای احتمالی آن بر اعتبار و آینده کارکنانشان را هم در نظر بگیرند. ما برای درک پیامدهای رفتار غیرشفاف شرکتها بر آینده شغلی کارکنانشان، چند پژوهش و مطالعه میدانی داشته ایم.
اثر دومینویی بر آینده شغلی
نخستین یافته ما، جای تعجب ندارد. مشتریان، شرکتهایی را که بدون شفافیت و اطلاع آنها از روبات و هوش مصنوعی استفاده میکنند، چندان شرکتهای اخلاق مداری نمیدانند. واضح است که اگر به بی اخلاقی در استفاده از فناوریهای جدید شهرت یابید، وجهه اجتماعی تان به شدت آسیب میبیند. مساله این است که تصور افکار عمومی از چنین شرکتی چه میشود؟ تجربه اوبر میتواند ما را برای پاسخ دادن به این پرسش راهنمایی کند. رسوایی این شرکت تاکسی اینترنتی آمریکایی در سرکوب اتهامات آزار جنسی، به شدت وجهه عمومی این شرکت را مخدوش کرد.
واکنشها چنان نسبت به همه کارکنان اوبر منفی شد که حتی کارکنان بی گناه هم از نگاه سرد جامعه مصون نماندند. در نتیجه، بسیاری از آنها تصمیم به استعفا گرفتند.
ما برای اطمینان یافتن از این فرضیه خود، پژوهشهای بسیاری انجام دادیم. در پژوهشهای خود، شبیه سازیهایی انجام دادیم و از کارکنان چند شرکت فرضی خواستیم تا به راه اندازی مخفیانه روباتهای گفتگو کمک کنند.
هضم این درخواست برای کارکنان دشوار بود و مانند آن بود که اقدامی غیراخلاقی از آنها خواسته شده است. در نتیجه این طرز فکر، بسیاری از آنها خواهان استعفا از شغل خود شدند.
بنابراین، شرکتهایی که وانمود به انسان بودن روباتهای گفت وگویشان میکنند، در چشم مشتریان و همچنین کارکنانشان، شرکتهایی غیراخلاقی به نظر میرسند. مشتریان هیچ وفاداری به آنها نخواهند داشت و کارکنان نیز میل بیشتری به استعفا نشان خواهند داد. اما این کارکنان کجا خواهند رفت؟ آیا آنها به خاطر حضور در بازار کار، آلوده شده اند؟ بله. به دلیل سرعت بالای انتشار اطلاعات در عصر جاری، هر رفتاری از شرکتها به سرعت برملا میشود و به اعتبار کارکنانشان هم آسیب میزند.
ما در تلاش برای درک بهتر این پدیده، دو پژوهش دیگر هم انجام دادیم. هدف ما بررسی این موضوع بود که کارکنان استعفا داده از چنین شرکتهایی، در چشم کارفرمای بعدی چگونه به نظر میرسند.
نتایج پژوهشها نشان داد که متقاضیان شغلی که سابقه کار در شرکتهایی با روبات گفت وگوی مخفیانه دارند، چندان قادر به جلب اعتماد تصمیمگیرندگان فرآیندهای استخدامی نیستند.
در نتیجه به ندرت شغل جدیدی در شرکتهای دیگر به آنها پیشنهاد میشود و حتی در صورت پیشنهاد شغل، حقوق کمتری به آنها تعلق میگیرد.
از اینرو، استفاده فریبکارانه از روباتهای گفتگو، پیامدهای بسیار گستردهای به جای میگذارد. چنین اقدامی نه تنها به شرکت آسیب میزند، بلکه بر سرنوشت تمام افراد شاغل در آن شرکت نیز اثر منفی میگذارد.
مسوولیت متخصصان فناوری
وضعیت روشن است. متخصصان فناوری باید طلایه داران استفاده اخلاقی از هوش مصنوعی باشند. ما نمیتوانیم اثرات اجتماعی گسترده اختراعات خود را نادیده بگیریم. اگر با شفافیت کار کنید و به اصول اخلاقی پایبند باشید، نهتنها به اعتبار و وجهه عمومی شرکتهایتان کمک خواهید کرد، بلکه جایگاه حرفهای خود را هم تحکیم خواهید کرد. یافتههای پژوهشهای ما، دو درس کاربردی مهم در خود دارند:
۱- نقش رهبران سازمانی
رهبران سازمانی باید متوجه آسیبهای ماندگار رفتارهای فریبکارانه در قبال مشتریان باشند. استفاده اخلاقی از فناوریها میتواند شهرت شرکت، روحیه کارکنان و اعتماد مشتریان را تقویت کند.
۲- نقش کارکنان
کارکنان نیز باید انفعال و بی تفاوتی را کنار بگذارند. شیوه فعالیت شرکت نه تنها مسوولیتی اخلاقی برای آنها دارد، بلکه بر سرنوشت و آینده شغلی شان اثر میگذارد. به همین دلیل توصیه میشود که کارکنان، فعالانه از نگرانیهای خود درباره استفاده غیراخلاقی فناوریها سخن بگویند.
در صورتی هم که شرکت آنها رفتارش را اصلاح نکرد، پیش از برملا شدن داستان، استعفا دهند. نگرانیها را به شیوههای مختلفی میتوان بیان کرد: در نامههای بی نام، در جلسات خصوصی با مدیر، به طور علنی در جلسات تیم یا گردهماییهای سازمانی. هرکدام از این روشها مزیتهای خاص خود را دارند و باید مدنظر قرار گیرند (هرچند شاید بهتر باشد ابتدا روشهای سادهتر و سریعتر ابراز نگرانی در نظر گرفته شوند.)
در جمع بندی مباحث این مقاله، باید گفت که به موازات افزایش کاربرد هوش مصنوعی در کسب و کارها، استفاده اخلاقی از آنها اهمیت بیشتری مییابد. بحث ما بر سر سودآوری شرکت نیست، بلکه پای آینده شغلی و اعتبار تمام افراد، به عنوان تشکیل دهندگان سازمان در میان است. اولویت دادن به اخلاقیات در استفاده از هوش مصنوعی، تنها یک توصیه کسب و کاری نیست، بلکه یک الزام شغلی است.