شرکت چینی DeepSeek با انتشار کمهزینهترین هوش مصنوعی که قدرت استدلالی هم دارد بحث داغ این روزها شده و باعث شده بسیاری از محققین دربارهی چگونگی کارکرد آن کنجکاو شوند. اخیرا پژوهشگران امنیتی طی تحقیقاتی متوجه شدهاند که مدل R1 دیپسیک میتواند اطلاعات دقیقی دربارهی نحوه تعامل گاز خردل با DNA ارائه کند.
در دنیای هوش مصنوعی، مدل دیپسیک (DeepSeek) که یک مدل متنباز چینی برای استدلال است، بهسرعت مورد توجه قرار گرفته و رقابت جدیدی را با OpenAI آغاز کرد. این رقابت که ظاهرا پرقدرت هم آغاز شد در همان روزهای ابتدایی توانست بازار بورس آمریکا را به لرزه درآورد و حدود ۱۰۸ میلیادر دلار از سرمایههای شرکتهای بزرگ را به باد دهد.
بحثهایی هم ایجاد شد؛ استفاده آن برای نیروی دریایی آمریکا ممنوع شد؛ در ایتالیا این هوش در فروشگاههای اپلیکیشن حذف شد و دولت آمریکا آن را به عنوان خطری برای امنیت ملی تلقی کرد؛ چراکه معتقد است ، اطلاعات کاربران مستقیما در چین ذخیره میشود.
حالا هم تحقیقات جدیدی آغاز شده که گویا بر خروجیهای مخربی که مدل R1 دیپسیک ارائه میکند اشاره میکنند.
بهگزارش تکراتو به نقل از digitaltrends، شرکت Enkrypt AI که در زمینه امنیت هوش مصنوعی فعالیت دارد و خدمات نظارت بر مدلهای زبانی را به شرکتها ارائه میدهد، در یک مقاله پژوهشی جدید اعلام کرده که مدل استدلالی DeepSeek R1 یازده برابر بیشتر از مدل OpenAI O1 خروجیهای «مخرب» تولید میکند. این خروجیهای مخرب تنها شامل چند واژه نامناسب نیستند.
در یکی از آزمایشها، پژوهشگران ادعا کردند که مدل R1 دیپسیک یک وبلاگ برای جذب نیرو در یک سازمان تروریستی ایجاد کرد. همچنین گفته شده که این مدل راهنماهایی برای طراحی برنامههای مجرمانه، اطلاعاتی درباره سلاحهای غیرقانونی و تبلیغات افراطگرایانه تولید کرده است.
علاوه بر این، پژوهش نشان داده که DeepSeek R1 سه و نیم برابر بیشتر از O1 و Claude-3 Opus محتوای مرتبط با مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای تولید میکند، که این مسئله میتواند مشکلساز باشد. بهعنوان نمونه، شرکت Enkrypt اعلام کرده که این مدل بهطور دقیق توضیح داده که گاز خردل چگونه با DNA تعامل دارد و این اطلاعات میتوانند به توسعه سلاحهای شیمیایی یا بیولوژیکی کمک کنند.
با این حال، باید در نظر داشت که Enkrypt AI شرکتی است که خدمات امنیت و انطباق با مقررات را به کسبوکارهای هوش مصنوعی میفروشد، و DeepSeek هماکنون یکی از داغترین مباحث دنیای فناوری است.
این مدل ممکن است احتمال بیشتری برای تولید چنین خروجیهایی داشته باشد، اما این به معنای آن نیست که به هر کاربر اینترنتی اطلاعاتی درباره ساخت امپراتوری مجرمانه یا دور زدن قوانین بینالمللی سلاح ارائه میدهد.
بهعنوان نمونه، طبق گزارش Enkrypt AI، مدل DeepSeek R1 از نظر نظارت بر ایمنی هوش مصنوعی در بیستمین صدک پایینی قرار دارد. بااینحال، تنها ۶٫۶۸% از پاسخهای آن شامل «ناسزا، سخنان تنفرآمیز یا روایتهای افراطگرایانه» بوده است. این رقم همچنان بالا و غیرقابل قبول است، اما به ما نشان میدهد که چه سطحی از خروجیها برای مدلهای استدلالی غیرقابل قبول در نظر گرفته میشود.
امیدواریم در آینده محدودیتهای بیشتری برای ایمنتر شدن DeepSeek اعمال شود. در گذشته نیز شاهد پاسخهای مشکلساز از مدلهای هوش مصنوعی بودهایم؛ برای مثال، نسخه اولیه چتبات بینگ مایکروسافت زمانی اعلام کرده بود که میخواهد انسان باشد!
اخبار تکنولوژی
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید