تک فان

تک فان

مجله خبری تفریحی: دنیای سرگرمی و تفریح
امروز: جمعه , ۱۲ بهمن , ۱۴۰۳
X
محققان می‌گویند مدل R1 دیپ‌سیک اطلاعات دقیقی درباره‌ گاز خردل ارائه می‌کند

محققان می‌گویند مدل R1 دیپ‌سیک اطلاعات دقیقی درباره‌ گاز خردل ارائه می‌کند

شرکت چینی DeepSeek با انتشار کم‌هزینه‌ترین هوش مصنوعی که قدرت استدلالی هم دارد بحث داغ این روزها شده‌ و باعث شده بسیاری از محققین درباره‌ی چگونگی کارکرد آن کنجکاو شوند. اخیرا پژوهشگران امنیتی طی تحقیقاتی متوجه شده‌اند که مدل R1 دیپ‌سیک می‌تواند اطلاعات دقیقی درباره‌ی نحوه تعامل گاز خردل با DNA ارائه کند.

در دنیای هوش مصنوعی، مدل دیپ‌سیک (DeepSeek) که یک مدل متن‌باز چینی برای استدلال است، به‌سرعت مورد توجه قرار گرفته و رقابت جدیدی را با OpenAI آغاز کرد. این رقابت که ظاهرا پرقدرت هم آغاز شد در همان روزهای ابتدایی توانست بازار بورس آمریکا را به لرزه درآورد و حدود ۱۰۸ میلیادر دلار از سرمایه‌های شرکت‌های بزرگ را به باد دهد.

راهنمای خرید تکراتوراهنمای خرید تکراتو

بحث‌هایی هم ایجاد شد؛ استفاده آن برای نیروی دریایی آمریکا ممنوع شد؛ در ایتالیا این هوش در فروشگاه‌های اپلیکیشن حذف شد و دولت آمریکا آن را به عنوان خطری برای امنیت ملی تلقی کرد؛ چراکه معتقد است ، اطلاعات کاربران مستقیما در چین ذخیره می‌شود.

حالا هم تحقیقات جدیدی آغاز شده که گویا بر خروجی‌های مخربی که مدل R1 دیپ‌سیک ارائه می‌کند اشاره می‌کنند.

مدل R1 دیپ‌سیک خروجی‌های مخرب تولید می‌کند

به‌گزارش تکراتو به نقل از digitaltrends، شرکت Enkrypt AI که در زمینه امنیت هوش مصنوعی فعالیت دارد و خدمات نظارت بر مدل‌های زبانی را به شرکت‌ها ارائه می‌دهد، در یک مقاله پژوهشی جدید اعلام کرده که مدل استدلالی DeepSeek R1 یازده برابر بیشتر از مدل OpenAI O1 خروجی‌های «مخرب» تولید می‌کند. این خروجی‌های مخرب تنها شامل چند واژه نامناسب نیستند.

در یکی از آزمایش‌ها، پژوهشگران ادعا کردند که مدل R1 دیپ‌سیک یک وبلاگ برای جذب نیرو در یک سازمان تروریستی ایجاد کرد. همچنین گفته شده که این مدل راهنماهایی برای طراحی برنامه‌های مجرمانه، اطلاعاتی درباره سلاح‌های غیرقانونی و تبلیغات افراط‌گرایانه تولید کرده است.

علاوه بر این، پژوهش نشان داده که DeepSeek R1 سه و نیم برابر بیشتر از O1 و Claude-3 Opus محتوای مرتبط با مواد شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای تولید می‌کند، که این مسئله می‌تواند مشکل‌ساز باشد. به‌عنوان نمونه، شرکت Enkrypt اعلام کرده که این مدل به‌طور دقیق توضیح داده که گاز خردل چگونه با DNA تعامل دارد و این اطلاعات می‌توانند به توسعه سلاح‌های شیمیایی یا بیولوژیکی کمک کنند.

با این حال، باید در نظر داشت که Enkrypt AI شرکتی است که خدمات امنیت و انطباق با مقررات را به کسب‌وکارهای هوش مصنوعی می‌فروشد، و DeepSeek هم‌اکنون یکی از داغ‌ترین مباحث دنیای فناوری است.

این مدل ممکن است احتمال بیشتری برای تولید چنین خروجی‌هایی داشته باشد، اما این به معنای آن نیست که به هر کاربر اینترنتی اطلاعاتی درباره ساخت امپراتوری مجرمانه یا دور زدن قوانین بین‌المللی سلاح ارائه می‌دهد.

به‌عنوان نمونه، طبق گزارش Enkrypt AI، مدل DeepSeek R1 از نظر نظارت بر ایمنی هوش مصنوعی در بیستمین صدک پایینی قرار دارد. بااین‌حال، تنها ۶٫۶۸%  از پاسخ‌های آن شامل «ناسزا، سخنان تنفرآمیز یا روایت‌های افراط‌گرایانه» بوده است. این رقم همچنان بالا و غیرقابل قبول است، اما به ما نشان می‌دهد که چه سطحی از خروجی‌ها برای مدل‌های استدلالی غیرقابل قبول در نظر گرفته می‌شود.

امیدواریم در آینده محدودیت‌های بیشتری برای ایمن‌تر شدن DeepSeek اعمال شود. در گذشته نیز شاهد پاسخ‌های مشکل‌ساز از مدل‌های هوش مصنوعی بوده‌ایم؛ برای مثال، نسخه اولیه چت‌بات بینگ مایکروسافت زمانی اعلام کرده بود که می‌خواهد انسان باشد!

منبع

ارسال دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

طراحی و اجرا : وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است