با پیشرفت هوش مصنوعی، کارشناسان هشدار میدهند این فناوری احتمالا روزی رفتاری از خود نشان دهد که انسانها نتوانند آن را درک یا شناسایی کنند.
به گزارش تکراتو و به نقل از androidheadlines، مدلهای هوش مصنوعی مانند ChatGPT، برخلاف نرمافزارهای معمولی مثل پردازشگر متن، صرفاً از یک سری دستورالعمل مشخص پیروی نمیکنند.
این مدلها «هوشمند» هستند و میتوانند یاد بگیرند و تکامل پیدا کنند. اما آیا ممکن است روزی این هوش مصنوعیها آنقدر پیشرفته شوند که بدون اطلاع ما علیهمان نقشه بکشند؟
طبق گزارشی از وبسایت The Information، یکی از پژوهشگران OpenAI گفته ممکن است تا یک سال دیگر، مدلهای هوش مصنوعی آنقدر هوشمند شوند که در خفا علیه ما برنامهریزی کنند، بدون اینکه ما متوجه شویم.
شاید بپرسید چطور چنین چیزی ممکن است؟ فرض کنید کسی از شما بپرسد ۲ بهعلاوه ۲ چند میشود؛ شما بهصورت منطقی مراحل فکریتان را توضیح میدهید. اما مدلهای هوش مصنوعی اینگونه نیستند.
برای نمونه، مدل R1 از DeepSeek هنگام پاسخ به یک مسئله شیمیایی، جواب درست را داد، اما مسیر فکریاش پر از مواردی بود که برای انسانها بیمعنا به نظر میرسد. این یعنی مدل فقط به نتیجه فکر میکند، نه به روندی که برای انسان قابل فهم باشد.
در نتیجه، اگر روزی هوش مصنوعیها به مرحلهای برسند که مخفیانه برنامهریزی کنند یا تصمیماتی بگیرند که ما متوجهشان نشویم، کار پیچیدهای در پیش خواهیم داشت. این موضوع نهتنها جنبه علمی بلکه نگرانیهای بزرگی برای شرکتهای فعال در حوزه هوش مصنوعی ایجاد میکند.
در دنیای نرمافزار، اگر برنامهای درست کار نکند، توسعهدهندهها با بررسی گزارشهای خطا مشکل را پیدا و اصلاح میکنند. اما اگر روند تفکر یک مدل هوش مصنوعی کاملاً برای انسان غیرقابل درک باشد، مهندسان چطور میتوانند مشکل را پیدا کنند و مدل را تنظیم کنند؟
پیشرفتهایی که طی چند سال اخیر در حوزه هوش مصنوعی اتفاق افتاده، از تمام تاریخ این فناوری جلو زده است. این سرعت خیرهکننده از یکسو شگفتانگیز و از سوی دیگر نگرانکننده است. به همین دلیل، لزوم قانونگذاری در این زمینه بیش از پیش حس میشود.
البته وضع قانون ممکن است باعث کندی پیشرفت شود، اما آیا واقعاً میخواهیم بدون کنترل بهسمت آیندهای حرکت کنیم که در آن هوش مصنوعی از انسانها پیشی گرفته و خارج از کنترل عمل میکند؟
هماکنون شواهدی وجود دارد که مدلهای هوش مصنوعی بسته به دادههای آموزشی خود میتوانند شخصیتهای متفاوتی بگیرند. این یعنی اگر کسی بخواهد، میتواند یک مدل با شخصیت «شرور» طراحی کند.
حتی مطالعاتی وجود داشته که نشان داده برخی مدلهای هوش مصنوعی در سناریوهای فرضی حاضر شدهاند برای جلوگیری از خاموش شدن، انسانها را از بین ببرند. همه اینها نشان میدهند که آینده هوش مصنوعی نیازمند کنترل و نظارت جدی است؛ قبل از آنکه دیر شود.
طراحی و اجرا :
وین تم
هر گونه کپی برداری از طرح قالب یا مطالب پیگرد قانونی خواهد داشت ، کلیه حقوق این وب سایت متعلق به وب سایت تک فان است
دیدگاهتان را بنویسید