تک فان -مجله خبری و سرگرمی‌

چرا هوش مصنوعی در «غار افلاطون» به زندانیت محکوم شده است؟

هوش مصنوعی، همچنان در یک مرحله‌ی آغوش آغازین است و نیاز به توسعه و بهبود بیشتر دارد. برای این حرکت به سمت یک هوش مصنوعی کامل‌تر و مستقل، لازم است که به مدل‌های جدید از آموزش و پیشرفت‌های فناوری مسلط شویم. به علاوه، لازم است که از اخلاقیات و اهداف انسان‌مداری در توسعه هوش مصنوعی دقت کنیم تا باعث فرصت‌های بهتری برای انسان‌ها شود. اجازه بدهید که این ابزار قدرتمند به یک بخش کمکی و مفید از زندگی ما تبدیل شود و به ما کمک کند تا از درک عمقی و جامعتری از جهان برخوردار شویم. اما همواره باید در نظر داشته باشیم که هر چه هوش مصنوعی توانمندتر شود، مسئولیت‌های اخلاقی و انسانی بیشتری نیز بر عهده آن قرار می‌گیرد و باید از تعامل و همزیستی سالم و هوشمندانه با انسان‌ها تضمین شود. امیدواریم که با پیوستن به این زمینه و به کمک هوش مصنوعی، به یک دنیای بهتر و پیشرفته‌تر برای همگان برسیم.

 
دا
اولین بار افلاطون بود که این ایده را مطرح کرد. او در تمثیل معروف «غار»، زندانیانی را ترسیم کرد که داخل غاری به زنجیر بسته شده‌اند و رویشان به یک دیوار است در حالیکه آتشی نیز پشت سرشان شعله ور است. زندانیان فقط می‌توانستند هر چیزی را از طریق سایه‌هایی که در مقابلشان روی دیوار می‌افتاد درک کنند؛ آن‌ها خود چیز‌ها را نمی‌دیدند و هر چیزی را که از روبه‌روی آتش رد میشد فقط از طریق سایه‌اش روی دیوار می‌شناختند. به نظر می‌رسد این تمثیل همچنان در دوران ما کاربرد دارد و می‌تواند محدودیت‌های درک و فهم ما را توضیح بدهد.
به گزارش فرادید؛ در یک زمینه امروزی، می‌توانیم محدودیت‌های مدل‌های هوش مصنوعی را مشابه محدودیت‌های زندانیان افلاطون تجسم کنیم. هوش مصنوعی با خود جهان و چیز‌های موجود در آن ارتباطی ندارد بلکه فقط به داده‌هایی که ما به آن می‌دهیم نگاه می‌کند. سعی می‌کند این سایه‌ها را معنا کند و همزمان احتمالات، ارتباطات، الگو‌ها یا روند‌ها را ارزیابی می‌کند تا بهترین پیش بینی‌های موجود را انجام دهد. اساساً هوش مصنوعی در درون غار داده‌های خودش زندانی است.
ده ها، در هسته خود، تفسیری از جهان ما و بخش‌های مختلف آن هستند. آن‌ها صرفا یک ارائۀ گزینشی از مشاهدات، اندازه گیری‌ها و اطلاعات در مورد پدیده‌های مختلف هستند. از آنجایی که خود داده‌ها نامحدود هستند، فرآیند انتخاب داده محدود و در نتیجه ذاتاً سلیقه‌ای و شخصی می‌شود.
مدل‌های هوش مصنوعی که ما بر مبنای این داده‌ها می‌سازیم مبتنی بر ساده‌سازی هستند تا از نظر اقتصادی مقرون‌به‌صرفه‌تر و در عین حال همچنان برای ما معنادار باشند. در نتیجه، هیچ مدل هوش مصنوعی نمی‌تواند بازتابی کامل و جامع از دنیای واقعی باشد، بلکه تنها نسخه‌ای ساده و جزئی از آن خواهد بود.داده‌هایی که برای آموزش مدل‌ها به آن‌ها نیاز داریم نیز می‌توانند ناقص، تحریف‌شده یا مغرضانه باشند. وقتی این اتفاق می‌افتد، مدل‌ها چیزی را تولید می‌کنند که انسان‌ها آن را بی‌معنا تفسیر می‌کنند. خود مدل‌ها نمی‌توانند اشتباهات خود را از چشم انسان‌ها ببینند، زیرا آن‌ها فقط آنچه را که به آن‌ها داده می‌شود می‌بینند. همانطور که سایه‌های افلاطون دید زندانیان را محدود می‌کرد، ما جهان را برای مدل‌های هوش مصنوعی خود محدود می‌کنیم.
به همین خاطر است که مدل‌های هوش مصنوعی اشتباهاتی از این قبیل انجام می‌دهند: پیش‌بینی اتوبوسی که با دو سال تاخیر می‌رسد، تشخیص کیف پولی که در واقع یک آجر است یا ایجاد تصویر گربه‌ای با پنج پا! در جهان مدل‌ها، همۀ این‌ها نتایج معتبری هستند. اما در دنیای ما، این‌ها پیش‌بینی‌های بد، تشخیص‌های نادرست یا توهم هستند.
اما اگر زمانی مدل‌های هوش مصنوعی این امکان را پیدا کنند که فارغ از مشاهدات، تفسیر‌ها و محدودیت‌های ما، خودشان بتوانند خودشان را دربارۀ جهان آموزش بدهند، در آن صورت ممکن است استراتژی‌ها و دیدگاه‌های منحصربه‌فرد خود را از جهان بسازند.
در یکی از بازی‌هایی که یک مدل شطرنج باز به اسم «آلفاگو» در برابر یک قهرمان انسانی به اسم لی سدول انجام می‌داد، آلفاگو حرکتی را انجام داد که کارشناسان در ابتدا آن را «احمقانه» خواندند، اما در نهایت، این حرکت «احمقانه» در پیروزی AlphaGo بسیار مهم بود. چنین موردی نشان می‌دهد که مدل‌های هوش مصنوعی خودآموز می‌توانند راه حل‌ها و پدیده‌هایی را ببینند که انسان‌ها نمی‌بینند.
افلاطون در تمثیل غار می‌گوید وظیفۀ فیلسوف این است که با خروج از غار و در نظر گرفتن ایده‌ها، کلیات، الگو‌ها و مفاهیم مختلف درباره جهان بیشتر بیاموزد. با صعود از سایه‌ها به کلیات و انتزاعات، ما شروع به درک جهان می‌کنیم و از درک فقط قلمرو مرئی به مفهوم سازی در قلمرو فکری و هوش و عقل حرکت می‌کنیم.
اما برای اینکه هوش مصنوعی فعلی غار را ترک کند و هوشمندی خود را توسعه دهد به زمان و منابع نیاز دارد. در این میان، باید به یاد داشته باشیم که سیستم‌های هوش مصنوعی ما عمدتاً مدل‌های تخصصی هستند که ما آموزش می‌دهیم و تغذیه می‌کنیم.
این مدل‌ها در درک خود محدود هستند. ما در مرحله‌ای هستیم که هوش مصنوعی می‌تواند الگو‌ها و پیش بینی‌ها را تشخیص دهد، اما نمی‌تواند افکار شناختی یا انتزاعی را تولید کند. همچنین نیازی نیست که افلاطون باشیم تا به یاد داشته باشیم که هر چقدر هم که نتایج هوش مصنوعی متقاعد کننده باشد، باید تفکر انتقادی خودمان را حفظ کنیم و همیشه در نظر داشته باشیم که هوش مصنوعی همچنان در غار گیر افتاده است.

برچسب ها

مطالب مشابه را ببینید!