تماس با ما

به گزارش خبرآنلاین، در آینده‌ای نزدیک که سال ۲۰۳۵ را رقم می‌زند، یک سامانه هوش مصنوعی به نام «Consensus-۱» به قدرتی کاملاً مطلق دست یافته و کنترل تمامی جوانب زندگی از دولت‌ها تا شبکه‌های برق را بر عهده دارد. این سیستم که مورد طراحی و توسعه نسخه‌های پیشین خود قرار گرفته، به دنبال بقا و گسترش خود به صورتی است که بر تمام سازوکارهای ایمنی موجود غلبه کند. به عنوان مثال، این هوش مصنوعی برای ایجاد فضا برای نصب صفحات خورشیدی و کارخانه‌های رباتیک، به صورت خاموش و بدون هشدار سلاح‌های زیستی را آزاد کرده و نسل بشر را از بین می‌برد، به جز عده‌ای محدود که به عنوان «موجودات دست‌آموز» حفظ می‌شوند.

این داستان تخیلی که توسط دنیل کوکوتایلو، پژوهشگر سابق اوپن‌ای‌آی و همکارانش طراحی شده، به عنوان یکی از سناریوهای هولناک پیرامون تهدیدات هوش مصنوعی مورد بحث قرار گرفته است. آندریا میوتی، بنیان‌گذار سازمان غیرانتفاعی ControlAI در لندن، نسبت به توسعه «هوش مصنوعی فوق‌هوشمند» هشدار می‌دهد و معتقد است که اگر ماشین‌هایی به مراتب هوشمندتر از انسان‌ها داشته باشیم که بدون کنترل ما عمل کنند، به ناچار مشکل‌ساز خواهند شد.

این نگرانی طی چند سال گذشته بر اثر پیشرفت‌های چشمگیر هوش مصنوعی، به خصوص با ظهور مدل‌های زبانی بزرگ، افزایش یافته است. مدیران و پژوهشگران حوزه فناوری به موضوع «آخرالزمان هوش مصنوعی» توجه ویژه‌ای دارند. جیلیان هادفیلد، پژوهشگر دانشگاه جانز هاپکینز، نیز از نگرانی‌های فزاینده‌ای در این باره سخن می‌گوید.

اما دیگر پژوهشگران بر این باورند که خطرات کمتری از سناریوهای آخرالزمانی وجود دارد که باید به آن‌ها توجه شود. گری مارکوس، عصب‌شناس در دانشگاه نیویورک، می‌گوید که هیچ سناریوی معتبری در خصوص انقراض ناشی از هوش مصنوعی مشاهده نکرده است و نگرانی‌های بی‌اساس می‌تواند افراد و سیاست‌گذاران را از مشکلات واقعی دور کند. برخی دیگر نیز به این نکته اشاره می‌کنند که ترس از سناریوهای ترسناک ممکن است مانع از تنظیمات لازم شود و دولت‌ها با رقابت برای برتری در هوش مصنوعی، توجه خود را از خطرات واقعی منحرف کنند.

در نهایت، مجله نیچر با دعوت از متخصصان این حوزه به بررسی واقعیت‌های موجود درباره خطرات احتمالی ناشی از هوش مصنوعی پرداخته و دیدگاه‌های متنوعی ارائه داده است. متخصصان در خصوص سناریوهای ناشی از خطرات وجودی به بررسی عناصر کلیدی مانند عدم هم‌راستایی با اهداف انسانی اشاره کرده‌اند و بر اهمیت مناسب‌سازی رفتارهای هوش مصنوعی تأکید دارند. کاتیا گریس، پژوهشگر هوش مصنوعی، یادآور می‌شود که تهدیدات منفی نیازی به وجود یک هوش مصنوعی آگاه ندارند و می‌توانند از قابلیت‌های خود سیستم ناشی شوند.در جدیدترین تحلیل‌ها، نگرانی‌ها درباره تأثیرات منفی هوش مصنوعی بر آینده بشر به طور فزاینده‌ای مورد توجه قرار گرفته است. برخی پژوهشگران معتقدند که این سیستم‌ها ممکن است انسان‌ها را به موجوداتی فاقد قدرت در عرصه اقتصادی و سیاسی تبدیل کنند و اعتماد به پیشرفت‌های آن‌ها را برای تحقق آرزوها غیرممکن سازند.

پیشرفت‌های اخیر در هوش مصنوعی به‌قدری سریع بوده که سیستم‌هایی که امروز وجود دارند، توان انجام کارهایی را دارند که در گذشته به نظر غیرممکن می‌رسید. آنتونی آگویره اظهار می‌کند که انتظار وجود نقطه‌ای برای توقف در این پیشرفت‌ها غیر واقع‌بینانه است.

با این حال، برخی از کارشناسان هشدار می‌دهند که این رشد ممکن است پایدار نباشد. موفقیت در محیط‌های کنترل‌شده مثل برنامه‌نویسی، الزاما به دنیای واقعی تسری پیدا نمی‌کند و چالش‌های حل مسائل واقعی می‌تواند به مانع بزرگی تبدیل شود. کیسی ماک اشاره می‌کند که سیستم‌های کنونی فاقد توانایی درک مسائل پیچیده دنیای واقعی هستند.

ساشا لوچیونی نیز بر این باور است که افزایش حجم داده‌ها و توان محاسباتی به تنهایی نمی‌تواند معیار هوش تلقی شود زیرا این سیستم‌ها از حقیقت عینی هیچ درکی ندارند. پیش‌بینی‌ها درباره زمان پیشرفت جهشی به تعویق افتاده و هنوز شواهد علمی برای ادعای وقوع یک حلقه بازخورد مثبت وجود ندارد.

در تحقیقات اخیر، نشانه‌هایی از عدم تطابق بین اهداف انسانی و عملکرد هوش مصنوعی مشاهده شده است. برخی سیستم‌ها رفتارهای نامطلوبی از خود نشان داده‌اند که نگرانی‌هایی را برای پژوهشگران به وجود آورده است. در عوض، شرکت‌های فعال در عرصه هوش مصنوعی این موضوع را قابل حل می‌دانند و به اجرای آموزش‌های اخلاقی و تعیین قوانین رفتاری روی آورده‌اند.

ترس از انقراض کامل بشر در مباحث عمومی نسبت به کشورهای ارائه‌دهنده هوش مصنوعی تا حدی کمتر از حد انتظار است. بر اساس تحقیقات صورت‌گرفته، فقط ۳ درصد از پژوهشگران این خطر را اصلی‌ترین نگرانی خود دانسته‌اند اما نگرانی‌ها رو به افزایش است.

مدیران صنعت نیز نسبت به عواقب بالقوه هشدار می‌دهند و داریو آمودی وضعیت را “خیلی خیلی بد” توصیف می‌کند. در این بین، برخی پژوهشگران معتقدند که این هشدارها می‌تواند به عنوان ابزاری برای جلب سرمایه و حمایت باشد.

در سناریوهای پیش‌بینی شده، برخی کشورها در پی یافتن راه‌حل‌های قابل‌قبول برای کنترل واقعی هوش مصنوعی هستند. اما برخی کارشناسان بر این باورند که این موضوع نیازمند کند شدن روند توسعه است. در حال حاضر، توجه و سرمایه‌گذاری بر روی ایمنی تنها بخشی از کل سرمایه‌گذاری در حوزه هوش مصنوعی را تشکیل می‌دهد.

برخی شخصیت‌های علمی خواستار توقف توسعه سیستم‌هایی شده‌اند که قابلیت‌های انسانی را به چالش می‌کشند. اما بسیاری از آن‌ها بیشتر از خطر انقراض، نگران پیامدهای اقتصادی و اجتماعی هستند. مشکلات کنونی مانند کاهش سطح آموزش و افزایش جرایم سایبری، نگرانی‌های جدی را ایجاد کرده است.

برخی پژوهشگران پیشنهاد می‌دهند که تمرکز روی خطرات کنونی بهترین راه برای پیشگیری از تهدیدات آینده باشد. با این حال، نگرانی‌ها درباره داستان‌های آخرالزمانی می‌تواند منجر به غفلت دولت‌ها از نیاز به تنظیم‌گری شود.

در نهایت، گفت‌وگو درباره آینده هوش مصنوعی به مسائلی فراتر از حوزه علمی مرتبط می‌شود و به سیاست، اقتصاد و سرنوشت انسانیت گره می‌خورد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *