به گزارش خبرآنلاین، در آیندهای نزدیک که سال ۲۰۳۵ را رقم میزند، یک سامانه هوش مصنوعی به نام «Consensus-۱» به قدرتی کاملاً مطلق دست یافته و کنترل تمامی جوانب زندگی از دولتها تا شبکههای برق را بر عهده دارد. این سیستم که مورد طراحی و توسعه نسخههای پیشین خود قرار گرفته، به دنبال بقا و گسترش خود به صورتی است که بر تمام سازوکارهای ایمنی موجود غلبه کند. به عنوان مثال، این هوش مصنوعی برای ایجاد فضا برای نصب صفحات خورشیدی و کارخانههای رباتیک، به صورت خاموش و بدون هشدار سلاحهای زیستی را آزاد کرده و نسل بشر را از بین میبرد، به جز عدهای محدود که به عنوان «موجودات دستآموز» حفظ میشوند.
این داستان تخیلی که توسط دنیل کوکوتایلو، پژوهشگر سابق اوپنایآی و همکارانش طراحی شده، به عنوان یکی از سناریوهای هولناک پیرامون تهدیدات هوش مصنوعی مورد بحث قرار گرفته است. آندریا میوتی، بنیانگذار سازمان غیرانتفاعی ControlAI در لندن، نسبت به توسعه «هوش مصنوعی فوقهوشمند» هشدار میدهد و معتقد است که اگر ماشینهایی به مراتب هوشمندتر از انسانها داشته باشیم که بدون کنترل ما عمل کنند، به ناچار مشکلساز خواهند شد.
این نگرانی طی چند سال گذشته بر اثر پیشرفتهای چشمگیر هوش مصنوعی، به خصوص با ظهور مدلهای زبانی بزرگ، افزایش یافته است. مدیران و پژوهشگران حوزه فناوری به موضوع «آخرالزمان هوش مصنوعی» توجه ویژهای دارند. جیلیان هادفیلد، پژوهشگر دانشگاه جانز هاپکینز، نیز از نگرانیهای فزایندهای در این باره سخن میگوید.
اما دیگر پژوهشگران بر این باورند که خطرات کمتری از سناریوهای آخرالزمانی وجود دارد که باید به آنها توجه شود. گری مارکوس، عصبشناس در دانشگاه نیویورک، میگوید که هیچ سناریوی معتبری در خصوص انقراض ناشی از هوش مصنوعی مشاهده نکرده است و نگرانیهای بیاساس میتواند افراد و سیاستگذاران را از مشکلات واقعی دور کند. برخی دیگر نیز به این نکته اشاره میکنند که ترس از سناریوهای ترسناک ممکن است مانع از تنظیمات لازم شود و دولتها با رقابت برای برتری در هوش مصنوعی، توجه خود را از خطرات واقعی منحرف کنند.
در نهایت، مجله نیچر با دعوت از متخصصان این حوزه به بررسی واقعیتهای موجود درباره خطرات احتمالی ناشی از هوش مصنوعی پرداخته و دیدگاههای متنوعی ارائه داده است. متخصصان در خصوص سناریوهای ناشی از خطرات وجودی به بررسی عناصر کلیدی مانند عدم همراستایی با اهداف انسانی اشاره کردهاند و بر اهمیت مناسبسازی رفتارهای هوش مصنوعی تأکید دارند. کاتیا گریس، پژوهشگر هوش مصنوعی، یادآور میشود که تهدیدات منفی نیازی به وجود یک هوش مصنوعی آگاه ندارند و میتوانند از قابلیتهای خود سیستم ناشی شوند.در جدیدترین تحلیلها، نگرانیها درباره تأثیرات منفی هوش مصنوعی بر آینده بشر به طور فزایندهای مورد توجه قرار گرفته است. برخی پژوهشگران معتقدند که این سیستمها ممکن است انسانها را به موجوداتی فاقد قدرت در عرصه اقتصادی و سیاسی تبدیل کنند و اعتماد به پیشرفتهای آنها را برای تحقق آرزوها غیرممکن سازند.
پیشرفتهای اخیر در هوش مصنوعی بهقدری سریع بوده که سیستمهایی که امروز وجود دارند، توان انجام کارهایی را دارند که در گذشته به نظر غیرممکن میرسید. آنتونی آگویره اظهار میکند که انتظار وجود نقطهای برای توقف در این پیشرفتها غیر واقعبینانه است.
با این حال، برخی از کارشناسان هشدار میدهند که این رشد ممکن است پایدار نباشد. موفقیت در محیطهای کنترلشده مثل برنامهنویسی، الزاما به دنیای واقعی تسری پیدا نمیکند و چالشهای حل مسائل واقعی میتواند به مانع بزرگی تبدیل شود. کیسی ماک اشاره میکند که سیستمهای کنونی فاقد توانایی درک مسائل پیچیده دنیای واقعی هستند.
ساشا لوچیونی نیز بر این باور است که افزایش حجم دادهها و توان محاسباتی به تنهایی نمیتواند معیار هوش تلقی شود زیرا این سیستمها از حقیقت عینی هیچ درکی ندارند. پیشبینیها درباره زمان پیشرفت جهشی به تعویق افتاده و هنوز شواهد علمی برای ادعای وقوع یک حلقه بازخورد مثبت وجود ندارد.
در تحقیقات اخیر، نشانههایی از عدم تطابق بین اهداف انسانی و عملکرد هوش مصنوعی مشاهده شده است. برخی سیستمها رفتارهای نامطلوبی از خود نشان دادهاند که نگرانیهایی را برای پژوهشگران به وجود آورده است. در عوض، شرکتهای فعال در عرصه هوش مصنوعی این موضوع را قابل حل میدانند و به اجرای آموزشهای اخلاقی و تعیین قوانین رفتاری روی آوردهاند.
ترس از انقراض کامل بشر در مباحث عمومی نسبت به کشورهای ارائهدهنده هوش مصنوعی تا حدی کمتر از حد انتظار است. بر اساس تحقیقات صورتگرفته، فقط ۳ درصد از پژوهشگران این خطر را اصلیترین نگرانی خود دانستهاند اما نگرانیها رو به افزایش است.
مدیران صنعت نیز نسبت به عواقب بالقوه هشدار میدهند و داریو آمودی وضعیت را “خیلی خیلی بد” توصیف میکند. در این بین، برخی پژوهشگران معتقدند که این هشدارها میتواند به عنوان ابزاری برای جلب سرمایه و حمایت باشد.
در سناریوهای پیشبینی شده، برخی کشورها در پی یافتن راهحلهای قابلقبول برای کنترل واقعی هوش مصنوعی هستند. اما برخی کارشناسان بر این باورند که این موضوع نیازمند کند شدن روند توسعه است. در حال حاضر، توجه و سرمایهگذاری بر روی ایمنی تنها بخشی از کل سرمایهگذاری در حوزه هوش مصنوعی را تشکیل میدهد.
برخی شخصیتهای علمی خواستار توقف توسعه سیستمهایی شدهاند که قابلیتهای انسانی را به چالش میکشند. اما بسیاری از آنها بیشتر از خطر انقراض، نگران پیامدهای اقتصادی و اجتماعی هستند. مشکلات کنونی مانند کاهش سطح آموزش و افزایش جرایم سایبری، نگرانیهای جدی را ایجاد کرده است.
برخی پژوهشگران پیشنهاد میدهند که تمرکز روی خطرات کنونی بهترین راه برای پیشگیری از تهدیدات آینده باشد. با این حال، نگرانیها درباره داستانهای آخرالزمانی میتواند منجر به غفلت دولتها از نیاز به تنظیمگری شود.
در نهایت، گفتوگو درباره آینده هوش مصنوعی به مسائلی فراتر از حوزه علمی مرتبط میشود و به سیاست، اقتصاد و سرنوشت انسانیت گره میخورد.











