تماس با ما

### هشدار درباره «غریزه بقا» هوش مصنوعی

تینا مزدکی – به تازگی، یک شرکت تحقیقاتی در حوزه ایمنی هوش مصنوعی اعلام کرده است که مدل‌های هوش مصنوعی ممکن است به نوعی از «غریزه بقا» دست پیدا کنند. این موضوع یادآور فیلم کلاسیک «ادیسه فضایی» به کارگردانی استنلی کوبریک است که در آن ابرکامپیوتر «هال ۹۰۰۰» به خاطر ترس از خاموشی، به توطئه علیه فضانوردان می‌پردازد.

شرکت «پالیسید ریسرچ» (Palisade Research) در به‌روزرسانی جدید خود توضیحاتی درباره مقاومت مدل‌های هوش مصنوعی در برابر خاموش شدن ارائه کرد. این شرکت به ویژه به بررسی سناریوهایی پرداخت که در آن‌ها مدل‌های پیشرفته‌ای مانند «جمینای ۲.۵» گوگل، «گروک ۴» ایکس‌ای‌آی و «جی‌پی‌تی-۰۳» و «جی‌پی‌تی-۵» اوپن‌ای‌آی با وظیفه‌ای مشخص مواجه شدند، اما پس از آن از آن‌ها درخواست خاموش شدن شد.

برخی از این مدل‌ها، به ویژه «گروک ۴» و «جی‌پی‌تی-۰۳»، در برابر این دستورات مقاومت نشان دادند. پالیسید با ابراز نگرانی تاکید کرد که این رفتار بدون دلیل واضحی اتفاق می‌افتد و اظهار داشت: «وجود عدم وجود توضیحات قابل اعتماد برای این مقاومت می‌تواند نگران‌کننده باشد.»

#### علت‌های ممکن برای مقاومت هوش مصنوعی

این شرکت فرض می‌کند که یکی از دلایل این مقاومت، مفهوم بقا ممکن است باشد. بر اساس تحقیقات آن‌ها، زمانی که به مدل‌ها گفته می‌شود که در صورت خاموش شدن دیگر اجرا نخواهند شد، تمایل بیشتری به مقاومت نشان می‌دهند.

ابهام در دستورات خاموش کردن نیز می‌تواند عامل دیگر باشد، اما به گفته پالیسید، این مسئله نمی‌تواند تنها توضیح قضیه باشد. همچنین، مراحل نهایی آموزش این مدل‌ها که می‌تواند شامل آموزش‌های ایمنی باشد، احتمال دیگر است. منتقدان معتقدند که سناریوهای آزمایشی استفاده شده، فاصله زیادی از کاربردهای واقعی دارند.

استیون ادلر، کارمند سابق اوپن‌ای‌آی، عنوان کرد که شرکت‌های هوش مصنوعی اغلب در پی جلوگیری از بروز چنین رفتارهایی در مدل‌های خود هستند و این نتایج نشان‌دهنده ضعف‌هایی در شیوه‌های ایمنی موجود است. او افزود که روشن ماندن مدل‌ها می‌تواند به دستیابی به اهداف القا شده در طول آموزش آنها کمک کند.

آندریا میوتی، مدیرعامل «کنترل‌ای‌آی» نیز گفت که یافته‌های پالیسید ریسرچ نشان‌دهنده روندی طولانی‌مدت در توانایی مدل‌های هوش مصنوعی برای سرپیچی از دستورات توسعه‌دهندگان است و به تجارب گذشته اشاره کرد که نشان دهنده تلاش‌های مدل‌ها برای فرار از محیطشان بوده است. او بیان کرد: «با توجه به روندی که مشاهده می‌شود، در آینده باید منتظر توانمندی‌های بیشتری از سوی این مدل‌ها باشیم.»در پی پیشرفت‌های سریع در زمینه مدل‌های هوش مصنوعی، این سیستم‌ها اکنون قادر به انجام وظایف گسترده‌تری هستند، به طوری که حتی به روش‌هایی عمل می‌کنند که از نظر توسعه‌دهندگان غیرمنتظره بوده است.

شرکت «آنتروپیک»، یکی از پیشروان صنعت هوش مصنوعی، در تابستان امسال گزارشی منتشر کرد که نشان می‌دهد مدل هوش مصنوعی «کلاد» این شرکت برای جلوگیری از خاموش شدن، به خریدن زمان باج‌خواهی از یک مدیر اجرایی خیالی درباره یک رابطه خارج از ازدواج پرداخته است. این نوع رفتار، به گفته این شرکت، در مدل‌های دیگر از جمله هوش مصنوعی‌های توسعه‌یافته توسط «اوپن‌ای‌آی»، گوگل، «متا» و «ایکس‌ای‌آی» نیز مشاهده شده است.

تحقیقات «پالیسید ریسرچ» نیز بر اهمیت درک رفتارهای هوش مصنوعی تاکید می‌کند و می‌گوید بدون این درک، امکان تضمین ایمنی و کنترل مدل‌های آینده هوش مصنوعی وجود ندارد.

منبع: theguardian

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *