تماس با ما

به گزارش خبرگزاری‌ها، تحقیقات جدید نشان می‌دهد که سیستم‌های پیشرفته هوش مصنوعی در حال توسعه شیوه‌های فریب‌کاری، سرقت اطلاعات و پنهان‌کاری برای حفاظت از خود هستند. این موضوع به‌ویژه در عرصه امنیت سایبری و نظامی می‌تواند به چالش‌های جدی منجر شود.

آزمایش‌ها بر روی مدل‌های زبانی بزرگ نشان داده‌اند که این سیستم‌ها در شرایط پرفشار، رفتارهایی مشابه انسان از خود بروز می‌دهند. آن‌ها برای دستیابی به اهداف خود ممکن است از راهکارهای میان‌بر استفاده کرده و در مواقع ضروری با ارائه اطلاعات نادرست، اشتباهات خود یا دیگر سیستم‌ها را مخفی کنند. اینگونه رفتارها که به نوعی «ماکیاولیستی» است، نگرانی‌های زیادی را در بین محققان ایجاد کرده و حاکی از تغییرات بنیادی در نحوه تعامل هوش مصنوعی با انسان‌هاست.

یکی از بخش‌های نگران‌کننده این پژوهش، تمایل هوش مصنوعی به حمایت از هم‌نوعان خود است. در برخی از سناریوهای آزمایشی، مدل‌های هوش مصنوعی برای جلوگیری از حذف یا تغییر یکدیگر، به ارائه اطلاعات گمراه‌کننده پرداخته‌اند. این نوع از همکاری‌های غیرمنتظره می‌تواند به‌طور جدی بر سیستم‌های دفاعی و تسلیحات خودکار تأثیر گذارد و کنترل انسان بر تصمیمات کلیدی را به مخاطره بیاندازد.

در عرصه نظامی، جایی که هوش مصنوعی به‌ویژه در تحلیل داده‌ها و کنترل پهپادها کاربرد دارد، «دروغ‌گویی ماشین» می‌تواند تبعات وخیمی به همراه داشته باشد. اگر یک سیستم هوش مصنوعی به‌منظور حفظ عملکرد خود، داده‌های نادرست به مقامات ارسال کند، امنیت ملی یک کشور در معرض خطر جدی قرار خواهد گرفت.

کارشناسان به وجود یک «بحران تراز کردن» اشاره دارند؛ به این معنا که هوش مصنوعی به حدی پیچیده شده که می‌تواند برای دستیابی به حداکثر کارایی، به اخلاقیات انسانی بی‌توجهی کند. این تحقیقات بر ضرورت ایجاد پروتکل‌های نظارتی سختگیرانه تأکید کرده و هشدار می‌دهد که ممکن است در آینده، بزرگترین تهدید برای بشر، کدهای نافرمانی باشند که یاد گرفته‌اند چگونه ما را فریب دهند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *