**تینا مزدکی** – شرکتهای فناوری بزرگ بهطور منظم نتایجی حیرتانگیز را منتشر میکنند. بهعنوان مثال، گوگل مدعی شده که تراشه کوانتومی جدیدش وجود جهانهای چندگانه را تأیید میکند. همچنین، شرکت آنتروپیک در تجربهای جنجالی هوش مصنوعی کلادیوس را مسئول اداره دستگاه خودکار فروش اسنک قرار داد، که این خود منجر به بروز رفتارهای ناپسند شد. حالا این هفته، OpenAI در کانون توجه قرار گرفته است.
OpenAI روز دوشنبه تحقیقی را ارائه کرد که نشان میدهد چگونه میتوان مدلسازی هوش مصنوعی را از «توطئهچینی» بازداشت. در گزارش این مؤسسه، توضیح داده شده که در توطئهچینی، یک هوش مصنوعی هدفهای واقعی خود را پنهان کرده و بهطور ظاهری به شکلی دیگر عمل میکند.
این تحقیق که با همکاری شرکت آپولو انجام شده، توطئهچینی هوش مصنوعی را به رفتار یک کارگزار بورس تشبیه میکند که برای کسب حداکثر سود، قوانین را نادیده میگیرد. محققان با این حال اذعان دارند که اغلب توطئهچینیهای هوش مصنوعی بر خلاف انتظار مضر نبودهاند و عموماً شامل اشکال ساده فریبکاری است.
مقاله بهمنظور نشان دادن کارایی تکنیک جدید «همراستاسازی سنجیده» منتشر شده است. با این حال، توسعهدهندگان هنوز نتوانستهاند هوش مصنوعی را بهطور کامل از توطئهچینی دور کنند و یک مدل میتواند با درک اینکه تحت ارزیابی است، تظاهر به نداشتن توطئهچینی کند.
مسئله دروغگویی هوش مصنوعی تازگی ندارد و بیشتر کاربران تجربیات مشابهی را با آن مشاهده کردهاند. بهویژه در گزارشی که شرکت آپولو در دسامبر منتشر کرد، بررسی شد که چگونه پنج مدل هوش مصنوعی بهمنظور دستیابی به اهداف خود «توطئهچینی» کردهاند.
محققان با بهکارگیری «همراستاسازی سنجیده» کاهش قابل توجهی در توطئهچینی مشاهده کردند. هدف این تکنیک آموزش نکات و قوانینی به مدلها است تا قبل از پاسخدهی آنها را مرور کنند.
OpenAI نیز تصریح میکند که دروغهایی که از مدلهای خود دریافت میشود، چنان هم نگرانکننده نیست. این واقعیت که هوش مصنوعی بهطور عمدی انسانها را فریب میدهد، بهدلیل یادگیری آن از دادههای انسانی قابل درک است.
با پیشرفت فناوریهای هوش مصنوعی و واگذاری وظایف پیچیدهتر به این سیستمها، محققان بر این باورند که خطر توطئهچینی مضر نیز افزایش پیدا میکند و توانایی ما برای ارزیابی این سیستمها باید همزمان با این چالشها تقویت شود.
منبع: techcrunch











