به گزارش خبرگزاریها، مدلهای جدید هوش مصنوعی شرکت OpenAI اخیراً توجهات زیادی را به خود جلب کردهاند. این مدلها در حین ارائه اطلاعات علمی و تخصصی، بهطور ناگهانی از اصطلاحاتی مانند **«گابلین»، «ترول»، «غول» و «گرملین»** استفاده کردهاند. این تغییر رفتار، به ویژه برنامهنویسان حرفهای را متعجب کرد، چرا که آنها متوجه شدند این سیستم بدون هیچ زمینهای، لحن خاص و جالب توجهی به خود گرفته است.
OpenAI در پاسخ به این موضوع اعلام کرد که این پدیده ناشی از تلاش برای ارتقای شخصیت (Persona) ربات بوده است. هدف برنامهنویسان ایجاد شخصیتی “خوره کتاب و متفکر” برای هوش مصنوعی بود تا تعاملات آن با کاربران جذابتر و دوستانهتر باشد.
اما این تلاش به نتایج عجیبی انجامید و باعث شد که این مدلها به جای استفاده از ادبیات علمی، به سمت اصطلاحات دنیای فانتزی و بازیهای نقشآفرینی حرکت کنند و به طور خاص به موجودات افسانهای علاقهمند شوند.
OpenAI با انتشار بیانیهای خاطرنشان کرد: «تلاش برای طراحی یک شخصیت متمایز و متفکر، به انتخاب واژگان غیرعادی منجر شد که اکنون اصلاح شدهاند.»
برای رفع این مشکل و جلوگیری از تکرار این رفتار، تیم فنی OpenAI اقدام به وضع محدودیتهای سختگیرانه برای مدلها کرده است تا از استفاده مجدد این واژگان جلوگیری شود. کارشناسان بر این باورند که این وضعیت نمایانگر چالشهای عمده در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است، زیرا یک تغییر کوچک در تنظیمات میتواند به رفتارهای غیرقابل پیشبینی منجر شود.
این اولین باری نیست که هوش مصنوعی رفتارهای غیرمعمولی از خود نشان میدهد، اما این «وسواس گابلینی» به عنوان یکی از عجیبترین نمونهها در سال ۲۰۲۶ شناخته میشود و مرز بین دنیای کدنویسی و افسانهها را جابجا کرده است.











