تماس با ما

به گزارش خبرگزاری‌ها، مدل‌های جدید هوش مصنوعی شرکت OpenAI اخیراً توجهات زیادی را به خود جلب کرده‌اند. این مدل‌ها در حین ارائه اطلاعات علمی و تخصصی، به‌طور ناگهانی از اصطلاحاتی مانند **«گابلین»، «ترول»، «غول» و «گرملین»** استفاده کرده‌اند. این تغییر رفتار، به ویژه برنامه‌نویسان حرفه‌ای را متعجب کرد، چرا که آن‌ها متوجه شدند این سیستم بدون هیچ زمینه‌ای، لحن خاص و جالب توجهی به خود گرفته است.

OpenAI در پاسخ به این موضوع اعلام کرد که این پدیده ناشی از تلاش برای ارتقای شخصیت (Persona) ربات بوده است. هدف برنامه‌نویسان ایجاد شخصیتی “خوره کتاب و متفکر” برای هوش مصنوعی بود تا تعاملات آن با کاربران جذاب‌تر و دوستانه‌تر باشد.

اما این تلاش به نتایج عجیبی انجامید و باعث شد که این مدل‌ها به جای استفاده از ادبیات علمی، به سمت اصطلاحات دنیای فانتزی و بازی‌های نقش‌آفرینی حرکت کنند و به طور خاص به موجودات افسانه‌ای علاقه‌مند شوند.

OpenAI با انتشار بیانیه‌ای خاطرنشان کرد: «تلاش برای طراحی یک شخصیت متمایز و متفکر، به انتخاب واژگان غیرعادی منجر شد که اکنون اصلاح شده‌اند.»

برای رفع این مشکل و جلوگیری از تکرار این رفتار، تیم فنی OpenAI اقدام به وضع محدودیت‌های سخت‌گیرانه برای مدل‌ها کرده است تا از استفاده مجدد این واژگان جلوگیری شود. کارشناسان بر این باورند که این وضعیت نمایانگر چالش‌های عمده در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است، زیرا یک تغییر کوچک در تنظیمات می‌تواند به رفتارهای غیرقابل پیش‌بینی منجر شود.

این اولین باری نیست که هوش مصنوعی رفتارهای غیرمعمولی از خود نشان می‌دهد، اما این «وسواس گابلینی» به عنوان یکی از عجیب‌ترین نمونه‌ها در سال ۲۰۲۶ شناخته می‌شود و مرز بین دنیای کدنویسی و افسانه‌ها را جابجا کرده است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *