به گزارش خبردونی و بر اساس اطلاعات جدیدی از هوشیو، این روزها هوش مصنوعی گوگل، به ویژه چتبات Gemini، بدون کمکهای کارشناسان قراردادی، به سختی قابل اعتماد است. این کارگران که شامل معلمان، نویسندگان و افراد با مدارک دانشگاهی میشوند، به طور مستقیم توسط شرکت پیمانکار GlobalLogic استخدام شدهاند. وظیفه آنها شامل بررسی، تصحیح و حذف محتوای غیراخلاقی از پاسخهای تولیدشده توسط هوش مصنوعی است.
شرایط کاری این افراد به شدت دشوار است؛ آنها با ضربالاجلهای سخت، دستمزدهای پایین (حدود ۱۶ دلار در ساعت) و عدم پشتیبانی روحی مواجه هستند که موجب بروز اضطراب و مشکلات روانی در بسیاری از آنها شده است. یکی از کارکنان به گاردین اظهار کرده که هیچ هشدار قبلی درباره حجم بالای محتوای آزاردهندهای که با آن درگیر خواهند شد، به آنها داده نشده است.
این کارگران که تحت عنوان «AI raters» شناخته میشوند، بخشی اساسی از زنجیره تولید هوش مصنوعی هستند. آنها در سطحی بالاتر از برچسبگذاران داده قرار دارند، اما از مهندسانی که در سیلیکونولی مدلها را طراحی میکنند، بسیار پایینترند. بسیاری از آنها احساس میکنند که کارشان دیده نمیشود و گوگل فقط به کیفیت پاسخها توجه میکند زمانی که با واکنشهای عمومی یا مشکلات رسوایی مواجه میشود.
بر اساس اظهارات کارکنان، انتظار میرود در سال ۲۰۲۴ سیاستهای گوگل در خصوص محتوای حساس دچار تغییرات عمدهای شود و برخی محدودیتها بر روی محتوای نفرتپراکنانه یا جنسی کاهش یابد. یکی از محققان در این خصوص بیان کرد: «سرعت بر اخلاق غالب میشود و زمانی که سود به خطر میافتد، وعدههای مربوط به ایمنی هوش مصنوعی از بین میرود.»
با اینکه این کارگران نقش حیاتی در تأمین امنیت چتباتها دارند، اما از نظر امنیت شغلی در وضعیت نامناسبی قرار دارند و از ابتدای ۲۰۲۵ با موجی از اخراجها مواجه هستند. بسیاری از آنها به خانوادههای خود توصیه میکنند که از ابزارهای هوش مصنوعی استفاده نکنند. یکی از آنان گفت: «هوش مصنوعی معجزه نیست؛ بلکه نتیجه کار سخت و کمدستمزد انسانها است.»











