تماس با ما

به گزارش خبردونی و بر اساس اطلاعات جدیدی از هوشیو، این روزها هوش مصنوعی گوگل، به ویژه چت‌بات Gemini، بدون کمک‌های کارشناسان قراردادی، به سختی قابل اعتماد است. این کارگران که شامل معلمان، نویسندگان و افراد با مدارک دانشگاهی می‌شوند، به طور مستقیم توسط شرکت پیمانکار GlobalLogic استخدام شده‌اند. وظیفه آن‌ها شامل بررسی، تصحیح و حذف محتوای غیراخلاقی از پاسخ‌های تولیدشده توسط هوش مصنوعی است.

شرایط کاری این افراد به شدت دشوار است؛ آن‌ها با ضرب‌الاجل‌های سخت، دستمزدهای پایین (حدود ۱۶ دلار در ساعت) و عدم پشتیبانی روحی مواجه هستند که موجب بروز اضطراب و مشکلات روانی در بسیاری از آن‌ها شده است. یکی از کارکنان به گاردین اظهار کرده که هیچ هشدار قبلی درباره حجم بالای محتوای آزاردهنده‌ای که با آن درگیر خواهند شد، به آن‌ها داده نشده است.

این کارگران که تحت عنوان «AI raters» شناخته می‌شوند، بخشی اساسی از زنجیره تولید هوش مصنوعی هستند. آن‌ها در سطحی بالاتر از برچسب‌گذاران داده قرار دارند، اما از مهندسانی که در سیلیکون‌ولی مدل‌ها را طراحی می‌کنند، بسیار پایین‌ترند. بسیاری از آن‌ها احساس می‌کنند که کارشان دیده نمی‌شود و گوگل فقط به کیفیت پاسخ‌ها توجه می‌کند زمانی که با واکنش‌های عمومی یا مشکلات رسوایی مواجه می‌شود.

بر اساس اظهارات کارکنان، انتظار می‌رود در سال ۲۰۲۴ سیاست‌های گوگل در خصوص محتوای حساس دچار تغییرات عمده‌ای شود و برخی محدودیت‌ها بر روی محتوای نفرت‌پراکنانه یا جنسی کاهش یابد. یکی از محققان در این خصوص بیان کرد: «سرعت بر اخلاق غالب می‌شود و زمانی که سود به خطر می‌افتد، وعده‌های مربوط به ایمنی هوش مصنوعی از بین می‌رود.»

با اینکه این کارگران نقش حیاتی در تأمین امنیت چت‌بات‌ها دارند، اما از نظر امنیت شغلی در وضعیت نامناسبی قرار دارند و از ابتدای ۲۰۲۵ با موجی از اخراج‌ها مواجه هستند. بسیاری از آن‌ها به خانواده‌های خود توصیه می‌کنند که از ابزارهای هوش مصنوعی استفاده نکنند. یکی از آنان گفت: «هوش مصنوعی معجزه نیست؛ بلکه نتیجه کار سخت و کم‌دستمزد انسان‌ها است.»

پیوندها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *