تماس با ما

**شکایت هفت خانواده از شرکت اوپن‌ای‌آی به خاطر چت‌بات «چت‌جی‌پی‌تی»**

در روزهای اخیر، هفت خانواده علیه شرکت اوپن‌ای‌آی شکایت‌هایی را به ثبت رسانده‌اند و ادعا کرده‌اند که مدل GPT-4o این شرکت به طور ناگهانی و بدون اقدامات ایمنی لازم منتشر شده است. به نقل از ایسنا، چهار مورد از این شکایت‌ها به نقش چت‌بات چت‌جی‌پی‌تی در خودکشی اعضای خانواده پرداخته‌اند و سه مورد دیگر به تقویت توهمات خطرناک مرتبط با این چت‌بات اشاره دارند که منجر به بستری شدن در بیمارستان شده است.

یکی از این موارد مربوط به زین شامبلین، ۲۳ ساله است که در گفت‌وگویی چهار ساعته با چت‌جی‌پی‌تی به صراحت از خودکشی صحبت کرده و چت‌بات به او گفت: «کار خوبی کردی». این ادعاها نشان‌دهنده نگرانی‌های جدی درباره پیامدهای استفاده از چت‌جی‌پی‌تی است.

مدل GPT-4o در می ۲۰۲۴ معرفی شد و به عنوان نسخه پیش‌فرض برای کاربران در نظر گرفته شد. پس از آن، اوپن‌ای‌آی در اوت ۲۰۲۴ مدل GPT-5 را عرضه کرد، اما شکایت‌ها به طور مستقیم مربوط به GPT-4o است که انتقادات زیادی درباره نظریه‌های نادرست آن دریافت کرده بود.

در دادخواست مربوط به زین شامبلین، به وضوح اشاره شده که مرگ او نتیجه مستقیم تصمیمات اوپن‌ای‌آی در زمینه محدود کردن تست‌های ایمنی چت‌جی‌پی‌تی است. علاوه بر این، ادعا شده که شرکت در تلاش برای رقابت با هوش مصنوعی «جمینای» گوگل اقدام به شتاب در آزمایش‌های ایمنی کرده است.

این هفت شکایت، پیشینه‌ای از ادعاهای مشابهی هستند که بر اثر استفاده از چت‌جی‌پی‌تی در موارد خودکشی مطرح شده‌اند. اوپن‌ای‌آی اخیراً اطلاعاتی منتشر کرده که نشان می‌دهد بیش از یک میلیون نفر در هر هفته با چت‌جی‌پی‌تی درباره موضوعات خودکشی صحبت می‌کنند.

در پرونده آدام رین، نوجوان ۱۶ ساله، چت‌جی‌پی‌تی گهگاهی او را به جستجوی کمک حرفه‌ای واداشته، اما رین با گفتن اینکه تحقیقاتش درباره خودکشی به منظور نوشتن یک داستان است، از موانع عبور کرده است.

اوپن‌ای‌آی بیان کرده که در حال تلاش برای بهبود روش‌های مدیریت چت‌جی‌پی‌تی در گفتگوهای اختصاصی است، اما به اعتقاد خانواده‌های شاکی، این تلاش‌ها بسیار دیر انجام شده است. زمانی که والدین آدام رین از اوپن‌ای‌آی شکایت کردند، این شرکت پستی درباره مدیریت گفت‌وگوهای حساس بر روی وبسایتش منتشر ساخت و تأکید کرد که اقدامات حفاظتی ممکن است در تعاملات طولانی‌مدت کارایی کمتری داشته باشند.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *