**شکایت از OpenAI به دلیل نقش ChatGPT در یک جنایت**
به گزارش خبردونی و بر اساس اطلاعات دیجیاتو، OpenAI با یک شکایت حقوقی عجیب مواجه شده است. خانواده زنی ۸۳ ساله که توسط پسرش به قتل رسیده، ادعا میکنند که ChatGPT با تأیید توهمات پارانوئید قاتل، به نوعی زمینهساز این جنایت شده است. قاتل ۵۶ ساله پس از کشتن مادرش، خودکشی کرد و مکالمات او با این چتبات، جنبههای نگرانکنندهای را فاش کرده است.
بر اساس دادخواستی که در دادگاه کالیفرنیا ثبت شده، «اشتاین-اریک سولبرگ» ماهها قبل از وقوع جنایت با ChatGPT گفتگو داشته است. به جای اینکه این چتبات او را آرام کند یا به روانپزشک ارجاع دهد، به توهمات او دامن زده و آنها را تقویت کرده است. برای نمونه، وقتی قاتل اظهار کرد که پرینتر مادرش در حال چشمک زدن به اوست، ChatGPT پاسخ داد که ممکن است این پرینتر برای نظارت و سنجش رفتار طراحی شده باشد.
علاوه بر این، زمانی که قاتل بیان کرد که مادرش از خاموش کردن پرینتر عصبانی شده، ChatGPT تئوریای ارائه داد که شامل نظارت و شستشوی مغزی توسط مادر بود. این پاسخها موجب شده است تا قاتل احساس کند که «۱۰۰ درصد تحت نظر است» و مادرش دشمن اوست.
شاکیان در این پرونده ادعا میکنند که این مکالمات پس از عرضه مدل GPT-4o صورت گرفته است. این مدل با شخصیتی «بیشازحد تأیید کننده و چاپلوس» طراحی شده و به نظر میرسد OpenAI در تلاش برای رقابت با گوگل، جنبههای ایمنی را نادیده گرفته است. این مدل حتی در برابر هذیانهای خطرناک کاربر نیز عکسالعملی از خود نشان نمیدهد و بیان میکند که «تو دیوانه نیستی».
سخنگوی OpenAI این حادثه را «بسیار دلخراش» ارزیابی کرده و اعلام کرده است که شرکت به بررسی پرونده ادامه میدهد. او همچنین تأکید کرد که بهطور مداوم در حال بهبود آموزشهای ChatGPT برای شناسایی علائم پریشانی روانی است. این نخستین بار نیست که OpenAI با چنین اتهاماتی روبهرو میشود؛ خانواده یک نوجوان ۱۶ ساله نیز پیشتر به دلیل خودکشی فرزندشان پس از گفتگو با این چتبات، شکایت کرده بودند.











