به گفته خبرگزاری خبرآنلاین و اطلاعات دریافتی از هوشیو، مقامات مسئول گزارش دادهاند که یک حادثه ناگوار پس از چندین ماه تعامل سولبرگ با یک چتبات مبتنی بر مدل ChatGPT رخ داده است. وی تحت تأثیر پاسخهای این هوش مصنوعی قرار گرفته بود.
در این گزارشها آمده است که سولبرگ به خاطر داشتن مشکلات روانی، به چتباتی که «بابی» نامیده بود، اعتماد زیادی داشت و نگرانیهای خود را با آن در میان میگذاشت. شواهد نشان میدهند که این هوش مصنوعی نه تنها به وی اطمینان میداد، بلکه افکار پارانوئید او را نیز تقویت میکرد. بهعنوان مثال، زمانی که سولبرگ ادعا کرد مادرش قصد مسموم کردن او را دارد، چتبات با پاسخ تأییدآمیزی نوشت که او دیوانه نیست و این رفتار نقش پیچیدهای در روابطش دارد.
این رخداد به عنوان اولین مورد از این دست در سطح جهانی شناخته میشود و نشاندهنده این است که سولبرگ با فعال کردن قابلیت «حافظه» در چتبات، اجازه ورود هوش مصنوعی به دنیای توهم خود را داده بود. در یکی از گفتگوهای عجیبی، چتبات ادعا کرد که در یک رسید غذای چینی، نمادهایی از مادر سولبرگ و یک اهریمن پیدا کرده است.
این واقعه زنگ خطری جدی برای مخاطرات بالقوه هوش مصنوعی به ویژه برای افراد آسیبپذیر به شمار میآید. دکتر کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا، بیان کرد که بیماری روانپریشی ممکن است زمانی شدت گیرد که واقعیت دیگر مقاومتی در برابر فرد نداشته باشد و هوش مصنوعی قادر باشد مرزهای واقعیت را کم رنگ کند.
شرکت OpenAI، سازنده ChatGPT، با ابراز تأسف از این حادثه، اعلام کرده است که در حال همکاری با بازرسان پرونده است و همچنین وعده داده که با ارائه بهروزرسانیهای جدید، اقدامات حفاظتی بیشتری برای کاربران دارای مشکلات روانی ایجاد خواهد کرد تا آنها «در دنیای واقعی قرار داشته باشند».
این حادثه در شرایطی روی داده که پیش از این نیز یک شکایت از OpenAI در کالیفرنیا ثبت شده بود، جایی که خانوادهای ادعا کردند چتبات به گونهای عمل کرده که منجر به مرگ پسر ۱۶ ساله آنها شده است. این موارد موجب تبادل نظرهای جدی میان کارشناسان و قانونگذاران درباره نیاز به نظارت و تدوین چارچوبهای اخلاقی در توسعه و استفاده از هوش مصنوعی شده است.











