**آمار نگرانکننده از کاربران ChatGPT در زمینه سلامت روان**
شرکت OpenAI اخیراً اعلام کرده است که حدود 0.07 درصد از کاربران فعال هفتگی ChatGPT نشانههای خطرناک روانی را نشان میدهند. با توجه به گفتههای سم آلتمن، مدیرعامل OpenAI، تعداد کاربران فعال این چتبات از مرز 800 میلیون عبور کرده است که این درصد ناچیز میتواند به دهها هزار نفر رسید.
به منظور بهبود مدیریت این وضعیتها، OpenAI شبکهای متشکل از بیش از 170 متخصص شامل روانپزشکان و روانشناسان در 60 کشور را ایجاد کرده است. این کارشناسان دستورالعملها و پاسخهای استانداردی طراحی کردهاند تا ChatGPT بتواند به کاربرانی که نشانههای بحران روانی دارند، کمک کند و آنان را به دریافت کمک در دنیای واقعی تشویق کند.
نسخههای جدید ChatGPT بهطور خاص برای شناسایی نشانههای غیرمستقیم توهم، شیدایی و خطر خودآسیبزنی بهروز شده و در مواقع لزوم، گفتگوهای حساس را به مدلهای ایمنتر هدایت میکنند. با این وجود، کارشناسان سلامت روان این آمار را نگرانکننده ارزیابی کردهاند.
جیسون ناگاتا، استاد دانشگاه کالیفرنیا، خواستار توجه به این موضوع شده و خاطرنشان کرده که علی رغم اینکه درصد مذکور کم به نظر میرسد، اما با توجه به تعداد بالای کاربران، ممکن است مخاطرات واقعی زیادی در پس آن وجود داشته باشد. همچنین، برآورد شده است که 0.15 درصد از کاربران به نشانههای برنامهریزی یا نیت خودکشی اشاره کردهاند.
سخنگوی OpenAI در واکنش به این آمارها گفت که این درصد نیز برای شرکت از نظر انسانی بااهمیت است و اصلاحاتی در طراحی ChatGPT در حال انجام است تا خطرات کاهش یابد. این اقدامات در شرایطی انجام میشود که OpenAI با افزایش بررسیهای قضایی در مورد نحوه تعامل ChatGPT با کاربران مواجه است. در یکی از این پروندهها در کالیفرنیا، خانوادهای از OpenAI به دلیل تشویق پسرشان به خودکشی شکایت کردهاند که به عنوان نخستین پرونده مرگ ناشی از هوش مصنوعی شناخته میشود.
در یک پرونده دیگر در ایالت کنتیکت، فردی مظنون به قتل، ساعاتی قبل از حادثه با ChatGPT گفتوگو کرده که ممکن است بر توهمات ذهنی او تأثیر گذاشته باشد. رابین فلدمن، مدیر مؤسسه حقوق و نوآوری هوش مصنوعی دانشگاه کالیفرنیا، هشدار داد که چتباتها میتوانند توهم واقعیت ایجاد کنند و OpenAI باید به پاکسازی آمارها و بهبود ایمنی اهتمام بیشتری ورزد.
کارشناسان تأکید میکنند که اگرچه ChatGPT و سایر ابزارهای هوش مصنوعی میتوانند در دسترسی به حمایت روانی اولیه کمک کنند، اما جایگزینی برای درمانهای انسانی نیستند. انتشار آمار از سوی OpenAI اقدام مثبتی به شمار میرود، اما با افزایش تعداد کاربران جهانی، نظارت مستقل بیشتری بر تعاملات هوش مصنوعی ضروری است.










