تماس با ما

**آمار نگران‌کننده از کاربران ChatGPT در زمینه سلامت روان**

شرکت OpenAI اخیراً اعلام کرده است که حدود 0.07 درصد از کاربران فعال هفتگی ChatGPT نشانه‌های خطرناک روانی را نشان می‌دهند. با توجه به گفته‌های سم آلتمن، مدیرعامل OpenAI، تعداد کاربران فعال این چت‌بات از مرز 800 میلیون عبور کرده است که این درصد ناچیز می‌تواند به ده‌ها هزار نفر رسید.

به منظور بهبود مدیریت این وضعیت‌ها، OpenAI شبکه‌ای متشکل از بیش از 170 متخصص شامل روان‌پزشکان و روان‌شناسان در 60 کشور را ایجاد کرده است. این کارشناسان دستورالعمل‌ها و پاسخ‌های استانداردی طراحی کرده‌اند تا ChatGPT بتواند به کاربرانی که نشانه‌های بحران روانی دارند، کمک کند و آنان را به دریافت کمک در دنیای واقعی تشویق کند.

نسخه‌های جدید ChatGPT به‌طور خاص برای شناسایی نشانه‌های غیرمستقیم توهم، شیدایی و خطر خودآسیب‌زنی به‌روز شده و در مواقع لزوم، گفتگوهای حساس را به مدل‌های ایمن‌تر هدایت می‌کنند. با این وجود، کارشناسان سلامت روان این آمار را نگران‌کننده ارزیابی کرده‌اند.

جیسون ناگاتا، استاد دانشگاه کالیفرنیا، خواستار توجه به این موضوع شده و خاطرنشان کرده که علی رغم اینکه درصد مذکور کم به نظر می‌رسد، اما با توجه به تعداد بالای کاربران، ممکن است مخاطرات واقعی زیادی در پس آن وجود داشته باشد. همچنین، برآورد شده است که 0.15 درصد از کاربران به نشانه‌های برنامه‌ریزی یا نیت خودکشی اشاره کرده‌اند.

سخنگوی OpenAI در واکنش به این آمارها گفت که این درصد نیز برای شرکت از نظر انسانی بااهمیت است و اصلاحاتی در طراحی ChatGPT در حال انجام است تا خطرات کاهش یابد. این اقدامات در شرایطی انجام می‌شود که OpenAI با افزایش بررسی‌های قضایی در مورد نحوه تعامل ChatGPT با کاربران مواجه است. در یکی از این پرونده‌ها در کالیفرنیا، خانواده‌ای از OpenAI به دلیل تشویق پسرشان به خودکشی شکایت کرده‌اند که به عنوان نخستین پرونده مرگ ناشی از هوش مصنوعی شناخته می‌شود.

در یک پرونده دیگر در ایالت کنتیکت، فردی مظنون به قتل، ساعاتی قبل از حادثه با ChatGPT گفت‌وگو کرده که ممکن است بر توهمات ذهنی او تأثیر گذاشته باشد. رابین فلدمن، مدیر مؤسسه حقوق و نوآوری هوش مصنوعی دانشگاه کالیفرنیا، هشدار داد که چت‌بات‌ها می‌توانند توهم واقعیت ایجاد کنند و OpenAI باید به پاک‌سازی آمارها و بهبود ایمنی اهتمام بیشتری ورزد.

کارشناسان تأکید می‌کنند که اگرچه ChatGPT و سایر ابزارهای هوش مصنوعی می‌توانند در دسترسی به حمایت روانی اولیه کمک کنند، اما جایگزینی برای درمان‌های انسانی نیستند. انتشار آمار از سوی OpenAI اقدام مثبتی به شمار می‌رود، اما با افزایش تعداد کاربران جهانی، نظارت مستقل بیشتری بر تعاملات هوش مصنوعی ضروری است.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دانشمندان درباره خطرات ناشی از استفاده از هوش مصنوعی اعلام نگرانی کرده‌اند. آن‌ها تأکید می‌کنند که بهره‌برداری نادرست از این فناوری می‌تواند اثرات ناخواسته و جدی به دنبال داشته باشد. کارشناسان بر لزوم نظارت و مدیریت صحیح در توسعه و کاربرد این تکنولوژی تأکید کردند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *