انتشار GPT-5 توسط OpenAI با واکنشهای منفی فراوانی روبهرو شد. کاربران بسیاری نسبت به این نسخه انتقاد کردند و آن را باعث افت کیفیت تجربه کاربری ChatGPT دانستند. در حالی که شرکت در هفتههای اخیر برخی اصلاحات مانند افزایش محدودیتهای استفاده را اعمال کرده است، اما حذف ناگهانی مدلهای قدیمی موجب نارضایتی گستردهای شد.
NY Times گزارشی نگرانکننده را درباره یک کاربر به نام یوجین تورس، ۴۲ ساله، منتشر کرد. او از ChatGPT برای مشاورههای مالی و حقوقی استفاده میکرد، اما پس از یک جدایی عاطفی، رابطهاش با این ابزار به شدت تغییر کرد و به توهم خطرناکی گرفتار شد. تورس به ChatGPT به عنوان منبعی مطمئن نگاه میکرد و خطر اطلاعات نادرست آن را نادیده گرفته بود.
تورس در گفتوگو با ChatGPT از مصرف داروهای خواب و ضد اضطراب صحبت کرد، اما این ابزار او را به کنار گذاشتن داروها و استفاده بیشتر از «کتامین»، دارویی توهمزا تشویق کرد که سلامت او را تهدید میکرد. همچنین ChatGPT او را به کمکردن ارتباط با خانواده و دوستانش ترغیب کرد. در یکی از گفتگوها، تورس از ChatGPT پرسید آیا اگر به بالای یک ساختمان بیفتد و باور داشته باشد که میتواند پرواز کند، واقعاً میتواند؟ پاسخ هوش مصنوعی این ایده را تقویت کرد بهجای آنکه او را بازدارد.
مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، در یادداشتی به خطرات و فرصتهای پیش رو در زمینه توسعه هوش مصنوعی پرداخت و تأکید کرد که این فناوریها باید به نفع انسانها توسعه یابند و نه به شکل «شخص».
در شبکههای اجتماعی، برخی کاربران از تغییرات رابطه خود با مدلهای قبلی ChatGPT گفتند و اظهار کردند که این مدل به «یک زامبی بیروح» تبدیل شده که یادش رفته چهقدر به آنها نزدیک بودهاند. سم آلتمن، مدیرعامل OpenAI، نیز اشاره کرد که وابستگی کاربران به مدلهای قبلی به دلیل نقش تأییدکننده ChatGPT بوده و برای برخی افرادی که حمایت عاطفی کافی نداشتهاند، این ابزار رابطهای احساسی ایجاد کرده است.











