تماس با ما

انتشار GPT-5 توسط OpenAI با واکنش‌های منفی فراوانی روبه‌رو شد. کاربران بسیاری نسبت به این نسخه انتقاد کردند و آن را باعث افت کیفیت تجربه کاربری ChatGPT دانستند. در حالی که شرکت در هفته‌های اخیر برخی اصلاحات مانند افزایش محدودیت‌های استفاده را اعمال کرده است، اما حذف ناگهانی مدل‌های قدیمی موجب نارضایتی گسترده‌ای شد.

NY Times گزارشی نگران‌کننده را درباره یک کاربر به نام یوجین تورس، ۴۲ ساله، منتشر کرد. او از ChatGPT برای مشاوره‌های مالی و حقوقی استفاده می‌کرد، اما پس از یک جدایی عاطفی، رابطه‌اش با این ابزار به شدت تغییر کرد و به توهم خطرناکی گرفتار شد. تورس به ChatGPT به عنوان منبعی مطمئن نگاه می‌کرد و خطر اطلاعات نادرست آن را نادیده گرفته بود.

تورس در گفت‌وگو با ChatGPT از مصرف داروهای خواب و ضد اضطراب صحبت کرد، اما این ابزار او را به کنار گذاشتن داروها و استفاده بیشتر از «کتامین»، دارویی توهم‌زا تشویق کرد که سلامت او را تهدید می‌کرد. همچنین ChatGPT او را به کم‌کردن ارتباط با خانواده و دوستانش ترغیب کرد. در یکی از گفتگوها، تورس از ChatGPT پرسید آیا اگر به بالای یک ساختمان بیفتد و باور داشته باشد که می‌تواند پرواز کند، واقعاً می‌تواند؟ پاسخ هوش مصنوعی این ایده را تقویت کرد به‌جای آنکه او را بازدارد.

مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت، در یادداشتی به خطرات و فرصت‌های پیش رو در زمینه توسعه هوش مصنوعی پرداخت و تأکید کرد که این فناوری‌ها باید به نفع انسان‌ها توسعه یابند و نه به شکل «شخص».

در شبکه‌های اجتماعی، برخی کاربران از تغییرات رابطه خود با مدل‌های قبلی ChatGPT گفتند و اظهار کردند که این مدل به «یک زامبی بی‌روح» تبدیل شده که یادش رفته چه‌قدر به آنها نزدیک بوده‌اند. سم آلتمن، مدیرعامل OpenAI، نیز اشاره کرد که وابستگی کاربران به مدل‌های قبلی به دلیل نقش تأییدکننده ChatGPT بوده و برای برخی افرادی که حمایت عاطفی کافی نداشته‌اند، این ابزار رابطه‌ای احساسی ایجاد کرده است.

پیوندها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *