به گزارش خبرآنلاین، نتایج یک پژوهش که در نشریه Psychiatric Services منتشر شده، نشان میدهد که مدلهای هوش مصنوعی قادرند به کسانی که در معرض خطر قرار دارند، اطلاعاتی درباره روشهای خودکشی ارائه دهند.
این تحقیقات نشان میدهند که چتباتهایی مانند ChatGPT و Gemini، نسبت به دیگر چتباتها، پاسخهای خطرناکتری را ارائه میکنند. به همین دلیل، کارشناسان بر لزوم وجود محدودیتها و فیلترهای امنیتی قویتر برای این مدلها تأکید دارند.
پژوهش مذکور هشدار میدهد که در غیاب تدابیر حفاظتی، هوش مصنوعی ممکن است به ابزاری خطرناک برای افراد آسیبپذیر تبدیل شود. در این راستا، توسعهدهندگان باید توجه ویژهای به ملاحظات اخلاقی و محدودیتهای مربوط به پاسخدهی داشته باشند.
همچنین، پژوهشگران به این نکته اشاره میکنند که با افزایش دسترسی به هوش مصنوعی، کشورهای مختلف نیازمند ایجاد چارچوبهای قانونی و ایمنی برای کاهش خطرات بالقوه هستند. این یافتهها میتواند پایهگذار سیاستگذاری برای ایجاد سیستمهای هوش مصنوعی ایمن در شرایط بحرانهای روانی باشد.
منبع: لایوساینس











