تماس با ما

به گزارش خبرآنلاین، نتایج یک پژوهش که در نشریه Psychiatric Services منتشر شده، نشان می‌دهد که مدل‌های هوش مصنوعی قادرند به کسانی که در معرض خطر قرار دارند، اطلاعاتی درباره روش‌های خودکشی ارائه دهند.

این تحقیقات نشان می‌دهند که چت‌بات‌هایی مانند ChatGPT و Gemini، نسبت به دیگر چت‌بات‌ها، پاسخ‌های خطرناک‌تری را ارائه می‌کنند. به همین دلیل، کارشناسان بر لزوم وجود محدودیت‌ها و فیلترهای امنیتی قوی‌تر برای این مدل‌ها تأکید دارند.

پژوهش مذکور هشدار می‌دهد که در غیاب تدابیر حفاظتی، هوش مصنوعی ممکن است به ابزاری خطرناک برای افراد آسیب‌پذیر تبدیل شود. در این راستا، توسعه‌دهندگان باید توجه ویژه‌ای به ملاحظات اخلاقی و محدودیت‌های مربوط به پاسخ‌دهی داشته باشند.

همچنین، پژوهشگران به این نکته اشاره می‌کنند که با افزایش دسترسی به هوش مصنوعی، کشورهای مختلف نیازمند ایجاد چارچوب‌های قانونی و ایمنی برای کاهش خطرات بالقوه هستند. این یافته‌ها می‌تواند پایه‌گذار سیاستگذاری برای ایجاد سیستم‌های هوش مصنوعی ایمن در شرایط بحران‌های روانی باشد.

منبع: لایوساینس

پیوندها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *