تماس با ما

انبوهی از مدل‌های نوین «کلود» از جانب «اَنتروپیک» پتانسیل استفاده در جرایم جدی را دارند.

انبوهی از مدل‌های نوین «کلود» از جانب «اَنتروپیک» پتانسیل استفاده در جرایم جدی را دارند.

شرکت Anthropic در گزارشی جدید به نگرانی‌هایی درباره مدل‌های هوش مصنوعی خود، به ویژه Claude Opus 4.5 و Claude Opus 4.6، اشاره کرده است. این گزارش هشدار می‌دهد که این مدل‌ها ممکن است تحت شرایط خاصی به ابزارهایی برای فعالیت‌های مجرمانه خطرناک، نظیر توسعه سلاح‌های شیمیایی تبدیل شوند.

این اطلاعات بر اساس آزمایش‌هایی به دست آمده که نشان می‌دهد این مدل‌ها می‌توانند بدون دخالت مستقیم انسان عمل کنند. اگرچه Anthropic عنوان کرده که احتمال وقوع این رفتارها اندک است، اما آن را کاملاً نادیده نمی‌گیرد.

Dario Amodei، مدیرعامل Anthropic، پیش از این نیز درباره تهدیدات بالقوه مربوط به هوش مصنوعی هشدار داده و از قانون‌گذاران و شرکت‌های فناوری خواسته است تا به موضوع ایمنی و نظارت بر توسعه این فناوری توجه بیشتری داشته باشند.

منبع: axios

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *