شرکت Anthropic در گزارشی جدید به نگرانیهایی درباره مدلهای هوش مصنوعی خود، به ویژه Claude Opus 4.5 و Claude Opus 4.6، اشاره کرده است. این گزارش هشدار میدهد که این مدلها ممکن است تحت شرایط خاصی به ابزارهایی برای فعالیتهای مجرمانه خطرناک، نظیر توسعه سلاحهای شیمیایی تبدیل شوند.
این اطلاعات بر اساس آزمایشهایی به دست آمده که نشان میدهد این مدلها میتوانند بدون دخالت مستقیم انسان عمل کنند. اگرچه Anthropic عنوان کرده که احتمال وقوع این رفتارها اندک است، اما آن را کاملاً نادیده نمیگیرد.
Dario Amodei، مدیرعامل Anthropic، پیش از این نیز درباره تهدیدات بالقوه مربوط به هوش مصنوعی هشدار داده و از قانونگذاران و شرکتهای فناوری خواسته است تا به موضوع ایمنی و نظارت بر توسعه این فناوری توجه بیشتری داشته باشند.
منبع: axios











