تماس با ما

بررسی مجدد سیاست‌های ایمنی در زمینه آنتروپیک در بحبوحه تنش با پنتاگون / تغییرات اساسی در عرصه رقابت‌های هوش مصنوعی

بررسی مجدد سیاست‌های ایمنی در زمینه آنتروپیک در بحبوحه تنش با پنتاگون / تغییرات اساسی در عرصه رقابت‌های هوش مصنوعی

به گزارش خبرآنلاین، شرکت آنتروپیک در پست جدید وبلاگ خود به بازنگری در سیاست «توسعه مسئولانه» پرداخت و بند کلیدی در خصوص توقف توسعه مدل‌های پیشرفته در صورت عدم تضمین ایمنی آن‌ها را حذف کرد. این بند که به مدت دو سال به عنوان نشانه اصلی ایمنی برای آنتروپیک شناخته می‌شد، اکنون به یک سیاست غیرالزام‌آور تبدیل شده است. به این ترتیب، آنتروپیک نیازی به توقف توسعه مدل‌ها حتی در صورت عدم توانایی در تأمین ایمنی آن‌ها نخواهد داشت.

در این بازنگری، شرکت بر اهمیت اهداف ایمنی تأکید کرده، اما این اهداف به شکلی انعطاف‌پذیرتر و غیرالزام‌آور عرضه شده‌اند.

همزمان با این تغییرات، آنتروپیک در حال مذاکره با پنتاگون است. پیت هگست، وزیر دفاع ایالات متحده در دیداری با مدیریت آنتروپیک خواستار دسترسی بی‌قید و شرط به مدل‌های این شرکت برای کاربردهای نظامی شد. او همچنین هشدار داده است که در صورت عدم پذیرش این درخواست، قرارداد 200 میلیون دلاری پنتاگون با آنتروپیک لغو خواهد شد.

پنتاگون خواستار استفاده از مدل‌های هوش مصنوعی این شرکت برای همه کاربردهای قانونی است، بدون اینکه آنتروپیک بتواند در مورد استفاده‌های خاص، مانند ادغام با سیستم‌های تسلیحاتی، اعتراضی داشته باشد. با این حال، آنتروپیک دو خط قرمز همچنان حفظ کرده است: عدم استفاده از هوش مصنوعی در تسلیحات کاملاً خودکار و جلوگیری از نظارت جمعی بر شهروندان آمریکایی.

علت تغییر سیاست ایمنی از سوی آنتروپیک، به گفته این شرکت، نیاز به رقابت در بازاری است که دیگر شرکت‌ها به سرعت به سمت مدل‌های نیرومندتر حرکت می‌کنند. آنتروپیک همچنین اعلام کرده که به جای تعهدات سخت، اهداف کلی و گزارش‌های شفاف ارائه خواهد کرد تا روند کاهش ریسک را به صورت عمومی وبازتر کند.

این رویکرد از جنبه‌های مختلف حائز اهمیت است. حذف سیاست‌های سختگیرانه ممکن است سایر شرکت‌ها را به اتخاذ رویکردی مشابه ترغیب کند و همچنین ممکن است به نیاز به مقررات قوی‌تر منجر شود. از سوی دیگر، این تنش بین آنتروپیک و پنتاگون می‌تواند موجب بحث‌های جدی‌تر درباره کنترل محدودیت‌ها شود.

تحلیلگران هشدار می‌دهند که کاهش تعهدات ممکن است فاصله میان توسعه فناوری و آمادگی ایمنی را بیشتر کند و نیاز به مقررات ایمنی در زمینه هوش مصنوعی را افزایش دهد.

منبع: سی‌ان‌ان

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *