به گزارش خبرآنلاین، در روزهای اخیر، نقش هوش مصنوعی در تحولات نظامی آمریکا در مواجهه با ایران به موضوعی داغ تبدیل شده است. سوالی که مطرح میشود این است که این فناوری تا چه اندازه بر این وقایع اثرگذار بوده و آیا میتوان آن را به سلاحی تبدیل شده دانست و راههای کنترل آن چگونه است.
به نقل از ایسنا، راس دوتهات، نویسنده نیویورک تایمز، در تحلیلی اشاره کرده که در دوران جنگ سرد، نگرانیهای زیادی درباره خطرات نظامی وجود داشت و هوش مصنوعی نیز به این اضطرابها دامن میزد. نمونهها و تصورات الهامگرفته شده از فیلمهای علمی-تخیلی در این زمینه، نشاندهنده تاثیرات این فناوری بر افکار عمومی بودند. طی سالهای اخیر، پیشرفتهای فنی در عرصه هوش مصنوعی قدرت را به دستان شرکتهایی خاص سپرده و نگرانیها از جاهطلبیهای آنها را افزایش داده است.
نقطه عطفی در این زمینه، تضادهایی است که میان وزارت دفاع آمریکا و شرکت آنتروپیک بر سر به کارگیری هوش مصنوعی ایجاد شده است. بحث بر سر این است که آیا مدلهای هوش مصنوعی باید به محدودیتهای اخلاقی شرکت پایبند بمانند یا به راحتی در دسترس پنتاگون قرار گیرند.
با وجود این که آنتروپیک در قراردادهای اولیه خود به صراحت استفاده از هوش مصنوعی برای نظارت جمعی و سلاحهای خودکار را رد کرده است، اما درخواستهای پنتاگون به نوعی نگرانی نسبت به سناریوهای فاجعهبار را تداعی میکند. مت یگلسیاس، یک روزنامهنگار آمریکایی، نیز به این موضوع پرداخته و تاکید میکند که در صورت تصمیم دولت برای ساخت رباتهای خودکار، سناریوهای پیچیده مخالفان، به راحتی اجرایی خواهند شد.
پنتاگون هرچند به صراحت به دنبال استفاده از این فناوری نیست، اما نگرانیها وجود دارد که حق تصمیمگیری اخلاقی درباره فناوریهای حساس به یک شرکت خصوصی واگذار شود. این روند میتواند خطراتی جدی به دنبال داشته باشد و در صورت عدم هماهنگی با سیاستهای دولتی، فاجعهآفرین باشد.
به دنبال اختلافات پدید آمده، مشخص شده که از مدل هوش مصنوعی “کلود” آنتروپیک در یکی از عملیاتهای نظامی علیه ایران استفاده شده است. در پی این استفاده، دونالد ترامپ به سازمانهای فدرال دستور داده تا تمام محصولات این شرکت را متوقف کنند و وزیر دفاع آمریکا آن را تهدیدی برای زنجیره تأمین معرفی کرده است.
در نهایت، لورن کان، تحلیلگر ارشد در مرکز امنیت و فناوریهای نوظهور، تأکید کرده که هیچیک از طرفها در این دعوا پیروز نخواهند بود و نتایج آن به ضرر همگان خواهد بود. وی همچنین افزود که اقدامات پنتاگون نشان از یک تغییر اساسی دارد و در حال حاضر این نهاد به جای کنترل فناوری، به استفاده از آن در قالب همکاری با شرکتهای خصوصی روی آورده است. دریاسالار لورین سلبی نیز به تاریخچهای اشاره کرده که در آن دولت آمریکا خود مسئولیت پیشبرد فناوریهای نوین را به عهده داشته و صنعت تنها نقش اجرایی ایفا میکرده است.در حال حاضر، بخش تجاری به عنوان نیروی محرکه اصلی قابلیتهای پیشرفته شناخته میشود. سرمایهگذاریهای خصوصی، رقابتهای جهانی و حجم بالای دادههای تجاری، باعث رشد سریع هوش مصنوعی شدهاند به گونهای که ساختارهای سنتی تحقیقات و توسعه دولتی قادر به همگام شدن با آن نیستند. در این راستا، وزارت دفاع آمریکا دیگر تنها مرزهای فنی هوش مصنوعی را تعیین نمیکند، بلکه خود را با تحولات جدید هماهنگ میسازد.
این تغییر در توزیع قدرت در عرصه فناوری، فرصتها و چالشهای متعددی را ایجاد کرده است.
### نیاز ارتش آمریکا به هوش مصنوعی شرکتهای خصوصی
شراکتهای بین دولت و بخش خصوصی همواره از پیشرفتهای دفاعی آمریکا حمایت کردهاند، اما در زمینه هوش مصنوعی، قابلیتهای پیشرفته به تدریج در شرکتهای تجاری به جای آزمایشگاههای دولتی متمرکز شده است.
این موضوع نگرانیهایی را به همراه داشته است. بتسی کوپر، مدیر آکادمی سیاستگذاری آسپن و مشاور سابق وزارت امنیت داخلی آمریکا، اذعان کرده است که زمانی که فناوریهای حیاتی امنیت ملی توسط شرکتهای خصوصی توسعه مییابند، دولت دیگر کنترل کاملی بر پیشرفت این فناوریها ندارد.
بسیاری از شرکتهای فعال در حوزه هوش مصنوعی نگران تسلط دولت بر فناوریهای خود جهت نظارت داخلی و مقاصد خارجی هستند. کشمکشهای اخیر میان پنتاگون و شرکت آنتروپیک بر سر مدلهای هوش مصنوعی نیز نشاندهنده همین نگرانیهاست.
به نظر میرسد که رهبران دفاعی آمریکا تمایل دارند کنترل بر سیستمهای حیاتی را از دست ندهند. برد هریسون، بنیانگذار شرکت «Scout Ventures»، که در زمینه سرمایهگذاری در فناوریهای حیاتی و امنیت ملی فعالیت میکند، تأکید کرده است که وزارت دفاع آمریکا قصد ندارد کنترل نهایی بر توسعه فناوریها را relinquish کند، زیرا هنوز نیاز دارد تا تمام وابستگیها و خطرات موجود را درک کند.
این تمایل به کنترل ممکن است عواقبی به همراه داشته باشد. سلبی در این باره گفته است که اگر بتوانیم در روابط دولتی و خصوصی همسویی و انعطافپذیری ایجاد کنیم، میتوانیم از هوش مصنوعی برای تقویت امنیت ملی و حفظ نوآوری بهرهبرداری کنیم. اما در صورت شکست در این زمینه، آیندهای نامعلوم را خواهیم داشت.
بسیاری از کارشناسان بر این باورند که خطرات مربوط به استفاده از هوش مصنوعی در حوزه نظامی، به ویژه در شرایطی که سیستمها دچار خرابی یا عدم دسترسی میشوند، از اهمیت بالایی برخوردار است. این موضوع از آنجا ناشی میشود که نیروهای نظامی ممکن است به این فناوریها عادت کنند.
به گفته کارشناسان، کشمکش میان پنتاگون و آنتروپیک بر سر کنترل بر هوش مصنوعی، مثالی از چالشهای موجود در این حوزه است.











