تماس با ما

به گزارش خبرآنلاین، در روزهای اخیر، نقش هوش مصنوعی در تحولات نظامی آمریکا در مواجهه با ایران به موضوعی داغ تبدیل شده است. سوالی که مطرح می‌شود این است که این فناوری تا چه اندازه بر این وقایع اثرگذار بوده و آیا می‌توان آن را به سلاحی تبدیل شده دانست و راه‌های کنترل آن چگونه است.

به نقل از ایسنا، راس دوتهات، نویسنده نیویورک تایمز، در تحلیلی اشاره کرده که در دوران جنگ سرد، نگرانی‌های زیادی درباره خطرات نظامی وجود داشت و هوش مصنوعی نیز به این اضطراب‌ها دامن می‌زد. نمونه‌ها و تصورات الهام‌گرفته شده از فیلم‌های علمی-تخیلی در این زمینه، نشان‌دهنده تاثیرات این فناوری بر افکار عمومی بودند. طی سال‌های اخیر، پیشرفت‌های فنی در عرصه هوش مصنوعی قدرت را به دستان شرکت‌هایی خاص سپرده و نگرانی‌ها از جاه‌طلبی‌های آن‌ها را افزایش داده است.

نقطه عطفی در این زمینه، تضادهایی است که میان وزارت دفاع آمریکا و شرکت آنتروپیک بر سر به کارگیری هوش مصنوعی ایجاد شده است. بحث بر سر این است که آیا مدل‌های هوش مصنوعی باید به محدودیت‌های اخلاقی شرکت پایبند بمانند یا به راحتی در دسترس پنتاگون قرار گیرند.

با وجود این که آنتروپیک در قراردادهای اولیه خود به صراحت استفاده از هوش مصنوعی برای نظارت جمعی و سلاح‌های خودکار را رد کرده است، اما درخواست‌های پنتاگون به نوعی نگرانی نسبت به سناریوهای فاجعه‌بار را تداعی می‌کند. مت یگلسیاس، یک روزنامه‌نگار آمریکایی، نیز به این موضوع پرداخته و تاکید می‌کند که در صورت تصمیم دولت برای ساخت ربات‌های خودکار، سناریوهای پیچیده مخالفان، به راحتی اجرایی خواهند شد.

پنتاگون هرچند به صراحت به دنبال استفاده از این فناوری نیست، اما نگرانی‌ها وجود دارد که حق تصمیم‌گیری اخلاقی درباره فناوری‌های حساس به یک شرکت خصوصی واگذار شود. این روند می‌تواند خطراتی جدی به دنبال داشته باشد و در صورت عدم هماهنگی با سیاست‌های دولتی، فاجعه‌آفرین باشد.

به دنبال اختلافات پدید آمده، مشخص شده که از مدل هوش مصنوعی “کلود” آنتروپیک در یکی از عملیات‌های نظامی علیه ایران استفاده شده است. در پی این استفاده، دونالد ترامپ به سازمان‌های فدرال دستور داده تا تمام محصولات این شرکت را متوقف کنند و وزیر دفاع آمریکا آن را تهدیدی برای زنجیره تأمین معرفی کرده است.

در نهایت، لورن کان، تحلیلگر ارشد در مرکز امنیت و فناوری‌های نوظهور، تأکید کرده که هیچ‌یک از طرف‌ها در این دعوا پیروز نخواهند بود و نتایج آن به ضرر همگان خواهد بود. وی همچنین افزود که اقدامات پنتاگون نشان از یک تغییر اساسی دارد و در حال حاضر این نهاد به جای کنترل فناوری، به استفاده از آن در قالب همکاری با شرکت‌های خصوصی روی آورده است. دریاسالار لورین سلبی نیز به تاریخچه‌ای اشاره کرده که در آن دولت آمریکا خود مسئولیت پیشبرد فناوری‌های نوین را به عهده داشته و صنعت تنها نقش اجرایی ایفا می‌کرده است.در حال حاضر، بخش تجاری به عنوان نیروی محرکه اصلی قابلیت‌های پیشرفته شناخته می‌شود. سرمایه‌گذاری‌های خصوصی، رقابت‌های جهانی و حجم بالای داده‌های تجاری، باعث رشد سریع هوش مصنوعی شده‌اند به گونه‌ای که ساختارهای سنتی تحقیقات و توسعه دولتی قادر به همگام شدن با آن نیستند. در این راستا، وزارت دفاع آمریکا دیگر تنها مرزهای فنی هوش مصنوعی را تعیین نمی‌کند، بلکه خود را با تحولات جدید هماهنگ می‌سازد.

این تغییر در توزیع قدرت در عرصه فناوری، فرصت‌ها و چالش‌های متعددی را ایجاد کرده است.

### نیاز ارتش آمریکا به هوش مصنوعی شرکت‌های خصوصی

شراکت‌های بین دولت و بخش خصوصی همواره از پیشرفت‌های دفاعی آمریکا حمایت کرده‌اند، اما در زمینه هوش مصنوعی، قابلیت‌های پیشرفته به تدریج در شرکت‌های تجاری به جای آزمایشگاه‌های دولتی متمرکز شده است.

این موضوع نگرانی‌هایی را به همراه داشته است. بتسی کوپر، مدیر آکادمی سیاست‌گذاری آسپن و مشاور سابق وزارت امنیت داخلی آمریکا، اذعان کرده است که زمانی که فناوری‌های حیاتی امنیت ملی توسط شرکت‌های خصوصی توسعه می‌یابند، دولت دیگر کنترل کاملی بر پیشرفت این فناوری‌ها ندارد.

بسیاری از شرکت‌های فعال در حوزه هوش مصنوعی نگران تسلط دولت بر فناوری‌های خود جهت نظارت داخلی و مقاصد خارجی هستند. کشمکش‌های اخیر میان پنتاگون و شرکت آنتروپیک بر سر مدل‌های هوش مصنوعی نیز نشان‌دهنده همین نگرانی‌هاست.

به نظر می‌رسد که رهبران دفاعی آمریکا تمایل دارند کنترل بر سیستم‌های حیاتی را از دست ندهند. برد هریسون، بنیان‌گذار شرکت «Scout Ventures»، که در زمینه سرمایه‌گذاری در فناوری‌های حیاتی و امنیت ملی فعالیت می‌کند، تأکید کرده است که وزارت دفاع آمریکا قصد ندارد کنترل نهایی بر توسعه فناوری‌ها را relinquish کند، زیرا هنوز نیاز دارد تا تمام وابستگی‌ها و خطرات موجود را درک کند.

این تمایل به کنترل ممکن است عواقبی به همراه داشته باشد. سلبی در این باره گفته است که اگر بتوانیم در روابط دولتی و خصوصی همسویی و انعطاف‌پذیری ایجاد کنیم، می‌توانیم از هوش مصنوعی برای تقویت امنیت ملی و حفظ نوآوری بهره‌برداری کنیم. اما در صورت شکست در این زمینه، آینده‌ای نامعلوم را خواهیم داشت.

بسیاری از کارشناسان بر این باورند که خطرات مربوط به استفاده از هوش مصنوعی در حوزه نظامی، به ویژه در شرایطی که سیستم‌ها دچار خرابی یا عدم دسترسی می‌شوند، از اهمیت بالایی برخوردار است. این موضوع از آنجا ناشی می‌شود که نیروهای نظامی ممکن است به این فناوری‌ها عادت کنند.

به گفته کارشناسان، کشمکش میان پنتاگون و آنتروپیک بر سر کنترل بر هوش مصنوعی، مثالی از چالش‌های موجود در این حوزه است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *