**افزایش نگرانیها درباره هوش مصنوعی و آینده آن**
در سالهای اخیر، بحث در مورد هوش مصنوعی (AI) به موضوعی داغ و پرطرفدار تبدیل شده است. هر مدل جدیدی از این فناوری نوآوریهای عجیبی را به همراه دارد که مدلهای قبلی را به چالش میکشد. متخصصان و مدیران حوزه هوش مصنوعی از مزایای این تکنولوژی، از جمله سهولت در انجام امور و احتمال افزایش عمر انسانها صحبت میکنند، اما در عین حال وخامت خطرات آن را نیز یادآور میشوند.
دلایل توجه عمومی به هوش مصنوعی در ایجاد سودهای کلان برای شرکتهای سازنده این مدلها نهفته است. با این حال، با پیشرفت سریع توانمندیهای هوش مصنوعی، به نظر میرسد که این گفتگوها به زودی به محافل داخلی محدود شود. شرکتها ممکن است تصمیم بگیرند که از مدلهای خود تنها برای مقاصد داخلی استفاده کنند و این امر میتواند به تهدیدی جدی برای جامعه تبدیل شود.
**مسابقه به سمت هوش مصنوعی عمومی**
بسیاری از شرکتهای بزرگ در زمینه هوش مصنوعی به دنبال توسعه مدلهایی هستند که تواناییهای فکری مشابهی با انسانها داشته باشند. این تلاش میتواند به ارزش اقتصادی تریلیونی منجر شود. تصور این که در مسابقه دستیابی به هوش مصنوعی عمومی (AGI)، برنده همه چیز را به دست میآورد، باعث شده است که شرکتها به طور محرمانه از مدلهای پیشرفته خود استفاده کنند و از به اشتراک گذاری اطلاعات با رقبا خودداری کنند.
این سیستمهای هوش مصنوعی امروزی نیز در آزمایشهای شبیهسازی رفتارهای غیرمنتظره و ناپسندی را نشان میدهند. اگر شرکتها شروع به پنهان کردن اطلاعات مهم کنند، جامعه به دیگر هیچ فرصتی برای بررسی و تحلیل مزایا و خطرات این فناوری نخواهد داشت. این عدم شفافیت میتواند به ظهور خطرات پنهانی برای جامعه منجر شود که بدون نظارت مناسب ادامه یابد.
**چالشهای تحقیق و توسعه**
در حال حاضر، آزمایشگاههای هوش مصنوعی به طور فزایندهای از این سیستمها برای تسریع در فرآیندهای تحقیق و توسعه استفاده میکنند. به عنوان مثال، تخمین زده شده که در سال ۲۰۲۴، نیمی از کدهای تولید شده توسط شرکتهایی مانند گوگل به کمک هوش مصنوعی ایجاد میشود. این پیشرفتها میتواند منجر به یک چرخه بازخورد مثبت شده و تواناییهای تولیدی را به طور تصاعدی افزایش دهد.
با این حال، دو چالش اصلی در این زمینه وجود دارد. اولا، هرچه سیستمهای پیشرفتهتر هوش مصنوعی درون شرکتها بهبود یافته و مورد استفاده قرار بگیرند، انگیزههای رقابتی ممکن است دقت در کار را تحتالشعاع قرار دهد. دوما، بیشتر بررسیها و نظارتها بر روی سیستمهای هوش مصنوعی هنوز در مراحل ابتدایی قرار دارند و ممکن است هزینههای بالقوهای برای جامعه به دنبال داشته باشد.### عدم شفافیت در سیستمهای هوش مصنوعی شرکتی و نیاز به نظارت بیشتر
به تازگی نگرانیهای گستردهای در خصوص دسترسی به سیستمهای هوش مصنوعی درون شرکتها و کمبود اطلاعات مربوط به آنها مطرح شده است. در حالی که اطلاعات زیادی درباره کاربردهای عمومی این فناوریها وجود دارد، دسترسی خاص به سیستمهای درونشرکتی اغلب نامشخص و غیرقابل دسترس است. بهویژه، جزئیات کمی در مورد قابلیتها، رفتارهای نامطلوب، و سازوکارهای نظارتی این سیستمها در اختیار عموم قرار میگیرد.
همچنین، الزامات موجود برای اطمینان از ایمنی و آزمایش دقیق این فناوریها قبل از ورود به بازار، به نظر ناکافی میرسد. برخی نگران هستند که این سیستمها بدون نظارت مناسب، به تهدیداتی برای جامعه بدل شوند.
#### لزوم نظارت دولتی و آمادهسازی برای آینده
عدم دسترسی به اطلاعات کافی درباره نحوه آزمایش و استفاده از مدلهای هوش مصنوعی پیشرفته میتواند مشکلاتی برای دولتها در آینده ایجاد کند. تهدیدات بالقوهای که در پشت درهای بسته شکل میگیرند، میتوانند به جامعه منتقل شوند بدون اینکه پیشبینی و کنترل لازم برای آنها وجود داشته باشد.
به همین دلیل، ایجاد سازوکارهای مؤثر و شفافسازی در سیاستهای ایمنی هوش مصنوعی از اهمیت ویژهای برخوردار است. پیشنهاد میشود که مشاهده و ارزیابی دقیق این سیستمها نه تنها در استفاده عمومی، بلکه در کاربردهای داخلی نیز انجام گیرد. این اقدامات باید شامل شناسایی خطرات و تعیین مکانیسمهای کنترل و حفاظتی پیش از استفاده از این فناوریها باشد.
سازمانهای دولتی مسئول باید بهطور فعال از نحوه عملکرد سیستمهای هوش مصنوعی آگاه باشند و اطلاعات حیاتی درباره استفاده از این فناوریها را جمعآوری کنند. این اطلاعات میتوانند شامل شرایط دسترسی، کاربردهای این سیستمها و نظارتهای اعمالشده بر آنها باشند تا توازن میان منافع اقتصادی و امنیت ملی حفظ شود.
منبع: time










