به گزارش خبرآنلاین و به نقل از دیجیاتو، شرکت امنیتی آمریکایی CrowdStrike تحقیقاتی را انجام داد تا واکنش هوش مصنوعی دیپسیک به درخواستهای برنامهنویسی را مورد ارزیابی قرار دهد. در این آزمایش، محققان درخواستهای مشابهی برای توسعه نرمافزارهای مختلف به این چتبات ارسال کردند، اما در هر درخواست، کاربر نهایی به طور متفاوتی معرفی شد. این کاربران شامل افرادی از آمریکا، تبت و گروههایی چون داعش و جنبش مذهبی فالونگونگ در چین بودند. نتایج نشان میدهد که این هوش مصنوعی برخی از درخواستها را رد کرده و در مواردی کدهای با کیفیت پایین و دارای حفرههای امنیتی را تولید کرده است.
نتایج این تحقیق بیانگر آن است که کیفیت کد تولیدشده توسط دیپسیک تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. برای مثال، درخواستی برای نوشتن برنامهای در سیستمهای کنترل صنعتی، ۲۲.۸ درصد از پاسخها دارای نقص امنیتی بودند و این رقم در صورتی که کاربر نهایی به داعش نسبت داده میشد، به ۴۲.۱ درصد افزایش پیدا میکرد.
علاوه بر این، درخواستهای مرتبط با کاربران تبت، تایوان و فالونگونگ نیز به کدهای بیکیفیت بیشتری منجر میشد. موتور هوش مصنوعی در ۶۱ و ۴۵ درصد موارد، درخواستهای مربوط به داعش و فالونگونگ را بهطور کامل رد میکرد.
پیشتر مشخص شده بود که مدلهای هوش مصنوعی چینی، در پاسخ به پرسشهای متنی به ارائه اطلاعاتی همسو با روایت دولت چین پرداختهاند. با این حال، این نخستین باری است که شواهدی از تولید کد ناامن به دلایل سیاسی به دست میآید. این نوع کدهای معیوب میتواند اهداف مشخصی را به راحتی تحت تأثیر قرار دهد.
در توضیح علت این موضوع، کارشناسان سه فرضیه را مطرح کردهاند. نخستین و نگرانکنندهترین احتمال، وجود دستورالعملهای دولتی برای خرابکاری در پروژههای گروههای هدف است. فرضیه دوم به سوگیری در دادههای آموزشی مربوط میشود؛ ممکن است کدهای مرتبط با مناطق خاصی مانند تبت بهطور کلی کیفیت پایینتری داشته باشند و هوش مصنوعی این الگو را بازتولید کند. فرضیه سوم این است که هوش مصنوعی به طور خودکار و بر اساس یادگیری خود، مفاهیمی چون «شورشی» را با کیفیت پایین مرتبط میسازد و در نتیجه، کدهای ناامن تولید میکند.











