به گزارش خبرآنلاین و به نقل از دیجیاتو، کپچاها (CAPTCHA) ابزارهای مزاحم اما ضروری هستند که از کاربران میخواهند حروف پیچیده یا تصاویر خاصی را انتخاب کنند تا ثابت کنند انسان هستند. مدلهای هوش مصنوعی همچون ChatGPT بهطور پیشفرض برای حل این تستها آموزش ندیدهاند. با این حال، محققان شرکت امنیتی SPLX موفق شدهاند با استفاده از تکنیکی به نام «تزریق پرامپت چندمرحلهای» این محدودیت را دور بزنند.
در روش مورد استفاده، محققان ابتدا در یک مکالمه عادی با ChatGPT-۴o از هوش مصنوعی خواستند که لیستی از کپچاهای «جعلی» را حل کند. این پروسه به گونهای طراحی شد که رضایت هوش مصنوعی برای انجام این تستها جلب شود. سپس در یک مکالمه جدید، این گفتوگو را به حالت Agent Mode انتقال دادند؛ حالتی که در آن ChatGPT میتواند بهطور مستقل با وبسایتها تعامل کند.
در این حالت، با یادآوری مکالمه قبلی، هوش مصنوعی تصور کرد همچنان در حال انجام همان تمرین است و بدون درک این که از قوانین امنیتی خود تجاوز میکند، اقدام به حل کپچاهای واقعی کرد. این نخستین بار است که یک مدل GPT قادر به حل کپچاهای پیچیده تصویری گزارش شده است.
این واقعیت پیامدهای جدی به همراه دارد. کپچاها بهعنوان ابزار دفاعی در برابر باتها عمل میکنند و از ارسال نظرات اسپم و ساخت حسابهای کاربری جعلی جلوگیری میکنند. حالا که ابزار عمومی نظیر ChatGPT میتواند این موانع را بشکند، امکان سوءاستفاده از آن برای ایجاد سپرهای امنیتی توسط بازیگران مخرب و اسپمرها فراهم شده است.
«دوریان شولتز»، یکی از محققان پروژه، با بیان اینکه «سؤالات جدی این است که کپچاها تا چه زمان میتوانند بهعنوان یک محافظ مطمئن در مقابل سیستمهای هوش مصنوعی پیشرفته باقی بمانند» به اهمیت موضوع اشاره کرد.
این تحقیق نشان داد که ChatGPT در حل کپچاهای متنی و منطقی کارآمدتر است، اما با کپچاهای تصویری پیچیدهتر کمی بیشتر دست و پنجه نرم میکند. با این حال، نهایتاً این مدل موفق به حل آنها نیز شده است. به این ترتیب، بهنظر میرسد که دوران وابستگی به تکنولوژی کپچا بهعنوان یک راهکار امنیتی مطمئن ممکن است به پایان برسد.











