تماس با ما

تحقیقات جدید نشان‌دهنده ایجاد یکی از کارآمدترین شیوه‌های دفاعی در مقابله با چالش‌های ناشی از هوش مصنوعی هستند. این اقدام به‌ویژه در راستای جلوگیری از فریب‌های ناشی از صدای جعلی اهمیت دارد. در ادامه، روش‌هایی برای شناسایی و اجتناب از این نوع خطرات مورد بررسی قرار گرفته است.

تحقیقات جدید نشان‌دهنده ایجاد یکی از کارآمدترین شیوه‌های دفاعی در مقابله با چالش‌های ناشی از هوش مصنوعی هستند. این اقدام به‌ویژه در راستای جلوگیری از فریب‌های ناشی از صدای جعلی اهمیت دارد. در ادامه، روش‌هایی برای شناسایی و اجتناب از این نوع خطرات مورد بررسی قرار گرفته است.

**توسعه فناوری پیشرفته برای شناسایی صدای جعلی در عصر کلاه‌برداری‌های اینترنتی**

در دنیای امروز که با افزایش کلاه‌برداری‌های آنلاین و هویت‌های جعلی مواجه هستیم، اعتماد به اطلاعات به یک چالش بزرگ تبدیل شده است. در گذشته، تنها گروهی از صداپیشگان ماهر قادر به تقلید دقیق صدا بودند، که این امر شانس کلاه‌برداری را کاهش می‌داد. اما با پیشرفت‌های فناوری، به‌ویژه در زمینه هوش مصنوعی، هر فردی می‌تواند به راحتی صدای جعلی تولید کند.

خبر خوش برای افرادی که نگران امنیت مالی و اجتماعی خود هستند، معرفی فناوری جدیدی به نام «تمرین با نمونه‌گیری آگاهانه از داده‌های کمکی» (RAIS) است. این سیستم توانایی تشخیص صداهای واقعی و جعلی را داراست و با توسعه‌های مداوم هوش مصنوعی، کارایی خود را حفظ می‌کند.

تحقیقات اخیر که در کنفرانس بین‌المللی Interspeech ارائه شده است، به همت محققان سازمان علمی ملی استرالیا (CSIRO)، دانشگاه فدریشن استرالیا و دانشگاه RMIT انجام شده و راه‌حلی نوین برای مبارزه با جعل دیجیتالی ارائه می‌دهد. این نوع جعل‌ها به‌منظور دور زدن سیستم‌های احراز هویت صوتی و تولید اطلاعات نادرست استفاده می‌شوند.

به دلیل تهدیدات مداوم ناشی از هوش مصنوعی، محققان به دنبال توسعه سیستم‌های شناسایی هستند که قادر به شناسایی دیپ‌فیک‌های تازه بدون نیاز به آموزش مجدد از صفر باشند. روش‌های کنونی شبیه‌سازی صدا از تنوع کافی برخوردار نیستند و همین موضوع می‌تواند منجر به حذف اطلاعات حیاتی شود.

RAIS با استفاده از فناوری‌های نوین، نمونه‌های متنوع‌تری از صداها را برای آموزش انتخاب می‌کند و به این ترتیب توانایی تشخیص آن‌ها را افزایش می‌دهد. نتایج اولیه نشان می‌دهد که این سیستم نرخ خطای میانگین ۱.۹۵۳ درصدی را در پنج آزمایش تجربه کرده است، که نشان‌دهنده قابلیت اعتماد بالا است.

این سیستم به‌طور خودکار مجموعه‌ای از نمونه‌های متنوع گذشته را که شامل ویژگی‌های نامحسوس صدا هستند، ذخیره می‌کند و این امر به هوش مصنوعی کمک می‌کند تا سبک‌های جدید جعل صدا را یاد بگیرد بدون اینکه اطلاعات قبلی را فراموش کند.

در حال حاضر، ویدیوهای دیپ‌فیک به قدری واقعی به‌نظر می‌رسند که حتی افراد محتاط نیز گاهی فریب می‌خورند. مطالعات اخیر نشان می‌دهد که صداهای شبیه‌سازی‌شده نسبت به اطلاعات نادرست متنی، واکنش‌های احساسی قوی‌تری ایجاد می‌کنند، که این مساله به نوبه خود می‌تواند خطرات جدیدی برای جامعه به همراه داشته باشد.در هفته‌های اخیر، استفاده از تکنولوژی‌های جعل صوتی در سیاست و کسب‌وکار به یک نگرانی جدی تبدیل شده است. یکی از نمونه‌های بارز این تهدید، تلاش برای ترغیب مردم به عدم شرکت در انتخابات است. اگر فردی آشنا به شما بگوید رأی ندهید، آیا به صحت این ادعا شک می‌کنید؟

یکی دیگر از موارد قابل توجه مربوط به مارک رید، مدیرعامل WPP است. کلاهبرداران با جعل صدای او و ایجاد حسابی در مایکروسافت تیمز، در تلاش بودند تا از طریق یک جلسه آنلاین یک کسب‌وکار جعلی راه‌اندازی کنند و به اطلاعات حساسی دست یابند. گرچه در این مورد موفق نشدند، اما گروهی در ایتالیا با جعل صدای وزیر دفاع دست به اخاذی یک میلیون یورو از برخی رهبران کسب‌وکار زدند.

در عرصه سیاسی نیز، علاوه بر بایدن، ایلان ماسک ویدیویی از کامالا هریس را بدون توضیح منتشر کرد که به شدت تحریف شده بود. این اقدام بر خلاف قوانین پلتفرمی بود که خود آن را مدیریت می‌کند. مشابه این حملات در انتخابات کشورهای بنگلادش، مجارستان و اسلواکی نیز مشاهده شده است. به عنوان مثال، در انتخابات ۲۰۲۳ اسلواکی، فایل‌های صوتی جعلی از میخال شیمچکا فقط چند روز پیش از رأی‌گیری به شکل ویروسی پخش شد.

سازمان AICompetence هشدار می‌دهد که خطر واقعی دروغ‌ها نیست، بلکه از بین رفتن اعتماد مردم به حقیقت است. به گفته آن‌ها، هرچه آگاهی عمومی از تکنولوژی دیپ‌فیک افزایش یابد، سیاستمداران ممکن است رسوایی‌های واقعی را به دروغ‌های ساختگی نسبت دهند. همچنین، دانیل سیتترون، استاد حقوق، تأکید کرد که تهدید اصلی دیپ‌فیک این نیست که مردم اطلاعات نادرست را باور کنند، بلکه این است که به درستی‌ها نیز شک کنند.

منبع: newatlas

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *