**توسعه فناوری پیشرفته برای شناسایی صدای جعلی در عصر کلاهبرداریهای اینترنتی**
در دنیای امروز که با افزایش کلاهبرداریهای آنلاین و هویتهای جعلی مواجه هستیم، اعتماد به اطلاعات به یک چالش بزرگ تبدیل شده است. در گذشته، تنها گروهی از صداپیشگان ماهر قادر به تقلید دقیق صدا بودند، که این امر شانس کلاهبرداری را کاهش میداد. اما با پیشرفتهای فناوری، بهویژه در زمینه هوش مصنوعی، هر فردی میتواند به راحتی صدای جعلی تولید کند.
خبر خوش برای افرادی که نگران امنیت مالی و اجتماعی خود هستند، معرفی فناوری جدیدی به نام «تمرین با نمونهگیری آگاهانه از دادههای کمکی» (RAIS) است. این سیستم توانایی تشخیص صداهای واقعی و جعلی را داراست و با توسعههای مداوم هوش مصنوعی، کارایی خود را حفظ میکند.
تحقیقات اخیر که در کنفرانس بینالمللی Interspeech ارائه شده است، به همت محققان سازمان علمی ملی استرالیا (CSIRO)، دانشگاه فدریشن استرالیا و دانشگاه RMIT انجام شده و راهحلی نوین برای مبارزه با جعل دیجیتالی ارائه میدهد. این نوع جعلها بهمنظور دور زدن سیستمهای احراز هویت صوتی و تولید اطلاعات نادرست استفاده میشوند.
به دلیل تهدیدات مداوم ناشی از هوش مصنوعی، محققان به دنبال توسعه سیستمهای شناسایی هستند که قادر به شناسایی دیپفیکهای تازه بدون نیاز به آموزش مجدد از صفر باشند. روشهای کنونی شبیهسازی صدا از تنوع کافی برخوردار نیستند و همین موضوع میتواند منجر به حذف اطلاعات حیاتی شود.
RAIS با استفاده از فناوریهای نوین، نمونههای متنوعتری از صداها را برای آموزش انتخاب میکند و به این ترتیب توانایی تشخیص آنها را افزایش میدهد. نتایج اولیه نشان میدهد که این سیستم نرخ خطای میانگین ۱.۹۵۳ درصدی را در پنج آزمایش تجربه کرده است، که نشاندهنده قابلیت اعتماد بالا است.
این سیستم بهطور خودکار مجموعهای از نمونههای متنوع گذشته را که شامل ویژگیهای نامحسوس صدا هستند، ذخیره میکند و این امر به هوش مصنوعی کمک میکند تا سبکهای جدید جعل صدا را یاد بگیرد بدون اینکه اطلاعات قبلی را فراموش کند.
در حال حاضر، ویدیوهای دیپفیک به قدری واقعی بهنظر میرسند که حتی افراد محتاط نیز گاهی فریب میخورند. مطالعات اخیر نشان میدهد که صداهای شبیهسازیشده نسبت به اطلاعات نادرست متنی، واکنشهای احساسی قویتری ایجاد میکنند، که این مساله به نوبه خود میتواند خطرات جدیدی برای جامعه به همراه داشته باشد.در هفتههای اخیر، استفاده از تکنولوژیهای جعل صوتی در سیاست و کسبوکار به یک نگرانی جدی تبدیل شده است. یکی از نمونههای بارز این تهدید، تلاش برای ترغیب مردم به عدم شرکت در انتخابات است. اگر فردی آشنا به شما بگوید رأی ندهید، آیا به صحت این ادعا شک میکنید؟
یکی دیگر از موارد قابل توجه مربوط به مارک رید، مدیرعامل WPP است. کلاهبرداران با جعل صدای او و ایجاد حسابی در مایکروسافت تیمز، در تلاش بودند تا از طریق یک جلسه آنلاین یک کسبوکار جعلی راهاندازی کنند و به اطلاعات حساسی دست یابند. گرچه در این مورد موفق نشدند، اما گروهی در ایتالیا با جعل صدای وزیر دفاع دست به اخاذی یک میلیون یورو از برخی رهبران کسبوکار زدند.
در عرصه سیاسی نیز، علاوه بر بایدن، ایلان ماسک ویدیویی از کامالا هریس را بدون توضیح منتشر کرد که به شدت تحریف شده بود. این اقدام بر خلاف قوانین پلتفرمی بود که خود آن را مدیریت میکند. مشابه این حملات در انتخابات کشورهای بنگلادش، مجارستان و اسلواکی نیز مشاهده شده است. به عنوان مثال، در انتخابات ۲۰۲۳ اسلواکی، فایلهای صوتی جعلی از میخال شیمچکا فقط چند روز پیش از رأیگیری به شکل ویروسی پخش شد.
سازمان AICompetence هشدار میدهد که خطر واقعی دروغها نیست، بلکه از بین رفتن اعتماد مردم به حقیقت است. به گفته آنها، هرچه آگاهی عمومی از تکنولوژی دیپفیک افزایش یابد، سیاستمداران ممکن است رسواییهای واقعی را به دروغهای ساختگی نسبت دهند. همچنین، دانیل سیتترون، استاد حقوق، تأکید کرد که تهدید اصلی دیپفیک این نیست که مردم اطلاعات نادرست را باور کنند، بلکه این است که به درستیها نیز شک کنند.
منبع: newatlas











