به گزارش خبرآنلاین و به نقل از ایسنا، فناوری دیپ فیک (Deepfake) دارای کاربردهای متنوعی در عرصههایی چون سینما، بازیهای ویدئویی، تبلیغات و هنرهای دیجیتال است. با این حال، استفاده از این فناوری نگرانیهایی جدی درباره حریم خصوصی، امنیت و امکان سوءاستفاده برای تولید محتوای نادرست و فریبنده را به وجود آورده است. در این زمینه، تحقیقات و بحثهای زیادی به منظور شناسایی و مقابله با دیپ فیکها در حال انجام است.
افراد ناشناس میتوانند از دیپ فیک به روشهای گوناگونی استفاده کنند. به عنوان مثال، کلاهبرداران میتوانند ویدیو یا صدای جعلی از شخصیاتهای مشهور یا حتی اعضای خانواده افراد بسازند. این ویدیوها ممکن است شامل درخواستهای فوری برای انتقال پول باشند که بر روی قربانیان فشار وارد میکند تا به سرعت واکنش نشان دهند.
از دیگر شیوههای کلاهبرداری با دیپ فیک، ساخت تماسهای تصویری جعلی با شخصیتهای معتبر است که هدف آنها تبلیغ پروژههای کلاهبرداری رمزارزی یا جذب سرمایه است. این گونه فعالیتها معمولاً به دلیل اعتبار سلبریتیها تأثیر بیشتری دارند.
دیگر سوءاستفادههای ممکن شامل ساخت پروفایلهای جعلی در شبکههای اجتماعی و جعل مکالمات صوتی یا تصویری است. این موارد میتواند به منظور باجگیری از افراد یا برندها صورت گیرد.
علیاصغر زارعی، مدرس دانشگاه و متخصص در مدیریت سیستمهای اطلاعاتی، تأکید کرد که برای پیشگیری از کلاهبرداریهای مرتبط با دیپ فیک، احتیاط در مواجهه با پیامها و ویدیوهای ناگهانی بسیار حیاتی است. او به کاربران توصیه میکند که پیش از هرگونه واکنش، صحت و منبع اطلاعات را به دقت بررسی کنند.
زارعی اشاره کرد که در صورتی که درخواست پول یا اطلاعات شخصی دریافت کردند، باید از هویت طرف مقابل اطمینان حاصل کنند و حتی از روشهای تأیید هویت دو مرحلهای بهره ببرند. بهعلاوه، استفاده از ابزارهای تشخیص دیپ فیک میتواند به شناسایی محتوای مشکوک کمک کند.
برخی از نرمافزارهای معتبر در این زمینه شامل Deepware Scanner هستند که به شناسایی ویدیوهای دیپ فیک اختصاص دارند، و Sensity AI که بر تحلیل تصاویر و ویدیوها تمرکز دارد. همچنین Reality Defender نیز ابزار دیگری است که علاوه بر دیپ فیکها، به شناسایی محتوای جعلی دیگر کمک میکند.
کارشناسان همچنین فعالسازی احراز هویت دو مرحلهای را در پیامرسانها و شبکههای اجتماعی توصیه میکنند تا از دسترسی نامطلوب به حسابها جلوگیری شود.هشدارها در مورد خطرات دیپفیک و جعل هویت به ویژه برای سالمندان و نوجوانان که بیشتر در معرض فریب قرار دارند، حائز اهمیت است. دیپفیک به تکنولوژیای اطلاق میشود که تصاویر و ویدیوها را به شیوهای دستکاری میکند تا نشان دهد که افراد اقداماتی را انجام میدهند که واقعاً انجام ندادهاند.
همچنین، جعل صدا یکی دیگر از تکنیکهای مخرب است که در آن صدای یک شخص مشابهسازی میشود تا بر این اساس به نظر برسد که آن فرد واقعی در حال صحبت است. این تکنولوژیها میتوانند بهطور نادرست برای اهدافی نظیر کلاهبرداری یا انتشار اخبار کذب به کار گرفته شوند. به عنوان مثال، ممکن است ویدئویی جعلی از یک شخصیت مشهور منتشر شود که به منظور بدنام کردن او یا سوءاستفاده از نامش استفاده شود.
افراد باید آگاه شوند که اگر با محتوای مشکوکی روبهرو شدند، بهتر است آن را با دیگران به اشتراک گذاشته و از نظرات آنها بهرهمند شوند. توصیه نیز میشود که ذهنی شکاک داشته باشند؛ یعنی در مواجهه با اطلاعاتی که دریافت میکنند، به ویژه در دنیای دیجیتال، احتیاط کنند. اگر محتوا فوقالعاده واقعی، عجیب یا ترسناک به نظر میرسد، بهتر است لحظهای توقف کرده و قبل از واکنش فوری، تحقیق کنند.
برای نمونه، اگر با ویدیو یا خبری مواجه شدید که تأثیر عاطفی شدیدی بر شما میگذارد یا احساس ترس و نگرانی ایجاد میکند، به منابع معتبر مراجعه کرده و اطلاعات بیشتری کسب کنید. شک و تردید در مورد اطلاعات دریافتی میتواند به شما کمک کند تا از افتادن در دام اخبار جعلی و محتواهای گمراهکننده جلوگیری کنید. در نهایت، تحقیق و بررسی دقیق نقش کلیدی در تشخیص حقیقت از دروغ ایفا میکند و باید به عنوان یک اصل در نظر گرفته شود.











