سرور مجازی
فناوری

دیپ‌فیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵

دیپ‌فیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵

جهان در سال ۲۰۲۵ وارد مرحله‌ای تازه از «فریب دیجیتال» شده است؛ مرحله‌ای که در آن فناوری دیپ‌فیک با جهشی فراتر از انتظارها، به سطحی بی‌سابقه از پیشرفت دست یافته است. هم‌زمان با سرازیر شدن میلیون‌ها ویدیوی جعلی به فضای مجازی، دقت شبیه‌سازی چهره، تُن صدا و حتی حرکات بدن به حدی از واقع‌گرایی رسیده که تشخیص محتوای واقعی از جعلی را در بسیاری از موارد عملاً ناممکن کرده است.

به گزارش دیتاسنتر من، تماس‌های ویدیویی با کیفیت پایین و محتوایی که از طریق شبکه‌های اجتماعی منتشر می‌شود، به یکی از پرریسک‌ترین بسترها برای گسترش این فناوری تبدیل شده‌اند؛ زیرا محتوای تولیدشده با هوش مصنوعی توانسته است هم کاربران عادی و هم نهادها و سازمان‌های بزرگ را با موفقیت فریب دهد.

این تحول تنها به بهبود کیفیت محدود نمانده و از نظر کمّی نیز ابعاد نگران‌کننده‌ای پیدا کرده است. بر اساس برآوردهای شرکت امنیت سایبری «دیپ‌استرایک»، تعداد ویدیوهای جعلی از حدود ۵۰۰ هزار مورد در سال ۲۰۲۳ به نزدیک ۸ میلیون ویدیو در سال ۲۰۲۵ خواهد رسید؛ رشدی سالانه در حدود ۹۰۰ درصد. همچنین پیش‌بینی می‌شود این روند در سال ۲۰۲۶ نیز شتاب بیشتری بگیرد؛ به‌ویژه با ظهور مدل‌هایی که توانایی تعامل در زمان واقعی را دارند.

 

دیپ‌فیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵

 

تحولات بنیادین

این جهش چشمگیر به پیشرفت‌های اساسی در مدل‌های تولید ویدیو نسبت داده می‌شود؛ مدل‌هایی که اکنون قادرند ثبات زمانی را حفظ کنند، حرکاتی منسجم ارائه دهند و هویت‌های ثابت را از فریمی به فریم دیگر نگه دارند. در این میان، نمایش هویت از حرکت جدا شده است؛ به‌گونه‌ای که یک الگوی حرکتی می‌تواند با هویت‌های مختلف ترکیب شود یا یک هویت، الگوهای حرکتی متنوعی داشته باشد. هم‌زمان، نشانه‌های بصری که پیش‌تر جعل را آشکار می‌کردند (مانند پلک زدن‌های غیرطبیعی یا اعوجاج اطراف چشم‌ها و خط فک) تا حد زیادی ناپدید شده‌اند.

در حوزه صدا نیز فناوری‌های شبیه‌سازی از «آستانه تمایز» عبور کرده‌اند. اکنون تنها چند ثانیه ضبط صدا کافی است تا الگوریتم‌ها صدایی قانع‌کننده با لحن، ریتم، تأکید و احساسات طبیعی تولید کنند؛ قابلیتی که راه را برای کلاهبرداری‌های گسترده و سازمان‌یافته هموار کرده است.

ابزارهای در دسترس عموم نیز نقش مهمی در تسریع این روند داشته‌اند. به‌روزرسانی‌های نرم‌افزار Sora 2 متعلق به شرکت OpenAI و Veo 3 گوگل، در کنار ظهور موجی از استارت‌آپ‌ها، این امکان را فراهم کرده‌اند که هر فردی تنها با توصیف یک ایده، از یک مدل زبانی بزرگ مانند چت‌جی‌پی‌تی یا جمینای برای نگارش سناریو استفاده کند و سپس در عرض چند دقیقه به محتوای صوتی و تصویری تقریباً بی‌نقص دست یابد. به این ترتیب، تولید ویدیوهای جعلی منسجم و روایی در مقیاسی وسیع، عملاً برای همگان ممکن شده است.

ترکیب حجم انبوه محتوا با واقع‌گرایی پیشرفته، فضایی را ایجاد کرده که در آن شناسایی دیپ‌فیک‌ها به‌شدت دشوار شده است؛ به‌ویژه از آن‌جا که سرعت انتشار محتوا بسیار بیشتر از فرایندهای راستی‌آزمایی است. پیامد این وضعیت، افزایش آسیب‌هایی مانند آزار و اذیت، گسترش اطلاعات نادرست و کلاهبرداری‌های پیچیده است.

 

دیپ‌فیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵

 

گام بعدی؛ پخش فوری ویدیو

فناوری دیپ‌فیک اکنون به سمت تولید ویدیوهای آنی حرکت می‌کند؛ ویدیوهایی که در سال ۲۰۲۶ قادر خواهند بود جزئیات ظاهری و رفتاری انسان را با دقتی بالا تقلید کنند و فرایند تشخیص را بیش از پیش پیچیده سازند. مدل‌های هویتی نیز در حال تکامل‌ هستند تا ظاهر، صدا، گفتار و حرکات یک فرد را در زمینه‌های مختلف به‌صورت یکپارچه بازسازی کنند؛ تحولی که گذار از شباهت صرفاً بصری به تطابق رفتاری در طول زمان را رقم می‌زند.

با توسعه این قابلیت‌ها، فاصله شناختی میان رسانه‌های مصنوعی و محتوای تولیدشده توسط انسان بیش از پیش کاهش خواهد یافت. در چنین شرایطی، راهکارهای دفاعی مؤثر ناگزیر از تکیه صرف بر قضاوت انسانی فاصله می‌گیرند و به سمت حفاظت از زیرساخت‌ها حرکت می‌کنند؛ از جمله تأیید منبع محتوا با استفاده از امضاهای رمزنگاری‌شده، بهره‌گیری از استانداردهای اعتبارسنجی منبع و به‌کارگیری ابزارهای تحلیل پزشکی قانونی چندرسانه‌ای مانند «Deep Fake-o-Meter».

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا