دیپفیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵

دیپفیک در آستانه انفجار؛ هشت میلیون ویدیوی جعلی در سال ۲۰۲۵
به گزارش دیتاسنتر من، تماسهای ویدیویی با کیفیت پایین و محتوایی که از طریق شبکههای اجتماعی منتشر میشود، به یکی از پرریسکترین بسترها برای گسترش این فناوری تبدیل شدهاند؛ زیرا محتوای تولیدشده با هوش مصنوعی توانسته است هم کاربران عادی و هم نهادها و سازمانهای بزرگ را با موفقیت فریب دهد.
این تحول تنها به بهبود کیفیت محدود نمانده و از نظر کمّی نیز ابعاد نگرانکنندهای پیدا کرده است. بر اساس برآوردهای شرکت امنیت سایبری «دیپاسترایک»، تعداد ویدیوهای جعلی از حدود ۵۰۰ هزار مورد در سال ۲۰۲۳ به نزدیک ۸ میلیون ویدیو در سال ۲۰۲۵ خواهد رسید؛ رشدی سالانه در حدود ۹۰۰ درصد. همچنین پیشبینی میشود این روند در سال ۲۰۲۶ نیز شتاب بیشتری بگیرد؛ بهویژه با ظهور مدلهایی که توانایی تعامل در زمان واقعی را دارند.
تحولات بنیادین
این جهش چشمگیر به پیشرفتهای اساسی در مدلهای تولید ویدیو نسبت داده میشود؛ مدلهایی که اکنون قادرند ثبات زمانی را حفظ کنند، حرکاتی منسجم ارائه دهند و هویتهای ثابت را از فریمی به فریم دیگر نگه دارند. در این میان، نمایش هویت از حرکت جدا شده است؛ بهگونهای که یک الگوی حرکتی میتواند با هویتهای مختلف ترکیب شود یا یک هویت، الگوهای حرکتی متنوعی داشته باشد. همزمان، نشانههای بصری که پیشتر جعل را آشکار میکردند (مانند پلک زدنهای غیرطبیعی یا اعوجاج اطراف چشمها و خط فک) تا حد زیادی ناپدید شدهاند.
در حوزه صدا نیز فناوریهای شبیهسازی از «آستانه تمایز» عبور کردهاند. اکنون تنها چند ثانیه ضبط صدا کافی است تا الگوریتمها صدایی قانعکننده با لحن، ریتم، تأکید و احساسات طبیعی تولید کنند؛ قابلیتی که راه را برای کلاهبرداریهای گسترده و سازمانیافته هموار کرده است.
ابزارهای در دسترس عموم نیز نقش مهمی در تسریع این روند داشتهاند. بهروزرسانیهای نرمافزار Sora 2 متعلق به شرکت OpenAI و Veo 3 گوگل، در کنار ظهور موجی از استارتآپها، این امکان را فراهم کردهاند که هر فردی تنها با توصیف یک ایده، از یک مدل زبانی بزرگ مانند چتجیپیتی یا جمینای برای نگارش سناریو استفاده کند و سپس در عرض چند دقیقه به محتوای صوتی و تصویری تقریباً بینقص دست یابد. به این ترتیب، تولید ویدیوهای جعلی منسجم و روایی در مقیاسی وسیع، عملاً برای همگان ممکن شده است.
ترکیب حجم انبوه محتوا با واقعگرایی پیشرفته، فضایی را ایجاد کرده که در آن شناسایی دیپفیکها بهشدت دشوار شده است؛ بهویژه از آنجا که سرعت انتشار محتوا بسیار بیشتر از فرایندهای راستیآزمایی است. پیامد این وضعیت، افزایش آسیبهایی مانند آزار و اذیت، گسترش اطلاعات نادرست و کلاهبرداریهای پیچیده است.
گام بعدی؛ پخش فوری ویدیو
فناوری دیپفیک اکنون به سمت تولید ویدیوهای آنی حرکت میکند؛ ویدیوهایی که در سال ۲۰۲۶ قادر خواهند بود جزئیات ظاهری و رفتاری انسان را با دقتی بالا تقلید کنند و فرایند تشخیص را بیش از پیش پیچیده سازند. مدلهای هویتی نیز در حال تکامل هستند تا ظاهر، صدا، گفتار و حرکات یک فرد را در زمینههای مختلف بهصورت یکپارچه بازسازی کنند؛ تحولی که گذار از شباهت صرفاً بصری به تطابق رفتاری در طول زمان را رقم میزند.
با توسعه این قابلیتها، فاصله شناختی میان رسانههای مصنوعی و محتوای تولیدشده توسط انسان بیش از پیش کاهش خواهد یافت. در چنین شرایطی، راهکارهای دفاعی مؤثر ناگزیر از تکیه صرف بر قضاوت انسانی فاصله میگیرند و به سمت حفاظت از زیرساختها حرکت میکنند؛ از جمله تأیید منبع محتوا با استفاده از امضاهای رمزنگاریشده، بهرهگیری از استانداردهای اعتبارسنجی منبع و بهکارگیری ابزارهای تحلیل پزشکی قانونی چندرسانهای مانند «Deep Fake-o-Meter».
مجله خبری mydtc




