سرور مجازی
فناوری

فقط ۴۴ درصد کاربران می‌توانند دیپ‌فیک را تشخیص دهند

فقط ۴۴ درصد کاربران می‌توانند دیپ‌فیک را تشخیص دهند

پیشرفت سریع مدل‌های تولید تصویر و ویدئو مبتنی بر هوش مصنوعی، مرز میان واقعیت و جعل را بیش از هر زمان دیگری کمرنگ کرده است.

به گزارش دیتاسنتر من و به نقل از Phonearena، ابزارهایی مانند Sora از شرکت OpenAI و مدل Nano Banana از گوگل اکنون قادرند ویدئوهایی تولید کنند که تشخیص آنها از تصاویر واقعی تقریباً غیرممکن شده است. این موضوع باعث نگرانی گسترده درباره گسترش دیپ‌فیک‌ها در شبکه‌های اجتماعی شده است.

بر اساس گزارشی از CNET، نود و چهار درصد بزرگسالان آمریکایی اعلام کرده‌اند که با تصاویر یا ویدئوهای تولیدشده توسط هوش مصنوعی در فضای آنلاین مواجه شده‌اند. با این حال، تنها ۴۴ درصد آنها معتقدند می‌توانند تفاوت میان محتوای واقعی و ساختگی را تشخیص دهند. این آمار نشان می‌دهد اعتماد کاربران به توانایی تشخیص دیپ‌فیک‌ها چندان بالا نیست.

نمونه‌هایی از ویدئوهای وایرال در شبکه‌های اجتماعی شامل صحنه‌های نمایشی اسکیت روی یخ یا تصادف‌های هوایی مهیب هستند که برخی کاملاً جعلی‌اند. در مقابل، برخی رویدادهای تاریخی واقعی مانند سه هوم‌ران معروف Reggie Jackson در سری جهانی ۱۹۷۷ حقیقت دارند، اما در فضای فعلی حتی واقعیت نیز زیر سؤال می‌رود. این تردید گسترده، نشان‌دهنده بحرانی عمیق در اعتماد عمومی به محتوای دیجیتال است.

 

فقط ۴۴ درصد کاربران می‌توانند دیپ‌فیک را تشخیص دهند
در نظرسنجی انجام‌شده، ۵۱ درصد پاسخ‌دهندگان پیشنهاد داده‌اند که ویدئوهای تولیدشده با هوش مصنوعی باید برچسب‌گذاری شفاف داشته باشند. در مقابل، ۲۱ درصد خواستار ممنوعیت کامل انتشار تصاویر و ویدئوهای AI در شبکه‌های اجتماعی شده‌اند. تنها ۱۱ درصد کاربران، محتوای تولیدی هوش مصنوعی را مفید، آموزنده یا سرگرم‌کننده دانسته‌اند.

از سوی دیگر، ۷۲ درصد بزرگسالان آمریکایی اعلام کرده‌اند که برای بررسی صحت ویدئوها اقداماتی انجام می‌دهند. ۶۰ درصد با دقت به جزئیات تصویر نگاه می‌کنند، ۲۵ درصد از جستجوی معکوس تصویر استفاده می‌کنند، ۵ درصد به ابزارهای تشخیص دیپ‌فیک مراجعه می‌کنند و ۳ درصد به‌طور پیش‌فرض هر محتوایی را جعلی فرض می‌کنند. با این حال، برخی گروه‌های سنی مانند بیبی‌بومرها (۳۶ درصد) و نسل ایکس (۲۹ درصد) هیچ اقدامی برای راستی‌آزمایی انجام نمی‌دهند.

نکته مهم این است که نشانه‌های قدیمی تشخیص دیپ‌فیک، مانند انگشتان اضافی یا ناهماهنگی‌های چهره، دیگر قابل اتکا نیستند. مدل‌های جدید آن‌قدر دقیق شده‌اند که حتی این خطاهای رایج نیز به‌ندرت دیده می‌شود. برای مثال، تصویری از جان اف کندی در حال در دست داشتن آیفون با استفاده از Nano Banana ساخته شده که بسیاری را فریب داده است.

در مجموع، رشد فناوری‌های تولید محتوای هوش مصنوعی، ضرورت تدوین قوانین شفاف، ابزارهای تشخیص پیشرفته‌تر و افزایش سواد رسانه‌ای کاربران را بیش از پیش آشکار کرده است.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا