سرور مجازی
فناوری

چگونه از هوش مصنوعی برای خطرآفرینی استفاده می‌شود؟

چگونه از هوش مصنوعی برای خطرآفرینی استفاده می‌شود؟

در این گزارش برخی از تهدیدات ناشی از هوش مصنوعی معرفی شده است:

دیپ فیک و اطلاعات نادرست
دیپ فیک‌ها در رسانه‌های اجتماعی در حال ظهور هستند و واقعیت و داستان را در دنیای قطبی شده سیاست آمریکا مخلوط می‌کنند.

دیپ‌فیک‌ها ویدیو‌هایی هستند که واقعی به نظر می‌رسند، اما واقعی نیستند و توسط الگوریتم‌های هوش مصنوعی آموزش داده شده بر روی بسیاری از ویدیو‌های آنلاین ایجاد شده‌اند.

اگرچه این رسانه‌های تولید شده به صورت دیجیتالی چندین سال است که در دسترس بوده‌اند، اما قابلیت‌های آنها در طول سال گذشته به دلیل انبوهی از ابزار‌های جدید “هوش مصنوعی مولد” مانند MadeGirny افزایش یافته است که ایجاد دیپ‌فیک متقاعدکننده را آسان و ارزان می‌کند.

محققان در گزارشی در ماه مارس گفتند که شرکت‌هایی مانند OpenAI و مایکروسافت می‌توانند از ابزار‌های ایجاد تصویر هوش مصنوعی برای تولید تصاویری استفاده کنند که ممکن است اطلاعات گمراه‌کننده مربوط به انتخابات و رای‌گیری را ترویج کند، علی‌رغم اینکه این دو شرکت با ایجاد محتوای گمراه‌کننده مبارزه می‌کنند.

برخی از کمپین‌های اطلاعات نادرست به سادگی از توانایی هوش مصنوعی در تقلید از مقالات خبری واقعی به عنوان راهی برای انتشار اطلاعات نادرست استفاده می‌کنند.

در حالی که پلتفرم‌های رسانه‌های اجتماعی بزرگ مانند فیس بوک، توییتر و یوتیوب تلاش‌هایی را برای مسدود کردن و حذف دیپ فیک انجام داده اند، اثربخشی این تلاش‌ها در مبارزه با چنین محتوایی متفاوت است.

سلاح‌های بیولوژیکی
جامعه اطلاعاتی ایالات متحده، اندیشکده‌ها و دانشگاهیان به طور فزاینده‌ای نگران خطرات ناشی از عوامل خارجی متخاصم با دسترسی به قابلیت‌های پیشرفته هوش مصنوعی هستند.

محققان Gryphon Scientific و Rand Corporation توضیح دادند که مدل‌های پیشرفته هوش مصنوعی می‌توانند اطلاعاتی را ارائه دهند که به ساخت سلاح‌های بیولوژیکی کمک می‌کند.

 

چگونه از هوش مصنوعی برای خطرآفرینی استفاده می‌شود؟

گریفون مطالعه کرده است که چگونه بازیگران متخاصم از الگو‌های زبانی بزرگ برای آسیب رساندن به علوم زیستی استفاده می‌کنند.

طبق این گزارش، آنها می‌توانند اطلاعاتی را ارائه دهند که ممکن است با ارائه اطلاعات مفید، دقیق و درست در هر مرحله از این مسیر، از یک بازیگر شرور در ایجاد یک سلاح بیولوژیکی حمایت کند.

مدل‌های زبان بزرگ، برنامه‌های رایانه‌ای هستند که از متن‌های بزرگ برای تولید پاسخ به پرسش‌ها استفاده می‌کنند.

گریفون به این نتیجه رسید که یک مدل زبانی بزرگ ممکن است، برای مثال، اطلاعات سطح فوق دکترا را برای حل مشکلاتی که در حین کار بر روی یک ویروس قادر به انتشار یک بیماری همه گیر، ارائه دهد.

شرکت RAND هم توضیح داده است که مدل‌های زبانی بزرگ ممکن است به برنامه‌ریزی و اجرای یک حمله بیولوژیکی کمک کنند.

او دریافت که یک مدل زبانی بزرگ می‌تواند به عنوان مثال روش‌هایی را برای پراکندگی ماده سمی بوتاکس در هوا پیشنهاد کند.

سلاح‌های دیجیتال
وزارت امنیت داخلی ایالات متحده در ارزیابی تهدیدات داخلی خود در سال ۲۰۲۴ اعلام کرد که بازیگران دیجیتال احتمالاً از هوش مصنوعی برای “توسعه ابزار‌های جدید برای فعال کردن حملات دیجیتالی گسترده تر، سریع تر، کارآمدتر و گریزان تر” به زیرساخت‌های حیاتی، از جمله خطوط لوله نفت و گاز و راه آهن استفاده می‌کنند.

این وزارتخانه گفت چین و سایر بازیگران متخاصم در حال توسعه فناوری هوش مصنوعی هستند که می‌تواند دفاع دیجیتال ایالات متحده را تضعیف کند، از جمله برنامه‌های هوش مصنوعی مولد که از حملات بدافزار پشتیبانی می‌کنند.

مایکروسافت در گزارشی در ماه فوریه اعلام کرد که گروه‌های هکر وابسته به دولت‌های چین و کره شمالی و همچنین اطلاعات نظامی روسیه را در تلاش برای تنظیم دقیق حملات آنلاین خود با استفاده از الگو‌های بزرگ زبانی، ردیابی کرده است.

منبع: باشگاه خبرنگاران جوان

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا