سرور مجازی
zoomit

هوش مصنوعی DALL-E اکنون می‌تواند تصاویری دقیق از چهره انسان‌های خیالی خلق کند

DALL-E، هوش مصنوعی شرکت OpenAI، طی چند وقت اخیر در شبکه‌های اجتماعی بسیار خبرساز شده است چون می‌تواند از روی پیام‌های متنی تصاویری عجیب‌و‌غریب تولید کند. OpenAI می‌گوید تغییراتی در این مدل هوش مصنوعی اعمال کرده تا محققان بتوانند تصاویر خلق‌شده از چهره‌ی انسان‌هایی را که در دنیای واقعی وجود ندارند، به اشتراک بگذارند.

براساس ایمیلی جدید، کاربران از این پس می‌توانند تصاویر واقع‌گرایانه‌ی چهره‌ی انسان را که توسط DALL-E خلق شده‌اند به‌صورت عمومی به اشتراک بگذارند. توسعه‌دهندگان می‌گویند تدابیری برای جلوگیری از تولید تصاویر دیپ‌فیک در نظر گرفته‌اند.

VICE می‌نویسد توسعه‌دهندگان دو قابلیت امنیتی جدید به این هوش مصنوعی اضافه کرده‌اند. به موجب این سیستم‌های امنیتی، DALL-E هرگونه تلاش برای ساخت تصاویر مشابه شخصیت‌های سرشناس ازجمله سلبریتی‌ها را رد می‌کند. DALL-E همچنین اجازه‌ی آپلود تصاویر چهره‌ی انسان‌ها را صادر نمی‌کند. سیستم‌ امنیتی DALL-E تا قبل از اعمال به‌روزرسانی‌های جدید صرفاً تلاش برای ایجاد تصویر مربوط به شخصیت‌های سیاسی را خنثی می‌کرد.

محققان از همین حالا نمونه‌های اولیه‌ی چهره‌های خلق‌شده با DALL-E را در شبکه‌های اجتماعی منتشر کرده‌اند و نتایج کار بسیار عجیب به نظر می‌رسد.

هوش مصنوعی DALL-E همچنان در مرحله‌ی آزمایشی به سر می‌برد و توسط تعداد محدودی از محققان مورد استفاده قرار می‌گیرد. OpenAI محدودیت‌هایی برای محققان در نظر گرفته، به همین دلیل این افراد نمی‌توانند هرآنچه را که درباره‌ی DALL-E می‌دانند با عموم مردم به اشتراک بگذارند.

در همین حین پروژه‌های داوطلبانه‌ی کوچک‌تری مثل DALL-E Mini به عموم مردم امکان می‌دهند تصاویر و میم‌ها را با اتکا به هوش مصنوعی از روی پیام‌های متنی خلق کنند. البته نتایج حاصل از DALL-E Mini کیفیت بسیار پایین‌تری نسبت‌ به DALL-E دارد.

مقاله‌های مرتبط:

  • تکنولوژی Dall-E؛ هیاهوی این‌ روزهای شبکه‌های اجتماعی
  • تصاویر تولیدشده با هوش مصنوعی گاهی واقعی‌تر به نظر می‌رسند

توانایی DALL-E برای خلق تصویر چهره‌ی انسان سؤالات اخلاقی زیادی را در ذهن ایجاد می‌کند، حتی با دانستن این موضوع که چهره‌های یادشده به انسان‌های واقعی تعلق ندارند. محققان متمرکز بر اخلاقیات در حوزه‌ی هوش مصنوعی هشدار داده‌اند که سیستم‌های یادگیری ماشین بزرگ نظیر DALL-E ممکن است ازطریق رفتارهای تبعیض‌آمیز به مردم محروم آسیب برسانند و این نوع رفتارها به‌سادگی از سیستم قابل‌حذف نیستند.

محققان شرکت OpenAI اعتراف کرده‌اند که وقتی کلماتی خاص در پیام متنی جای داده شود، DALL-E به‌طور مکرر محتواهای نژادپرستانه و جنسی را خلق می‌کند. مدل‌های هوش مصنوعی دیگری که توسط شرکت‌های بزرگی مثل فیسبوک و گوگل ساخته شده‌اند نیز عملکردشان چندان بهتر نبوده است.

محققان هوش مصنوعی می‌گویند تمام تلاش خود را به کار می‌گیرند تا با روی کار آوردن سیستم‌هایی امنیتی جلوی سوءاستفاده از مدل‌های یادگیری ماشین را بگیرند. بااین‌حال به نظر می‌رسد فعلاً اطلاعات خیلی زیادی درباره‌ی توانایی‌های سیستم‌هایی مثل DALL-E و آسیب‌هایی که این سیستم‌ها ممکن است ایجاد کنند نمی‌دانیم.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا