سرور مجازی
فناوری

ترفند OpenAI برای کاهش استفاده مخرب از هوش مصنوعی

ترفند OpenAI برای کاهش استفاده مخرب از هوش مصنوعی

اطلاعات صفحه پشتیبانی که هفته گذشته در وب‌سایت «اوپن‌ای‌آی»(OpenAI) منتشر شدند، نشان می‌دهند این شرکت ممکن است به زودی از سازمان‌ها بخواهد تا فرآیند تأیید هویت را برای دسترسی به برخی مدل‌های هوش مصنوعی آینده تکمیل کنند.

به گزارش دیتاسنتر من از ایسنا، در صفحه پشتیبانی آمده است که فرآیند تأیید به نام سازمان، روش جدیدی برای توسعه‌دهندگان به منظور باز کردن قفل دسترسی به پیشرفته‌ترین مدل‌ها و قابلیت‌ها در پلتفرم اوپن‌ای‌آی است. راستی‌آزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپن‌ای‌آی پشتیبانی می‌شود. به گفته اوپن‌ای‌آی، شناسه تنها می‌تواند هر ۹۰ روز یک سازمان را تأیید کند و همه سازمان‌ها واجد شرایط تأیید نیستند.

در صفحه پشتیبانی آمده است: ما در اوپن‌ای‌آی مسئولیت خود را جدی می‌گیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به طور گسترده در دسترس است و هم با خیال راحت استفاده می‌شود. متأسفانه، اقلیت کوچکی از توسعه‌دهندگان عمدا از APIهای اوپن‌ای‌آی در جهت مخالف خط‌ مشی‌ ما استفاده می‌کنند. ما در حال اضافه کردن فرآیند تأیید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدل‌های پیشرفته برای جامعه توسعه‌دهندگان گسترده‌تر ادامه می‌دهیم.

این فرآیند جدید تأیید می‌تواند برای تقویت امنیت در محصولات اوپن‌ای‌آی به دلیل پیچیده‌تر شدن و توانمندتر شدن آنها باشد. اوپن‌ای‌آی چندین گزارش را درباره تلاش‌های خود برای شناسایی و از مدل‌های این شرکت منتشر کرده است.

همچنین، این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ در اوایل سال جاری، اوپن‌ای‌آی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی «دیپ‌سیک»(DeepSeek) در اواخر سال ۲۰۲۴ مقادیر زیادی داده را احتمالا برای آموزش مدل‌های خود از طریق API آن استخراج کرده و شرایط اوپن‌ای‌آی را نقض کرده است یا خیر. اوپن‌ای‌آی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.

مجله خبری mydtc

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا