ترفند OpenAI برای کاهش استفاده مخرب از هوش مصنوعی

ترفند OpenAI برای کاهش استفاده مخرب از هوش مصنوعی
به گزارش دیتاسنتر من از ایسنا، در صفحه پشتیبانی آمده است که فرآیند تأیید به نام سازمان، روش جدیدی برای توسعهدهندگان به منظور باز کردن قفل دسترسی به پیشرفتهترین مدلها و قابلیتها در پلتفرم اوپنایآی است. راستیآزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپنایآی پشتیبانی میشود. به گفته اوپنایآی، شناسه تنها میتواند هر ۹۰ روز یک سازمان را تأیید کند و همه سازمانها واجد شرایط تأیید نیستند.
در صفحه پشتیبانی آمده است: ما در اوپنایآی مسئولیت خود را جدی میگیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به طور گسترده در دسترس است و هم با خیال راحت استفاده میشود. متأسفانه، اقلیت کوچکی از توسعهدهندگان عمدا از APIهای اوپنایآی در جهت مخالف خط مشی ما استفاده میکنند. ما در حال اضافه کردن فرآیند تأیید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدلهای پیشرفته برای جامعه توسعهدهندگان گستردهتر ادامه میدهیم.
این فرآیند جدید تأیید میتواند برای تقویت امنیت در محصولات اوپنایآی به دلیل پیچیدهتر شدن و توانمندتر شدن آنها باشد. اوپنایآی چندین گزارش را درباره تلاشهای خود برای شناسایی و از مدلهای این شرکت منتشر کرده است.
همچنین، این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ در اوایل سال جاری، اوپنایآی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی «دیپسیک»(DeepSeek) در اواخر سال ۲۰۲۴ مقادیر زیادی داده را احتمالا برای آموزش مدلهای خود از طریق API آن استخراج کرده و شرایط اوپنایآی را نقض کرده است یا خیر. اوپنایآی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.
مجله خبری mydtc