طبق صفحه پشتیبانی منتشر شده در وبسایت این شرکت در هفته گذشته، OpenAI ممکن است به زودی از سازمانها بخواهد برای دسترسی به برخی از مدلهای هوش مصنوعی آینده، فرآیند تأیید هویت را تکمیل کنند.
در این صفحه آمده است که فرآیند تأیید، با نام سازمان تأیید شده، “روش جدیدی برای توسعهدهندگان است تا دسترسی به پیشرفتهترین مدلها و قابلیتها در پلتفرم OpenAI را باز کنند.” تأیید هویت به یک شناسه دولتی صادر شده از یکی از کشورهای پشتیبانی شده توسط OpenAI API نیاز دارد. طبق گفته OpenAI، یک شناسه فقط میتواند هر ۹۰ روز یک سازمان را تأیید کند و همه سازمانها واجد شرایط تأیید نخواهند بود.
در این صفحه آمده است: “در OpenAI، ما مسئولیت خود را برای اطمینان از اینکه هوش مصنوعی هم به طور گسترده در دسترس است و هم به طور ایمن استفاده میشود، جدی میگیریم. متأسفانه، اقلیت کوچکی از توسعهدهندگان عمداً از APIهای OpenAI در نقض سیاستهای استفاده ما استفاده میکنند. ما فرآیند تأیید را اضافه میکنیم تا استفاده ناایمن از هوش مصنوعی را کاهش دهیم و در عین حال مدلهای پیشرفته را برای جامعه گستردهتر توسعهدهندگان در دسترس قرار دهیم.”
OpenAI وضعیت سازمان تأیید شده جدیدی را به عنوان روشی جدید برای توسعهدهندگان منتشر کرد تا دسترسی به پیشرفتهترین مدلها و قابلیتها در این پلتفرم را باز کنند و برای “انتشار مدل هیجانانگیز بعدی” آماده شوند.
– تأیید چند دقیقه طول میکشد و به یک مدرک معتبر نیاز دارد…
— Tibor Blaho (@btibor91) آوریل ۱۲, ۲۰۲۵

فرآیند تأیید جدید ممکن است با هدف تقویت امنیت محصولات OpenAI با پیچیدهتر و توانمندتر شدن آنها انجام شود. این شرکت چندین گزارش در مورد تلاشهای خود برای شناسایی و کاهش استفاده مخرب از مدلهایش، از جمله توسط گروههایی که ظاهراً در کره شمالی مستقر هستند، منتشر کرده است.
همچنین ممکن است با هدف جلوگیری از سرقت مالکیت معنوی باشد. طبق گزارشی از بلومبرگ در اوایل سال جاری، OpenAI در حال بررسی این موضوع بود که آیا گروهی مرتبط با DeepSeek، آزمایشگاه هوش مصنوعی مستقر در چین، در اواخر سال ۲۰۲۴ مقادیر زیادی داده را از طریق API خود استخراج کردهاند، احتمالاً برای آموزش مدلها – که نقض شرایط OpenAI است.
OpenAI تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.
منبع: تککرانچ