خبر
Endor Labs: شفافیت هوش مصنوعی در برابر «نمایش جعلی متن‌باز»
زمان مطالعه: 5 دقیقه
Endor Labs: شفافیت هوش مصنوعی در برابر «نمایش جعلی متن‌باز»
Endor Labs: شفافیت هوش مصنوعی در برابر «نمایش جعلی متن‌باز»
خبر
Endor Labs: شفافیت هوش مصنوعی در برابر «نمایش جعلی متن‌باز»
زمان مطالعه: 5 دقیقه

با تمرکز صنعت هوش مصنوعی بر شفافیت و امنیت، بحث‌ها پیرامون مفهوم واقعی «متن‌باز بودن» شدت گرفته است. کارشناسان شرکت Endor Labs، که در حوزه امنیت متن‌باز فعالیت می‌کند، دیدگاه خود را درباره این مسائل مهم ارائه کرده‌اند.

آیا درس‌های امنیت نرم‌افزار می‌توانند به هوش مصنوعی کمک کنند؟

اندرو استیفل، مدیر ارشد بازاریابی محصولات در Endor Labs، بر اهمیت استفاده از تجربه‌های امنیت نرم‌افزار در توسعه سیستم‌های هوش مصنوعی تأکید کرد.

او به فرمان اجرایی دولت آمریکا در سال ۲۰۲۱ اشاره کرد که سازمان‌ها را ملزم می‌کند تا برای محصولات فروخته‌شده به نهادهای دولتی، صورتحسابی از اجزای نرم‌افزاری (SBOM) تهیه کنند.

SBOM فهرستی از اجزای متن‌باز موجود در یک محصول را ارائه می‌دهد و به شناسایی آسیب‌پذیری‌ها کمک می‌کند. استیفل استدلال می‌کند که “به‌کارگیری این اصول در سیستم‌های هوش مصنوعی گام منطقی بعدی است.”

او توضیح داد:
“شفافیت بیشتر برای شهروندان و کارکنان دولت نه‌تنها امنیت را بهبود می‌بخشد، بلکه دید کاملی از داده‌های آموزشی، وزن‌ها و دیگر اجزای مدل‌های هوش مصنوعی ارائه می‌دهد.”

معنای واقعی «متن‌باز بودن» در هوش مصنوعی چیست؟

جولین سوبریه، مدیر ارشد محصولات در Endor Labs، به بحث درباره شفافیت هوش مصنوعی و «متن‌باز بودن» پرداخت. او اشاره کرد که تعریف یک مدل هوش مصنوعی به‌عنوان «متن‌باز» پیچیدگی‌های زیادی دارد.

“یک مدل هوش مصنوعی از اجزای مختلفی تشکیل شده است: مجموعه داده‌های آموزشی، وزن‌ها، برنامه‌های آموزشی و آزمایشی و غیره. برای اینکه یک مدل واقعاً «متن‌باز» تلقی شود، همه این اجزا باید در دسترس باشند.”

سوبریه به نبود یک تعریف یکسان و استاندارد در میان شرکت‌های بزرگ اشاره کرد که باعث ابهام در مفهوم متن‌باز بودن شده است.

“اولین بحث‌ها درباره تعریف «متن‌باز» با OpenAI شروع شد. اکنون متا نیز با مدل LLAMA در مرکز توجه قرار دارد، اگرچه نسبت به سایر مدل‌ها «متن‌بازتر» است. ما نیاز به یک تعریف مشترک برای مدل‌های متن‌باز داریم و باید مراقب «ظاهرسازی متن‌باز» باشیم، همان‌طور که در گذشته بین نرم‌افزارهای «رایگان» و «متن‌باز» شاهد آن بودیم.”

خطر «ظاهرسازی متن‌باز» در هوش مصنوعی

یکی از چالش‌های مهم در این زمینه، روندی است که سوبریه آن را «ظاهرسازی متن‌باز» می‌نامد، یعنی سازمان‌هایی که ادعای شفافیت دارند اما در عمل محدودیت‌هایی اعمال می‌کنند.

“بسیاری از ارائه‌دهندگان خدمات ابری، نسخه‌های پولی از پروژه‌های متن‌باز (مانند پایگاه‌های داده) را بدون مشارکت در توسعه آن‌ها ارائه می‌کنند. این باعث شده است که بسیاری از پروژه‌های متن‌باز تغییر مسیر دهند: کد منبع هنوز باز است، اما محدودیت‌های تجاری جدیدی به آن اضافه شده است.”

او هشدار داد که “متا و سایر شرکت‌های ارائه‌دهنده مدل‌های «متن‌باز» ممکن است همین مسیر را دنبال کنند: شفافیت بیشتر درباره مدل‌ها، اما اعمال محدودیت برای رقبا در استفاده از آن‌ها.”

DeepSeek و تلاش برای افزایش شفافیت در هوش مصنوعی

یکی از شرکت‌هایی که در مسیر افزایش شفافیت در هوش مصنوعی گام برداشته، DeepSeek است. این شرکت، که یکی از بازیگران نوظهور و بحث‌برانگیز این صنعت محسوب می‌شود، بخش‌هایی از مدل‌ها و کد خود را متن‌باز کرده است.

استیفل توضیح داد:
“DeepSeek قبلاً مدل‌ها و وزن‌های خود را به‌صورت متن‌باز منتشر کرده است. این گام بعدی، شفافیت بیشتری در مورد سرویس‌های میزبانی آن‌ها ارائه می‌دهد و نشان می‌دهد که چگونه این مدل‌ها را در محیط عملیاتی خود تنظیم و اجرا می‌کنند.”

وی افزود:
“این کار نه‌تنها امکان بررسی امنیت سیستم‌های آن‌ها را فراهم می‌کند، بلکه به سازمان‌ها و افراد اجازه می‌دهد نسخه‌های اختصاصی خود را اجرا کنند.”

علاوه بر امنیت، DeepSeek راهی برای مدیریت زیرساخت‌های هوش مصنوعی در مقیاس وسیع ارائه می‌دهد.

محبوبیت فزاینده هوش مصنوعی متن‌باز

گزارش IDC نشان می‌دهد که ۶۰٪ از سازمان‌ها مدل‌های هوش مصنوعی متن‌باز را به جای مدل‌های تجاری برای پروژه‌های هوش مصنوعی مولد (GenAI) خود انتخاب می‌کنند.

تحقیقات Endor Labs نیز نشان می‌دهد که سازمان‌ها به‌طور متوسط بین ۷ تا ۲۱ مدل متن‌باز را در هر برنامه استفاده می‌کنند که دلیل آن بهینه‌سازی هزینه API و انتخاب بهترین مدل برای هر وظیفه خاص است.

“تا ۷ فوریه، Endor Labs کشف کرد که بیش از ۳,۵۰۰ مدل جدید بر اساس مدل اصلی DeepSeek R1 آموزش داده یا تقطیر شده‌اند. این نشان‌دهنده رشد پرانرژی جامعه هوش مصنوعی متن‌باز و اهمیت درک نسب‌شناسی (Lineage) مدل‌ها و خطرات بالقوه آن‌ها برای تیم‌های امنیتی است.”

سوبریه تأکید کرد که سازمان‌ها باید مدل‌های هوش مصنوعی را مانند سایر وابستگی‌های مهم نرم‌افزاری در نظر بگیرند:

“شرکت‌ها باید اطمینان حاصل کنند که این مدل‌ها نه‌تنها از نظر قانونی مجاز به استفاده هستند، بلکه از نظر امنیتی، عملیاتی و زنجیره تأمین نیز ایمن هستند، دقیقاً مانند کتابخانه‌های متن‌باز.”

چگونه می‌توان ریسک مدل‌های هوش مصنوعی را مدیریت کرد؟

با رشد استفاده از هوش مصنوعی متن‌باز، مدیریت ریسک اهمیت بیشتری پیدا می‌کند. استیفل یک رویکرد سه مرحله‌ای برای این کار پیشنهاد می‌کند:

  1. کشف: شناسایی مدل‌های هوش مصنوعی مورد استفاده در سازمان
  2. ارزیابی: بررسی مدل‌ها از نظر ریسک‌های امنیتی و عملیاتی
  3. پاسخ: ایجاد و اعمال سیاست‌های ایمن برای پذیرش مدل‌ها

“چالش اصلی، یافتن تعادل میان نوآوری و مدیریت ریسک است. ما باید به تیم‌های مهندسی نرم‌افزار آزادی عمل بدهیم، اما در عین حال، تیم‌های امنیتی باید دید کامل و ابزارهای لازم برای مداخله را داشته باشند.”

فراتر از شفافیت: ایجاد آینده‌ای مسئولانه برای هوش مصنوعی

برای رشد مسئولانه هوش مصنوعی، صنعت باید کنترل‌هایی در چندین سطح اعمال کند:

  • مدل‌های SaaS: اطمینان از استفاده امن کارکنان از مدل‌های ابری-
  • یکپارچه‌سازی API: مدیریت استفاده از APIهای شخص ثالث مانند DeepSeek
  • مدل‌های متن‌باز: اطمینان از استفاده قانونی و ایمن از مدل‌های توسعه‌یافته توسط جامعه

سوبریه هشدار داد:
“جامعه هوش مصنوعی باید بهترین روش‌ها را برای توسعه مدل‌های ایمن و متن‌باز ایجاد کند و یک متدولوژی مشخص برای ارزیابی آن‌ها از نظر امنیت، کیفیت، ریسک‌های عملیاتی و شفافیت تدوین کند.”

استیفل در پایان گفت:
“باید امنیت را در تمام ابعاد در نظر گرفت و کنترل‌های مناسب را برای هر بخش اعمال کرد.”

منبع: اخبار هوش مصنوعی

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

عامل هوش مصنوعی جدید آمازون از طرف شما در سایت‌های شخص ثالث خرید خواهد کرد
آمازون آزمایش یک عامل خرید هوش مصنوعی جدید را با نام "برای من بخر" با گروهی از کاربران آغاز کرده است. این خبر در یک پست وبلاگی روز پنجشنبه اعلام شد...
سه پورتال برتر توسعه‌دهندگان داخلی در سال ۲۰۲۵
پورتال توسعه‌دهندگان داخلی (IDP) یک پلتفرم متمرکز و خودکار است که در سازمان‌ها برای تأمین تمام نیازهای توسعه‌دهندگان در فرآیند توسعه، استقرار و ...
توضیح‌پذیری هوش مصنوعی و تأثیر فوری آن بر فناوری حقوقی – بینش‌هایی از بحث کارشناسان
هفته گذشته، کارشناسان برجسته از حوزه‌های دانشگاهی، صنعت و تنظیم مقررات گرد هم آمدند تا درباره پیامدهای حقوقی و تجاری توضیح‌پذیری هوش مصنوعی بحث ...