خبر
مجوزهای مدل‌های «متن باز» اغلب محدودیت‌های نگران‌کننده‌ای به همراه دارند
زمان مطالعه: 5 دقیقه
مجوزهای مدل‌های «متن باز» اغلب محدودیت‌های نگران‌کننده‌ای به همراه دارند
مجوزهای مدل‌های «متن باز» اغلب محدودیت‌های نگران‌کننده‌ای به همراه دارند
خبر
مجوزهای مدل‌های «متن باز» اغلب محدودیت‌های نگران‌کننده‌ای به همراه دارند
زمان مطالعه: 5 دقیقه

این هفته، گوگل خانواده‌ای از مدل‌های هوش مصنوعی باز به نام Gemma 3 را منتشر کرد که به‌سرعت به دلیل کارایی چشمگیرشان مورد تحسین قرار گرفتند. اما همان‌طور که تعدادی از توسعه‌دهندگان در شبکه اجتماعی X ابراز تأسف کردند، مجوز Gemma 3 استفاده تجاری از این مدل‌ها را به پیشنهادی پرریسک تبدیل کرده است.

این مشکل مختص Gemma 3 نیست. شرکت‌هایی مانند متا نیز شرایط مجوز سفارشی و غیراستاندارد را بر مدل‌های در دسترس عموم خود اعمال می‌کنند و این شرایط چالش‌های قانونی را برای شرکت‌ها به وجود می‌آورد. برخی شرکت‌ها، به‌ویژه کسب‌وکارهای کوچک‌تر، نگرانند که گوگل و دیگران بتوانند با استناد به بندهای سخت‌گیرانه‌تر، کسب‌وکارشان را به‌یک‌باره متزلزل کنند.

نیک ویدال، رئیس بخش جامعه در ابتکار منبع‌باز (Open Source Initiative)، نهادی دیرپا که هدفش تعریف و مدیریت همه‌چیز مرتبط با منبع‌باز است، به تِک‌کرانچ گفت: «مجوزهای محدودکننده و ناسازگار مدل‌های به‌اصطلاح ‘باز’ هوش مصنوعی، عدم‌اطمینان قابل‌توجهی ایجاد کرده‌اند، به‌ویژه برای پذیرش تجاری. در حالی که این مدل‌ها به‌عنوان باز بازاریابی می‌شوند، شرایط واقعی موانع قانونی و عملی مختلفی را تحمیل می‌کنند که کسب‌وکارها را از ادغام آن‌ها در محصولات یا خدماتشان بازمی‌دارد.»

توسعه‌دهندگان مدل‌های باز دلایلی برای عرضه مدل‌ها تحت مجوزهای اختصاصی به‌جای گزینه‌های استاندارد صنعتی مانند Apache و MIT دارند. برای مثال، استارتاپ هوش مصنوعی Cohere به‌وضوح اعلام کرده که قصد دارد از کار علمی — و نه تجاری — بر پایه مدل‌هایش حمایت کند.

اما مجوزهای Gemma و Llama متا به‌ویژه محدودیت‌هایی دارند که راه‌های استفاده شرکت‌ها از این مدل‌ها را بدون ترس از اقدامات قانونی محدود می‌کند.

برای نمونه، متا به توسعه‌دهندگان اجازه نمی‌دهد از «خروجی یا نتایج» مدل‌های Llama 3 برای بهبود هر مدلی به‌جز Llama 3 یا «آثار مشتق‌شده» استفاده کنند. همچنین شرکت‌هایی با بیش از ۷۰۰ میلیون کاربر فعال ماهانه را از به‌کارگیری مدل‌های Llama بدون دریافت مجوز ویژه اضافی منع کرده است.

مجوز Gemma به‌طور کلی کمتر دست‌وپاگیر است. اما به گوگل این حق را می‌دهد که استفاده از Gemma را که به نظرش نقض سیاست استفاده ممنوع شرکت یا «قوانین و مقررات قابل‌اجرا» باشد، «به‌صورت از راه دوریا غیر آن محدود کند.»

این شرایط نه‌تنها برای مدل‌های اصلی Llama و Gemma اعمال می‌شود، بلکه مدل‌های مبتنی بر Llama یا Gemma نیز باید به ترتیب از مجوزهای Llama و Gemma پیروی کنند. در مورد Gemma، این شامل مدل‌هایی می‌شود که با داده‌های مصنوعی تولیدشده توسط Gemma آموزش دیده‌اند.

فلوریان برند، دستیار پژوهشی در مرکز تحقیقات هوش مصنوعی آلمان، معتقد است که — برخلاف آنچه مدیران ارشد شرکت‌های بزرگ فناوری می‌خواهند شما باور کنید — مجوزهایی مانند Gemma و Llama را «نمی‌توان به‌طور منطقی منبع‌باز نامید.»

برند به تِک‌کرانچ گفت: «بیشتر شرکت‌ها مجموعه‌ای از مجوزهای تأییدشده مانند Apache 2.0 دارند، بنابراین هر مجوز سفارشی دردسر و هزینه زیادی به همراه دارد. شرکت‌های کوچک بدون تیم حقوقی یا بودجه برای وکلا به مدل‌هایی با مجوزهای استاندارد پایبند خواهند ماند.»

برند خاطرنشان کرد که توسعه‌دهندگان مدل‌های هوش مصنوعی با مجوزهای سفارشی، مانند گوگل، هنوز به‌طور تهاجمی شرایط خود را اجرا نکرده‌اند. با این حال، او افزود که این تهدید اغلب برای بازدارندگی از پذیرش کافی است.

برند گفت: «این محدودیت‌ها بر اکوسیستم هوش مصنوعی تأثیر می‌گذارند — حتی بر پژوهشگران هوش مصنوعی مانند من.»

هان-چونگ لی، مدیر یادگیری ماشینی در مؤسسه مودیز، موافق است که مجوزهای سفارشی مانند آنچه به Gemma و Llama متصل است، این مدل‌ها را در بسیاری از سناریوهای تجاری «غیرقابل‌استفاده» می‌کند. اریک ترامل، دانشمند کاربردی ارشد در استارتاپ هوش مصنوعی Gretel، نیز همین نظر را دارد.

ترامل گفت: «مجوزهای خاص مدل، استثناهایی برای مشتقات مدل و تقطیر ایجاد می‌کنند که نگرانی‌هایی درباره پس‌گرفتن حقوق به وجود می‌آورد. تصور کنید شرکتی به‌طور خاص برای مشتریانش مدل‌های بهینه‌شده تولید می‌کند. یک مدل بهینه‌شده با داده‌های Gemma از Llama باید چه مجوزی داشته باشد؟ این چه تأثیری بر مشتریان پایین‌دستی خواهد داشت؟»

ترامل گفت سناریویی که کاربران بیش از همه از آن می‌ترسند این است که این مدل‌ها نوعی اسب تروجان باشند.

او توضیح داد: «یک کارگاه مدل‌سازی می‌تواند مدل‌های [باز] را عرضه کند، منتظر بماند تا ببیند چه موارد تجاری با استفاده از این مدل‌ها توسعه می‌یابد، و سپس با اخاذی یا دعاوی حقوقی راه خود را به بخش‌های موفق باز کند. برای مثال، Gemma 3 از همه نظر یک انتشار قوی به نظر می‌رسد — مدلی که می‌توانست تأثیر گسترده‌ای داشته باشد. اما بازار به دلیل ساختار مجوز آن نمی‌تواند آن را بپذیرد. بنابراین، کسب‌وکارها احتمالاً به مدل‌های ضعیف‌تر و کمتر قابل‌اعتماد Apache 2.0 پایبند خواهند ماند.»

برای روشن شدن، باید گفت که برخی مدل‌ها با وجود مجوزهای محدودکننده‌شان به توزیع گسترده دست یافته‌اند. برای مثال، Llama صدها میلیون بار دانلود شده و در محصولاتی از شرکت‌های بزرگ مانند اسپاتیفای به کار رفته است.

اما به گفته یاسین جرنیت، رئیس بخش یادگیری ماشینی و جامعه در استارتاپ هوش مصنوعی Hugging Face، اگر این مدل‌ها مجوزهای آزادتری داشتند، می‌توانستند موفقیت بیشتری کسب کنند. جرنیت از ارائه‌دهندگان مانند گوگل خواست تا به چارچوب‌های مجوز باز روی آورند و «مستقیم‌تر» با کاربران بر سر شرایطی که به‌طور گسترده پذیرفته شده‌اند همکاری کنند.

جرنیت گفت: «با توجه به نبود اجماع بر سر این شرایط و این واقعیت که بسیاری از مفروضات زیربنایی هنوز در دادگاه‌ها آزمایش نشده‌اند، همه این‌ها عمدتاً به‌عنوان بیانیه‌ای از نیت این بازیگران عمل می‌کند. [اما اگر برخی بندها] بیش از حد گسترده تفسیر شوند، بسیاری از کارهای خوب در وضعیت قانونی نامطمئنی قرار خواهند گرفت، که به‌ویژه برای سازمان‌هایی که محصولات تجاری موفقی می‌سازند ترسناک است.»

ویدال گفت که نیاز فوری به مدل‌های هوش مصنوعی وجود دارد که شرکت‌ها بتوانند آزادانه آن‌ها را ادغام، اصلاح و به اشتراک بگذارند بدون ترس از تغییرات ناگهانی مجوز یا ابهام قانونی.

ویدال اظهار داشت: «چشم‌انداز کنونی مجوزدهی مدل‌های هوش مصنوعی پر از سردرگمی، شرایط محدودکننده و ادعاهای گمراه‌کننده درباره باز بودن است. به‌جای بازتعریف ‘باز’ برای تطابق با منافع شرکتی، صنعت هوش مصنوعی باید با اصول تثبیت‌شده منبع‌باز هم‌راستا شود تا اکوسیستم واقعاً بازی ایجاد کند.»

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...