این هفته، گوگل خانوادهای از مدلهای هوش مصنوعی باز به نام Gemma 3 را منتشر کرد که بهسرعت به دلیل کارایی چشمگیرشان مورد تحسین قرار گرفتند. اما همانطور که تعدادی از توسعهدهندگان در شبکه اجتماعی X ابراز تأسف کردند، مجوز Gemma 3 استفاده تجاری از این مدلها را به پیشنهادی پرریسک تبدیل کرده است.
این مشکل مختص Gemma 3 نیست. شرکتهایی مانند متا نیز شرایط مجوز سفارشی و غیراستاندارد را بر مدلهای در دسترس عموم خود اعمال میکنند و این شرایط چالشهای قانونی را برای شرکتها به وجود میآورد. برخی شرکتها، بهویژه کسبوکارهای کوچکتر، نگرانند که گوگل و دیگران بتوانند با استناد به بندهای سختگیرانهتر، کسبوکارشان را بهیکباره متزلزل کنند.
نیک ویدال، رئیس بخش جامعه در ابتکار منبعباز (Open Source Initiative)، نهادی دیرپا که هدفش تعریف و مدیریت همهچیز مرتبط با منبعباز است، به تِککرانچ گفت: «مجوزهای محدودکننده و ناسازگار مدلهای بهاصطلاح ‘باز’ هوش مصنوعی، عدماطمینان قابلتوجهی ایجاد کردهاند، بهویژه برای پذیرش تجاری. در حالی که این مدلها بهعنوان باز بازاریابی میشوند، شرایط واقعی موانع قانونی و عملی مختلفی را تحمیل میکنند که کسبوکارها را از ادغام آنها در محصولات یا خدماتشان بازمیدارد.»
توسعهدهندگان مدلهای باز دلایلی برای عرضه مدلها تحت مجوزهای اختصاصی بهجای گزینههای استاندارد صنعتی مانند Apache و MIT دارند. برای مثال، استارتاپ هوش مصنوعی Cohere بهوضوح اعلام کرده که قصد دارد از کار علمی — و نه تجاری — بر پایه مدلهایش حمایت کند.
اما مجوزهای Gemma و Llama متا بهویژه محدودیتهایی دارند که راههای استفاده شرکتها از این مدلها را بدون ترس از اقدامات قانونی محدود میکند.
برای نمونه، متا به توسعهدهندگان اجازه نمیدهد از «خروجی یا نتایج» مدلهای Llama 3 برای بهبود هر مدلی بهجز Llama 3 یا «آثار مشتقشده» استفاده کنند. همچنین شرکتهایی با بیش از ۷۰۰ میلیون کاربر فعال ماهانه را از بهکارگیری مدلهای Llama بدون دریافت مجوز ویژه اضافی منع کرده است.
مجوز Gemma بهطور کلی کمتر دستوپاگیر است. اما به گوگل این حق را میدهد که استفاده از Gemma را که به نظرش نقض سیاست استفاده ممنوع شرکت یا «قوانین و مقررات قابلاجرا» باشد، «بهصورت از راه دوریا غیر آن محدود کند.»
این شرایط نهتنها برای مدلهای اصلی Llama و Gemma اعمال میشود، بلکه مدلهای مبتنی بر Llama یا Gemma نیز باید به ترتیب از مجوزهای Llama و Gemma پیروی کنند. در مورد Gemma، این شامل مدلهایی میشود که با دادههای مصنوعی تولیدشده توسط Gemma آموزش دیدهاند.
فلوریان برند، دستیار پژوهشی در مرکز تحقیقات هوش مصنوعی آلمان، معتقد است که — برخلاف آنچه مدیران ارشد شرکتهای بزرگ فناوری میخواهند شما باور کنید — مجوزهایی مانند Gemma و Llama را «نمیتوان بهطور منطقی منبعباز نامید.»
برند به تِککرانچ گفت: «بیشتر شرکتها مجموعهای از مجوزهای تأییدشده مانند Apache 2.0 دارند، بنابراین هر مجوز سفارشی دردسر و هزینه زیادی به همراه دارد. شرکتهای کوچک بدون تیم حقوقی یا بودجه برای وکلا به مدلهایی با مجوزهای استاندارد پایبند خواهند ماند.»
برند خاطرنشان کرد که توسعهدهندگان مدلهای هوش مصنوعی با مجوزهای سفارشی، مانند گوگل، هنوز بهطور تهاجمی شرایط خود را اجرا نکردهاند. با این حال، او افزود که این تهدید اغلب برای بازدارندگی از پذیرش کافی است.
برند گفت: «این محدودیتها بر اکوسیستم هوش مصنوعی تأثیر میگذارند — حتی بر پژوهشگران هوش مصنوعی مانند من.»
هان-چونگ لی، مدیر یادگیری ماشینی در مؤسسه مودیز، موافق است که مجوزهای سفارشی مانند آنچه به Gemma و Llama متصل است، این مدلها را در بسیاری از سناریوهای تجاری «غیرقابلاستفاده» میکند. اریک ترامل، دانشمند کاربردی ارشد در استارتاپ هوش مصنوعی Gretel، نیز همین نظر را دارد.
ترامل گفت: «مجوزهای خاص مدل، استثناهایی برای مشتقات مدل و تقطیر ایجاد میکنند که نگرانیهایی درباره پسگرفتن حقوق به وجود میآورد. تصور کنید شرکتی بهطور خاص برای مشتریانش مدلهای بهینهشده تولید میکند. یک مدل بهینهشده با دادههای Gemma از Llama باید چه مجوزی داشته باشد؟ این چه تأثیری بر مشتریان پاییندستی خواهد داشت؟»
ترامل گفت سناریویی که کاربران بیش از همه از آن میترسند این است که این مدلها نوعی اسب تروجان باشند.
او توضیح داد: «یک کارگاه مدلسازی میتواند مدلهای [باز] را عرضه کند، منتظر بماند تا ببیند چه موارد تجاری با استفاده از این مدلها توسعه مییابد، و سپس با اخاذی یا دعاوی حقوقی راه خود را به بخشهای موفق باز کند. برای مثال، Gemma 3 از همه نظر یک انتشار قوی به نظر میرسد — مدلی که میتوانست تأثیر گستردهای داشته باشد. اما بازار به دلیل ساختار مجوز آن نمیتواند آن را بپذیرد. بنابراین، کسبوکارها احتمالاً به مدلهای ضعیفتر و کمتر قابلاعتماد Apache 2.0 پایبند خواهند ماند.»
برای روشن شدن، باید گفت که برخی مدلها با وجود مجوزهای محدودکنندهشان به توزیع گسترده دست یافتهاند. برای مثال، Llama صدها میلیون بار دانلود شده و در محصولاتی از شرکتهای بزرگ مانند اسپاتیفای به کار رفته است.
اما به گفته یاسین جرنیت، رئیس بخش یادگیری ماشینی و جامعه در استارتاپ هوش مصنوعی Hugging Face، اگر این مدلها مجوزهای آزادتری داشتند، میتوانستند موفقیت بیشتری کسب کنند. جرنیت از ارائهدهندگان مانند گوگل خواست تا به چارچوبهای مجوز باز روی آورند و «مستقیمتر» با کاربران بر سر شرایطی که بهطور گسترده پذیرفته شدهاند همکاری کنند.
جرنیت گفت: «با توجه به نبود اجماع بر سر این شرایط و این واقعیت که بسیاری از مفروضات زیربنایی هنوز در دادگاهها آزمایش نشدهاند، همه اینها عمدتاً بهعنوان بیانیهای از نیت این بازیگران عمل میکند. [اما اگر برخی بندها] بیش از حد گسترده تفسیر شوند، بسیاری از کارهای خوب در وضعیت قانونی نامطمئنی قرار خواهند گرفت، که بهویژه برای سازمانهایی که محصولات تجاری موفقی میسازند ترسناک است.»
ویدال گفت که نیاز فوری به مدلهای هوش مصنوعی وجود دارد که شرکتها بتوانند آزادانه آنها را ادغام، اصلاح و به اشتراک بگذارند بدون ترس از تغییرات ناگهانی مجوز یا ابهام قانونی.
ویدال اظهار داشت: «چشمانداز کنونی مجوزدهی مدلهای هوش مصنوعی پر از سردرگمی، شرایط محدودکننده و ادعاهای گمراهکننده درباره باز بودن است. بهجای بازتعریف ‘باز’ برای تطابق با منافع شرکتی، صنعت هوش مصنوعی باید با اصول تثبیتشده منبعباز همراستا شود تا اکوسیستم واقعاً بازی ایجاد کند.»
منبع: تککرانچ