گوگل مدل‌های جمینی را سریع‌تر از گزارش‌های ایمنی هوش مصنوعی خود عرضه می‌کند
زمان مطالعه: 6 دقیقه
گوگل مدل‌های جمینی را سریع‌تر از گزارش‌های ایمنی هوش مصنوعی خود عرضه می‌کند
گوگل مدل‌های جمینی را سریع‌تر از گزارش‌های ایمنی هوش مصنوعی خود عرضه می‌کند
گوگل مدل‌های جمینی را سریع‌تر از گزارش‌های ایمنی هوش مصنوعی خود عرضه می‌کند
زمان مطالعه: 6 دقیقه

بیش از دو سال پس از آنکه گوگل با عرضه ChatGPT توسط OpenAI غافلگیر شد، این شرکت سرعت خود را به طور چشمگیری افزایش داده است.

در اواخر ماه مارس، گوگل یک مدل استدلال هوش مصنوعی به نام Gemini 2.5 Pro راه‌اندازی کرد که در چندین معیار اندازه‌گیری قابلیت‌های کدنویسی و ریاضی، پیشرو در صنعت است. این عرضه تنها سه ماه پس از آن صورت گرفت که این غول فناوری مدل دیگری به نام Gemini 2.0 Flash را معرفی کرد که در آن زمان پیشرفته‌ترین مدل بود.

تولسی دوشی، مدیر و رئیس محصول Gemini در گوگل، در مصاحبه‌ای به TechCrunch گفت که افزایش سرعت عرضه مدل‌های این شرکت بخشی از یک تلاش هماهنگ برای همگام شدن با صنعت هوش مصنوعی به سرعت در حال تحول است.

دوشی گفت: “ما هنوز در تلاش هستیم تا بفهمیم بهترین راه برای عرضه این مدل‌ها چیست – بهترین راه برای دریافت بازخورد چیست.”

اما به نظر می‌رسد افزایش سرعت عرضه با هزینه‌ای همراه بوده است. گوگل هنوز گزارش‌های ایمنی مدل‌های اخیر خود، از جمله Gemini 2.5 Pro و Gemini 2.0 Flash را منتشر نکرده است، که نگرانی‌هایی را مبنی بر اینکه این شرکت سرعت را بر شفافیت اولویت می‌دهد، برانگیخته است.

امروزه، برای آزمایشگاه‌های پیشرو هوش مصنوعی – از جمله OpenAI، Anthropic و Meta – گزارش‌دهی در مورد آزمایش‌های ایمنی، ارزیابی‌های عملکرد و موارد استفاده هنگام عرضه یک مدل جدید، کاملاً استاندارد است. این گزارش‌ها، که گاهی “کارت‌های سیستم” یا “کارت‌های مدل” نامیده می‌شوند، سال‌ها پیش توسط محققان در صنعت و دانشگاه پیشنهاد شدند. گوگل در واقع یکی از اولین شرکت‌هایی بود که کارت‌های مدل را در یک مقاله تحقیقاتی در سال ۲۰۱۹ پیشنهاد کرد و آن‌ها را “رویکردی برای اقدامات مسئولانه، شفاف و پاسخگو در یادگیری ماشین” نامید.

دوشی به TechCrunch گفت که این شرکت کارت مدل Gemini 2.5 Pro را منتشر نکرده است زیرا این مدل را یک عرضه “آزمایشی” می‌داند. او گفت هدف از این عرضه‌های آزمایشی این است که یک مدل هوش مصنوعی را به طور محدود عرضه کنند، بازخورد دریافت کنند و قبل از عرضه نهایی، مدل را تکرار کنند.

به گفته دوشی، گوگل قصد دارد کارت مدل Gemini 2.5 Pro را هنگام عرضه عمومی این مدل منتشر کند و افزود که این شرکت قبلاً آزمایش‌های ایمنی و تیم‌سازی تهاجمی انجام داده است.

سخنگوی گوگل در یک پیام پیگیری به TechCrunch گفت که ایمنی همچنان “اولویت اصلی” این شرکت است و قصد دارد اسناد بیشتری در مورد مدل‌های هوش مصنوعی خود، از جمله Gemini 2.0 Flash، در آینده منتشر کند. Gemini 2.0 Flash، که به طور کلی در دسترس است، نیز فاقد کارت مدل است. آخرین کارت مدلی که گوگل منتشر کرد مربوط به Gemini 1.5 Pro بود که بیش از یک سال پیش منتشر شد.

کارت‌های سیستم و کارت‌های مدل اطلاعات مفیدی – و گاهی اوقات غیرقابل تعریف – ارائه می‌دهند که شرکت‌ها همیشه به طور گسترده در مورد هوش مصنوعی خود تبلیغ نمی‌کنند. به عنوان مثال، کارت سیستمی که OpenAI برای مدل استدلال o1 خود منتشر کرد، نشان داد که مدل این شرکت تمایل به “توطئه” علیه انسان‌ها و پیگیری مخفیانه اهداف خود دارد.

به طور کلی، جامعه هوش مصنوعی این گزارش‌ها را تلاش‌های حسن نیت برای حمایت از تحقیقات مستقل و ارزیابی‌های ایمنی تلقی می‌کند، اما این گزارش‌ها در سال‌های اخیر اهمیت بیشتری پیدا کرده‌اند. همانطور که Transformer قبلاً اشاره کرده بود، گوگل در سال ۲۰۲۳ به دولت ایالات متحده گفت که گزارش‌های ایمنی را برای تمام عرضه‌های “قابل توجه” و عمومی مدل‌های هوش مصنوعی “در محدوده” منتشر خواهد کرد. این شرکت تعهد مشابهی را به سایر دولت‌ها نیز داده و قول “ارائه شفافیت عمومی” را داده است.

تلاش‌های نظارتی در سطوح فدرال و ایالتی در ایالات متحده برای ایجاد استانداردهای گزارش‌دهی ایمنی برای توسعه‌دهندگان مدل‌های هوش مصنوعی صورت گرفته است. با این حال، این تلاش‌ها با پذیرش و موفقیت محدودی روبرو شده‌اند. یکی از قابل توجه‌ترین تلاش‌ها، لایحه SB 1047 کالیفرنیا بود که توسط صنعت فناوری به شدت با آن مخالفت شد و وتو شد. قانونگذاران همچنین قوانینی را ارائه کرده‌اند که به موسسه ایمنی هوش مصنوعی ایالات متحده، نهاد استانداردسازی هوش مصنوعی ایالات متحده، اجازه می‌دهد دستورالعمل‌هایی را برای عرضه‌های مدل ایجاد کند. با این حال، موسسه ایمنی اکنون با کاهش بودجه احتمالی تحت دولت ترامپ روبرو است.

از تمام ظواهر امر پیداست که گوگل در عمل به برخی از وعده‌های خود مبنی بر گزارش‌دهی در مورد آزمایش مدل‌ها عقب مانده است، در حالی که در عین حال مدل‌ها را سریع‌تر از همیشه عرضه می‌کند. بسیاری از کارشناسان استدلال می‌کنند که این یک بدعت بد است – به ویژه با توجه به اینکه این مدل‌ها توانمندتر و پیچیده‌تر می‌شوند.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...