گوگل، به دنبال الگوبرداری از اوپنایآی، پیشنهادی سیاستی را در پاسخ به درخواست دولت ترامپ برای تدوین یک «طرح اقدام ملی هوش مصنوعی» منتشر کرد. این غول فناوری از محدودیتهای ضعیف در زمینه حق تکثیر برای آموزش هوش مصنوعی حمایت کرد و همچنین خواستار کنترلهای صادراتی «متوازن» شد که «امنیت ملی را حفظ کند و در عین حال صادرات آمریکا و عملیات تجاری جهانی را ممکن سازد».
گوگل در این سند نوشت: «ایالات متحده باید یک سیاست اقتصادی بینالمللی فعال را دنبال کند تا از ارزشهای آمریکایی دفاع کرده و نوآوری در زمینه هوش مصنوعی را در سطح جهانی حمایت کند. برای مدت طولانی، سیاستگذاری هوش مصنوعی بیش از حد به خطرات توجه نشان داده و اغلب هزینههایی که مقررات نادرست میتوانند بر نوآوری، رقابتپذیری ملی و رهبری علمی تحمیل کنند را نادیده گرفته است — پویاییای که در دولت جدید در حال تغییر است».
یکی از توصیههای بحثبرانگیز گوگل به استفاده از مواد محافظتشده توسط مالکیت فکری مربوط میشود. گوگل استدلال میکند که «استفاده منصفانه و استثناهای استخراج متن و داده» برای توسعه هوش مصنوعی و نوآوری علمی مرتبط با آن « حیاتی» هستند. این شرکت، مانند اوپنایآی، به دنبال تدوین قانونی است که به آن و رقبایش اجازه دهد تا بر دادههای عمومی در دسترس — از جمله دادههای دارای حق تکثیر — بدون محدودیتهای عمده آموزش ببینند.
گوگل در این باره نوشت: «این استثناها امکان استفاده از مواد محافظتشده توسط حق تکثیر و در دسترس عموم را برای آموزش هوش مصنوعی فراهم میکنند، بدون اینکه تأثیر قابلتوجهی بر دارندگان حقوق داشته باشند و از مذاکرات اغلب غیرقابلپیشبینی، نامتعادل و طولانی با دارندگان داده در طول توسعه مدل یا آزمایشهای علمی جلوگیری میکنند».
گوگل که گزارش شده است تعدادی از مدلهای خود را با دادههای عمومی و دارای حق تکثیر آموزش داده، در حال مبارزه با دعاوی حقوقی از سوی مالکان داده است که این شرکت را متهم میکنند که پیش از استفاده از دادههایشان، آنها را مطلع نکرده و غرامتی پرداخت نکرده است. دادگاههای ایالات متحده هنوز تصمیم نگرفتهاند که آیا دکترین استفاده منصفانه بهطور مؤثری توسعهدهندگان هوش مصنوعی را از دعاوی مالکیت فکری محافظت میکند یا خیر.
در پیشنهاد سیاستی خود در زمینه هوش مصنوعی، گوگل همچنین با برخی از کنترلهای صادراتی اعمالشده در دولت بایدن مخالفت کرده است که به گفته این شرکت «ممکن است اهداف رقابتپذیری اقتصادی را تضعیف کند» و «بار نامتناسبی بر ارائهدهندگان خدمات ابری ایالات متحده تحمیل کند». این موضع در تضاد با اظهارات رقبای گوگل مانند مایکروسافت است که در ژانویه اعلام کرد «اطمینان دارد» که میتواند «بهطور کامل» با این قوانین مطابقت داشته باشد. مهم است که این قوانین صادراتی، که به دنبال محدود کردن دسترسی به تراشههای پیشرفته هوش مصنوعی در کشورهای نامطلوب هستند، معافیتهایی را برای کسبوکارهای مورد اعتماد که به دنبال مجموعههای بزرگ تراشه هستند، در نظر گرفتهاند.
گوگل در بخش دیگری از پیشنهاد خود خواستار «سرمایهگذاریهای بلندمدت و پایدار» در تحقیق و توسعه پایهای داخلی شد و با تلاشهای اخیر فدرال برای کاهش هزینهها و حذف جوایز کمکهزینه مخالفت کرد. این شرکت اظهار داشت که دولت باید مجموعه دادههایی را که ممکن است برای آموزش تجاری هوش مصنوعی مفید باشند منتشر کند و بودجهای را به «تحقیق و توسعه در مراحل اولیه بازار» اختصاص دهد، در حالی که اطمینان حاصل کند که محاسبات و مدلها بهطور گسترده برای دانشمندان و مؤسسات در دسترس باشند.
گوگل با اشاره به محیط نظارتی آشوبناک ناشی از مجموعه قوانین ایالتی پراکنده در زمینه هوش مصنوعی در ایالات متحده، از دولت خواست تا قوانین فدرال در مورد هوش مصنوعی را تصویب کند، از جمله یک چارچوب جامع برای حریم خصوصی و امنیت. تنها دو ماه پس از آغاز سال ۲۰۲۵، تعداد لوایح هوش مصنوعی در حال بررسی در ایالات متحده به ۷۸۱ مورد رسیده است، طبق یک ابزار ردیابی آنلاین.
گوگل به دولت ایالات متحده هشدار داد که از اعمال آنچه به نظرش تعهدات سنگین در مورد سیستمهای هوش مصنوعی است، مانند تعهدات مسئولیت استفاده، خودداری کند. این شرکت استدلال میکند که در بسیاری از موارد، توسعهدهنده یک مدل «دید یا کنترل اندکی» بر نحوه استفاده از مدل دارد و بنابراین نباید مسئولیت سوءاستفاده را بر عهده بگیرد.
از نظر تاریخی، گوگل با قوانینی مانند SB 1047 کالیفرنیا که شکست خورد مخالفت کرده است؛ قانونی که به وضوح مشخص میکرد توسعهدهندگان هوش مصنوعی پیش از انتشار یک مدل چه احتیاطهایی باید انجام دهند و در چه مواردی ممکن است مسئول آسیبهای ناشی از مدل شناخته شوند.
گوگل در این پیشنهاد نوشت: «حتی در مواردی که توسعهدهنده مدل را مستقیماً به کاربران ارائه میدهد، اغلب این کاربران هستند که بهترین موقعیت را برای درک خطرات استفادههای بعدی، اجرای مدیریت ریسک مؤثر، و انجام نظارت و ثبت پس از عرضه به بازار دارند».
گوگل همچنین در پیشنهاد خود الزامات افشاگری مانند آنچه اتحادیه اروپا در نظر دارد را «بیش از حد گسترده» توصیف کرد و گفت که دولت ایالات متحده باید با قوانین شفافیتی که «افشای اسرار تجاری، امکان کپیبرداری محصولات توسط رقبا، یا به خطر انداختن امنیت ملی از طریق ارائه نقشه راه به دشمنان برای دور زدن حفاظتها یا شکستن مدلها» را الزامی میکند، مخالفت کند.
تعداد فزایندهای از کشورها و ایالتها قوانینی را تصویب کردهاند که توسعهدهندگان هوش مصنوعی را ملزم به افشای اطلاعات بیشتری درباره نحوه عملکرد سیستمهایشان میکند. قانون AB 2013 کالیفرنیا شرکتهای توسعهدهنده سیستمهای هوش مصنوعی را موظف میکند که خلاصهای سطح بالا از مجموعه دادههایی که برای آموزش سیستمهایشان استفاده کردهاند منتشر کنند. در اتحادیه اروپا، برای رعایت قانون هوش مصنوعی پس از اجرایی شدن، شرکتها باید دستورالعملهای مفصلی در مورد عملکرد، محدودیتها و خطرات مرتبط با مدل به کاربران ارائه دهند.
منبع: تککرانچ