نویسنده لایحه SB 1047 کالیفرنیا، که جنجالیترین قانون ایمنی هوش مصنوعی آمریکا در سال ۲۰۲۴ بود، با یک لایحه جدید در حوزه هوش مصنوعی بازگشته است که میتواند سیلیکون ولی را متحول کند.
سناتور ایالت کالیفرنیا، اسکات وینر، روز جمعه لایحه جدیدی را معرفی کرد که از کارکنان آزمایشگاههای پیشرو در زمینه هوش مصنوعی حمایت میکند و به آنها اجازه میدهد در صورتی که معتقدند سیستمهای هوش مصنوعی شرکتشان ممکن است «خطر جدی» برای جامعه ایجاد کند، آزادانه سخن بگویند. این لایحه جدید، موسوم به SB 53، همچنین یک خوشه محاسباتی ابری عمومی به نام CalCompute ایجاد خواهد کرد تا به پژوهشگران و استارتاپها منابع محاسباتی لازم برای توسعه هوش مصنوعی در راستای منافع عمومی ارائه دهد.
لایحه پیشین وینر، SB 1047 کالیفرنیا، بحثهای داغی را در سراسر کشور درباره چگونگی مدیریت سیستمهای عظیم هوش مصنوعی که ممکن است فجایع به بار آورند، برانگیخت. هدف SB 1047 جلوگیری از احتمال وقوع رویدادهای فاجعهبار توسط مدلهای بسیار بزرگ هوش مصنوعی بود، مانند ایجاد تلفات جانی یا حملات سایبری با خسارتی بیش از ۵۰۰ میلیون دلار. با این حال، فرماندار گاوین نیوسام در نهایت این لایحه را در سپتامبر وتو کرد و اظهار داشت که SB 1047 بهترین رویکرد نیست.
اما بحث بر سر SB 1047 بهسرعت به جدالی ناخوشایند تبدیل شد. برخی از رهبران سیلیکون ولی اظهار داشتند که SB 1047 به برتری رقابتی آمریکا در رقابت جهانی هوش مصنوعی آسیب میزند و ادعا کردند که این لایحه از ترسهای غیرواقعی الهام گرفته شده است مبنی بر اینکه سیستمهای هوش مصنوعی ممکن است سناریوهای آخرالزمانی شبیه داستانهای علمی-تخیلی را رقم بزنند. در مقابل، سناتور وینر مدعی شد که برخی سرمایهگذاران خطرپذیر در یک «کارزار تبلیغاتی» علیه لایحه او شرکت کردند و به ادعای Y Combinator اشاره کرد که SB 1047 بنیانگذاران استارتاپها را به زندان میفرستد؛ ادعایی که کارشناسان آن را گمراهکننده دانستند.
لایحه SB 53 در واقع بخشهای کمجنجال SB 1047 – مانند حمایت از افشاگران و تأسیس خوشه CalCompute – را برگرفته و در قالب یک لایحه جدید هوش مصنوعی بازآرایی کرده است.
با این حال، وینر در SB 53 از موضوع ریسکهای وجودی هوش مصنوعی عقبنشینی نکرده است. این لایحه جدید بهطور خاص از افشاگرانی حمایت میکند که معتقدند کارفرمایانشان در حال توسعه سیستمهای هوش مصنوعی هستند که «خطر جدی» به همراه دارند. این لایحه خطر جدی را بهعنوان «ریسک قابل پیشبینی یا قابل توجهی» تعریف میکند که «توسعه، ذخیرهسازی یا استقرار یک مدل پایه توسط توسعهدهنده ممکن است به مرگ یا جراحت جدی بیش از ۱۰۰ نفر یا خسارتی بیش از ۱ میلیارد دلار به حقوق مالی یا دارایی منجر شود.»
SB 53 توسعهدهندگان مدلهای پیشرفته هوش مصنوعی – که احتمالاً شامل OpenAI، Anthropic و xAI و دیگران میشود – را از تلافی علیه کارکنانی که اطلاعات نگرانکننده را به دادستان کل کالیفرنیا، مقامات فدرال یا سایر کارکنان افشا میکنند، منع میکند. بر اساس این لایحه، این توسعهدهندگان موظف خواهند بود به افشاگران درباره برخی فرایندهای داخلی که موجب نگرانی آنها شده، گزارش دهند. در مورد CalCompute، SB 53 گروهی را برای ایجاد یک خوشه محاسباتی ابری عمومی تشکیل خواهد داد. این گروه متشکل از نمایندگان دانشگاه کالیفرنیا و همچنین پژوهشگران عمومی و خصوصی دیگر خواهد بود و پیشنهادهایی برای نحوه ساخت CalCompute، اندازه آن و اینکه چه کاربران و سازمانهایی باید به آن دسترسی داشته باشند، ارائه خواهد داد.
البته، فرایند قانونگذاری برای SB 53 هنوز در مراحل اولیه است. این لایحه باید توسط نهادهای قانونگذاری کالیفرنیا بررسی و تصویب شود تا به میز فرماندار نیوسام برسد. قانونگذاران ایالتی بیصبرانه منتظر واکنش سیلیکون ولی به SB 53 خواهند بود.
با این حال، سال ۲۰۲۵ ممکن است در مقایسه با ۲۰۲۴ سال دشوارتری برای تصویب لوایح ایمنی هوش مصنوعی باشد. کالیفرنیا در سال ۲۰۲۴ هجده لایحه مرتبط با هوش مصنوعی را تصویب کرد، اما اکنون به نظر میرسد جنبش پیشبینیکننده فاجعه هوش مصنوعی جایگاه خود را از دست داده است.
جی. دی. ونس، معاون رئیسجمهور، در اجلاس اقدام هوش مصنوعی پاریس اعلام کرد که آمریکا به ایمنی هوش مصنوعی علاقهمند نیست، بلکه اولویتش نوآوری در این حوزه است. اگرچه خوشه CalCompute که توسط SB 53 ایجاد میشود بدون شک میتواند بهعنوان عاملی برای پیشرفت هوش مصنوعی تلقی شود، اما مشخص نیست تلاشهای قانونگذاری پیرامون ریسکهای وجودی هوش مصنوعی در سال ۲۰۲۵ به چه سرانجامی خواهد رسید.