خبر
نویسنده لایحه SB 1047، یک لایحه جدید مرتبط با هوش مصنوعی را در کالیفرنیا معرفی کرد
زمان مطالعه: 4 دقیقه
نویسنده لایحه SB 1047، یک لایحه جدید مرتبط با هوش مصنوعی را در کالیفرنیا معرفی کرد
نویسنده لایحه SB 1047، یک لایحه جدید مرتبط با هوش مصنوعی را در کالیفرنیا معرفی کرد
خبر
نویسنده لایحه SB 1047، یک لایحه جدید مرتبط با هوش مصنوعی را در کالیفرنیا معرفی کرد
زمان مطالعه: 4 دقیقه

نویسنده لایحه SB 1047 کالیفرنیا، که جنجالی‌ترین قانون ایمنی هوش مصنوعی آمریکا در سال ۲۰۲۴ بود، با یک لایحه جدید در حوزه هوش مصنوعی بازگشته است که می‌تواند سیلیکون ولی را متحول کند.

سناتور ایالت کالیفرنیا، اسکات وینر، روز جمعه لایحه جدیدی را معرفی کرد که از کارکنان آزمایشگاه‌های پیشرو در زمینه هوش مصنوعی حمایت می‌کند و به آن‌ها اجازه می‌دهد در صورتی که معتقدند سیستم‌های هوش مصنوعی شرکتشان ممکن است «خطر جدی» برای جامعه ایجاد کند، آزادانه سخن بگویند. این لایحه جدید، موسوم به SB 53، همچنین یک خوشه محاسباتی ابری عمومی به نام CalCompute ایجاد خواهد کرد تا به پژوهشگران و استارتاپ‌ها منابع محاسباتی لازم برای توسعه هوش مصنوعی در راستای منافع عمومی ارائه دهد.

لایحه پیشین وینر، SB 1047 کالیفرنیا، بحث‌های داغی را در سراسر کشور درباره چگونگی مدیریت سیستم‌های عظیم هوش مصنوعی که ممکن است فجایع به بار آورند، برانگیخت. هدف SB 1047 جلوگیری از احتمال وقوع رویدادهای فاجعه‌بار توسط مدل‌های بسیار بزرگ هوش مصنوعی بود، مانند ایجاد تلفات جانی یا حملات سایبری با خسارتی بیش از ۵۰۰ میلیون دلار. با این حال، فرماندار گاوین نیوسام در نهایت این لایحه را در سپتامبر وتو کرد و اظهار داشت که SB 1047 بهترین رویکرد نیست.

اما بحث بر سر SB 1047 به‌سرعت به جدالی ناخوشایند تبدیل شد. برخی از رهبران سیلیکون ولی اظهار داشتند که SB 1047 به برتری رقابتی آمریکا در رقابت جهانی هوش مصنوعی آسیب می‌زند و ادعا کردند که این لایحه از ترس‌های غیرواقعی الهام گرفته شده است مبنی بر اینکه سیستم‌های هوش مصنوعی ممکن است سناریوهای آخرالزمانی شبیه داستان‌های علمی-تخیلی را رقم بزنند. در مقابل، سناتور وینر مدعی شد که برخی سرمایه‌گذاران خطرپذیر در یک «کارزار تبلیغاتی» علیه لایحه او شرکت کردند و به ادعای Y Combinator اشاره کرد که SB 1047 بنیان‌گذاران استارتاپ‌ها را به زندان می‌فرستد؛ ادعایی که کارشناسان آن را گمراه‌کننده دانستند.

لایحه SB 53 در واقع بخش‌های کم‌جنجال SB 1047 – مانند حمایت از افشاگران و تأسیس خوشه CalCompute – را برگرفته و در قالب یک لایحه جدید هوش مصنوعی بازآرایی کرده است.

با این حال، وینر در SB 53 از موضوع ریسک‌های وجودی هوش مصنوعی عقب‌نشینی نکرده است. این لایحه جدید به‌طور خاص از افشاگرانی حمایت می‌کند که معتقدند کارفرمایانشان در حال توسعه سیستم‌های هوش مصنوعی هستند که «خطر جدی» به همراه دارند. این لایحه خطر جدی را به‌عنوان «ریسک قابل پیش‌بینی یا قابل توجهی» تعریف می‌کند که «توسعه، ذخیره‌سازی یا استقرار یک مدل پایه توسط توسعه‌دهنده ممکن است به مرگ یا جراحت جدی بیش از ۱۰۰ نفر یا خسارتی بیش از ۱ میلیارد دلار به حقوق مالی یا دارایی منجر شود.»

SB 53 توسعه‌دهندگان مدل‌های پیشرفته هوش مصنوعی – که احتمالاً شامل OpenAI، Anthropic و xAI و دیگران می‌شود – را از تلافی علیه کارکنانی که اطلاعات نگران‌کننده را به دادستان کل کالیفرنیا، مقامات فدرال یا سایر کارکنان افشا می‌کنند، منع می‌کند. بر اساس این لایحه، این توسعه‌دهندگان موظف خواهند بود به افشاگران درباره برخی فرایندهای داخلی که موجب نگرانی آن‌ها شده، گزارش دهند. در مورد CalCompute، SB 53 گروهی را برای ایجاد یک خوشه محاسباتی ابری عمومی تشکیل خواهد داد. این گروه متشکل از نمایندگان دانشگاه کالیفرنیا و همچنین پژوهشگران عمومی و خصوصی دیگر خواهد بود و پیشنهادهایی برای نحوه ساخت CalCompute، اندازه آن و اینکه چه کاربران و سازمان‌هایی باید به آن دسترسی داشته باشند، ارائه خواهد داد.

البته، فرایند قانون‌گذاری برای SB 53 هنوز در مراحل اولیه است. این لایحه باید توسط نهادهای قانون‌گذاری کالیفرنیا بررسی و تصویب شود تا به میز فرماندار نیوسام برسد. قانون‌گذاران ایالتی بی‌صبرانه منتظر واکنش سیلیکون ولی به SB 53 خواهند بود.

با این حال، سال ۲۰۲۵ ممکن است در مقایسه با ۲۰۲۴ سال دشوارتری برای تصویب لوایح ایمنی هوش مصنوعی باشد. کالیفرنیا در سال ۲۰۲۴ هجده لایحه مرتبط با هوش مصنوعی را تصویب کرد، اما اکنون به نظر می‌رسد جنبش پیش‌بینی‌کننده فاجعه هوش مصنوعی جایگاه خود را از دست داده است.

جی. دی. ونس، معاون رئیس‌جمهور، در اجلاس اقدام هوش مصنوعی پاریس اعلام کرد که آمریکا به ایمنی هوش مصنوعی علاقه‌مند نیست، بلکه اولویتش نوآوری در این حوزه است. اگرچه خوشه CalCompute که توسط SB 53 ایجاد می‌شود بدون شک می‌تواند به‌عنوان عاملی برای پیشرفت هوش مصنوعی تلقی شود، اما مشخص نیست تلاش‌های قانون‌گذاری پیرامون ریسک‌های وجودی هوش مصنوعی در سال ۲۰۲۵ به چه سرانجامی خواهد رسید.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

گوگل مدل‌های جمینی را سریع‌تر از گزارش‌های ایمنی هوش مصنوعی خود عرضه می‌کند
بیش از دو سال پس از آنکه گوگل با عرضه ChatGPT توسط OpenAI غافلگیر شد، این شرکت سرعت خود را به طور چشمگیری افزایش داده است...
مدیرعامل سافت‌بانک: AGI را فراموش کنید، ASI طی ۱۰ سال آینده از راه خواهد رسی
ماسایوشی سون، بنیان‌گذار و مدیرعامل سافت‌بانک، ادعا کرده است که هوش مصنوعی فوق‌هوشمند (ASI) ممکن است طی دهه آینده به واقعیت تبدیل شود...
جیم جردن، نماینده جمهوری‌خواه کنگره، از شرکت‌های بزرگ فناوری پرسیده است که آیا بایدن تلاش کرده هوش مصنوعی را سانسور کند
روز پنج‌شنبه، جیم جردن، رئیس کمیته قضایی مجلس نمایندگان آمریکا از اوهایو (جمهوری‌خواه)، نامه‌هایی به ۱۶ شرکت فناوری آمریکایی از جمله گوگل و ...