خبر
شرکت Anthropic به‌آرامی تعهدات سیاست هوش مصنوعی مربوط به دوران بایدن را از وب‌سایت خود حذف کرد
زمان مطالعه: 4 دقیقه
شرکت Anthropic به‌آرامی تعهدات سیاست هوش مصنوعی مربوط به دوران بایدن را از وب‌سایت خود حذف کرد
شرکت Anthropic به‌آرامی تعهدات سیاست هوش مصنوعی مربوط به دوران بایدن را از وب‌سایت خود حذف کرد
خبر
شرکت Anthropic به‌آرامی تعهدات سیاست هوش مصنوعی مربوط به دوران بایدن را از وب‌سایت خود حذف کرد
زمان مطالعه: 4 دقیقه

شرکت Anthropic به‌طور بی‌سر و صدا چندین تعهد داوطلبانه را که در سال ۲۰۲۳ در همکاری با دولت بایدن برای ترویج هوش مصنوعی ایمن و «قابل اعتماد» اعلام کرده بود، از وب‌سایت خود حذف کرده است.

به گزارش گروه ناظر هوش مصنوعی، پروژه مایداس، این تعهدات که شامل وعده‌هایی برای به اشتراک گذاشتن اطلاعات درباره مدیریت ریسک‌های هوش مصنوعی در میان صنعت و دولت و تحقیق درباره تعصب و تبعیض در هوش مصنوعی بود، هفته گذشته از مرکز شفافیت Anthropic حذف شدند. با این حال، سایر تعهدات مربوط به دوران بایدن درباره کاهش سوءاستفاده جنسی مبتنی بر تصاویر تولیدشده توسط هوش مصنوعی همچنان باقی مانده‌اند.

به نظر می‌رسد Anthropic هیچ اطلاعیه‌ای درباره این تغییر منتشر نکرده است. این شرکت بلافاصله به درخواست اظهارنظر پاسخ نداد.

Anthropic به همراه شرکت‌هایی از جمله OpenAI، گوگل، مایکروسافت، متا و Inflection، در ژوئیه ۲۰۲۳ اعلام کرد که پذیرفته است به برخی تعهدات داوطلبانه ایمنی هوش مصنوعی که توسط دولت بایدن پیشنهاد شده بود، پایبند باشد. این تعهدات شامل آزمایش‌های امنیتی داخلی و خارجی سیستم‌های هوش مصنوعی پیش از عرضه، سرمایه‌گذاری در امنیت سایبری برای حفاظت از داده‌های حساس هوش مصنوعی، و توسعه روش‌هایی برای علامت‌گذاری محتوای تولیدشده توسط هوش مصنوعی بود.

برای روشن شدن موضوع، Anthropic پیش‌تر بسیاری از رویه‌های ذکرشده در این تعهدات را پذیرفته بود و این توافق از نظر قانونی الزام‌آور نبود. اما هدف دولت بایدن این بود که پیش از صدور فرمان اجرایی جامع‌تر هوش مصنوعی که چند ماه بعد اجرایی شد، اولویت‌های سیاستی خود در زمینه هوش مصنوعی را اعلام کند.

دولت ترامپ نشان داده است که رویکردش به مدیریت هوش مصنوعی کاملاً متفاوت خواهد بود.

در ژانویه، رئیس‌جمهور ترامپ فرمان اجرایی پیشین هوش مصنوعی را لغو کرد؛ فرمانی که به مؤسسه ملی استاندارد و فناوری دستور داده بود راهنمایی‌هایی تدوین کند تا به شرکت‌ها کمک کند عیوب مدل‌ها، از جمله تعصب‌ها، را شناسایی و اصلاح کنند. منتقدان همسو با ترامپ استدلال کردند که الزامات گزارش‌دهی این فرمان سنگین بود و عملاً شرکت‌ها را مجبور می‌کرد اسرار تجاری خود را افشا کنند.

اندکی پس از لغو فرمان اجرایی هوش مصنوعی، ترامپ فرمانی امضا کرد که به سازمان‌های فدرال دستور می‌داد توسعه هوش مصنوعی «بدون تعصب ایدئولوژیک» را ترویج دهند که به «شکوفایی انسانی، رقابت اقتصادی و امنیت ملی» کمک کند. نکته مهم این است که فرمان ترامپ هیچ اشاره‌ای به مبارزه با تبعیض در هوش مصنوعی نداشت، که یکی از اصول کلیدی ابتکار بایدن بود.

پروژه مایداس در مجموعه‌ای از پست‌ها در X خاطرنشان کرد که هیچ چیزی در تعهدات دوران بایدن نشان نمی‌داد که این وعده‌ها محدود به زمان یا وابسته به وابستگی حزبی رئیس‌جمهور وقت باشند. در نوامبر، پس از انتخابات، چندین شرکت هوش مصنوعی تأیید کردند که تعهداتشان تغییر نکرده است.

Anthropic تنها شرکتی نیست که در ماه‌های پس از روی کار آمدن ترامپ سیاست‌های عمومی خود را تعدیل کرده است. OpenAI اخیراً اعلام کرد که «آزادی فکری … بدون توجه به اینکه موضوع چقدر چالش‌برانگیز یا جنجالی باشد» را در آغوش خواهد کشید و تلاش خواهد کرد تا اطمینان حاصل کند که هوش مصنوعی‌اش دیدگاه‌های خاصی را سانسور نمی‌کند.

OpenAI همچنین صفحه‌ای را از وب‌سایت خود حذف کرد که پیش‌تر تعهد این استارتاپ به تنوع، برابری و شمول (DEI) را بیان می‌کرد. این برنامه‌ها از سوی دولت ترامپ مورد انتقاد قرار گرفته‌اند و باعث شده‌اند که تعدادی از شرکت‌ها ابتکارات DEI خود را حذف یا به‌طور قابل‌توجهی بازنگری کنند.

بسیاری از مشاوران ترامپ در دره سیلیکون در زمینه هوش مصنوعی، از جمله مارک اندرسن، دیوید ساکس و ایلان ماسک، ادعا کرده‌اند که شرکت‌هایی مانند گوگل و OpenAI با محدود کردن پاسخ‌های چت‌بات‌های هوش مصنوعی خود، در سانسور هوش مصنوعی دست داشته‌اند. آزمایشگاه‌هایی مانند OpenAI انکار کرده‌اند که تغییرات سیاستی‌شان در پاسخ به فشار سیاسی باشد.

هر دو شرکت OpenAI و Anthropic در حال حاضر قراردادهای دولتی را دنبال کرده یا در دست دارند.

چند ساعت پس از انتشار این خبر، Anthropic بیانیه زیر را برای تک‌کرانچ ارسال کرد:

«ما همچنان به تعهدات داوطلبانه هوش مصنوعی که در دولت بایدن تعیین شده بود، پایبند هستیم. این پیشرفت‌ها و اقدامات خاص همچنان در مرکز شفافیت [ما] در محتوای مربوطه منعکس شده‌اند. برای جلوگیری از سردرگمی بیشتر، بخشی را اضافه خواهیم کرد که به‌طور مستقیم نشان دهد پیشرفت ما در کجا با این تعهدات هم‌راستا است.»

به‌روزرسانی در ساعت ۱۱:۲۵ صبح به وقت اقیانوس آرام: بیانیه‌ای از Anthropic اضافه شد.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...