خبر
اریک اشمیت با «پروژه منهتن برای هوش مصنوعی عمومی» مخالفت می‌کند
زمان مطالعه: 4 دقیقه
اریک اشمیت با «پروژه منهتن برای هوش مصنوعی عمومی» مخالفت می‌کند
اریک اشمیت با «پروژه منهتن برای هوش مصنوعی عمومی» مخالفت می‌کند
خبر
اریک اشمیت با «پروژه منهتن برای هوش مصنوعی عمومی» مخالفت می‌کند
زمان مطالعه: 4 دقیقه

در مقاله‌ای سیاستی که روز چهارشنبه منتشر شد، اریک اشمیت، مدیرعامل سابق گوگل، الکساندر وانگ، مدیرعامل Scale AI، و دان هندریکس، مدیر مرکز ایمنی هوش مصنوعی، اظهار داشتند که ایالات متحده نباید به دنبال رویکردی مشابه «پروژه منهتن» برای توسعه سیستم‌های هوش مصنوعی با «هوش فرابشری»، که به اختصار AGI شناخته می‌شود، باشد.

این مقاله با عنوان «استراتژی فراهوشمندی» ادعا می‌کند که تلاش تهاجمی ایالات متحده برای کنترل انحصاری سیستم‌های هوش مصنوعی فراهوشمند ممکن است واکنش شدیدی از سوی چین به دنبال داشته باشد، احتمالاً در قالب یک حمله سایبری، که می‌تواند روابط بین‌المللی را بی‌ثبات کند.

نویسندگان همکار می‌نویسند: «[پروژه منهتن برای AGI] فرض می‌کند که رقبا با نابرابری پایدار یا نابودی کامل موافقت خواهند کرد، به جای اینکه برای جلوگیری از آن اقدام کنند. آنچه به عنوان تلاشی برای دستیابی به یک سلاح فوق‌العاده و کنترل جهانی آغاز می‌شود، ممکن است اقدامات خصمانه و تشدید تنش‌ها را برانگیزد و در نتیجه همان ثباتی را که این استراتژی ادعا می‌کند به دنبال آن است، تضعیف کند.»

این مقاله که توسط سه چهره بسیار تأثیرگذار در صنعت هوش مصنوعی آمریکا نوشته شده، تنها چند ماه پس از آن منتشر می‌شود که یک کمیسیون کنگره ایالات متحده پیشنهاد کرد تلاشی به سبک «پروژه منهتن» برای تأمین مالی توسعه AGI، مشابه برنامه بمب اتمی آمریکا در دهه ۱۹۴۰، انجام شود. کریس رایت، وزیر انرژی ایالات متحده، اخیراً در کنار گرگ براکمن، هم‌بنیان‌گذار OpenAI، در مقابل یک سایت ابررایانه اظهار داشت که آمریکا در «آغاز یک پروژه منهتن جدید» در زمینه هوش مصنوعی قرار دارد.

مقاله «استراتژی فراهوشمندی» ایده‌ای را که در ماه‌های اخیر توسط چندین رهبر سیاسی و صنعتی آمریکا حمایت شده، به چالش می‌کشد؛ ایده‌ای که معتقد است برنامه‌ای با حمایت دولت برای پیگیری AGI بهترین راه رقابت با چین است.

به نظر اشمیت، وانگ و هندریکس، ایالات متحده در نوعی بن‌بست AGI قرار دارد که شباهت‌هایی به «نابودی متقابل تضمین‌شده» دارد. همان‌طور که قدرت‌های جهانی به دنبال انحصار تسلیحات هسته‌ای نیستند — زیرا این امر می‌تواند حمله پیش‌دستانه از سوی دشمن را تحریک کند — اشمیت و همکارانش استدلال می‌کنند که ایالات متحده باید در رقابت برای تسلط بر سیستم‌های هوش مصنوعی بسیار قدرتمند محتاط باشد.

اگرچه مقایسه سیستم‌های هوش مصنوعی با تسلیحات هسته‌ای ممکن است افراطی به نظر برسد، رهبران جهان هم‌اکنون هوش مصنوعی را یک مزیت نظامی برتر می‌دانند. پنتاگون اعلام کرده که هوش مصنوعی در حال حاضر به تسریع زنجیره کشتار نظامی کمک می‌کند.

اشمیت و همکارانش مفهومی به نام «خرابی متقابل تضمین‌شده هوش مصنوعی» (MAIM) را معرفی می‌کنند، که در آن دولت‌ها می‌توانند پروژه‌های هوش مصنوعی تهدیدآمیز را به‌صورت پیش‌فعال غیرفعال کنند، به جای اینکه منتظر بمانند تا دشمنان AGI را به سلاح تبدیل کنند.

اشمیت، وانگ و هندریکس پیشنهاد می‌کنند که ایالات متحده تمرکز خود را از «پیروزی در رقابت برای فراهوشمندی» به توسعه روش‌هایی معطوف کند که سایر کشورها را از ایجاد هوش مصنوعی فراهوشمند بازدارد. نویسندگان استدلال می‌کنند که دولت باید «زیرساخت حملات سایبری خود را برای غیرفعال کردن پروژه‌های هوش مصنوعی تهدیدآمیز» تحت کنترل سایر کشورها گسترش دهد و همچنین دسترسی دشمنان به تراشه‌های پیشرفته هوش مصنوعی و مدل‌های متن‌باز را محدود کند.

نویسندگان به دوگانگی‌ای اشاره می‌کنند که در دنیای سیاست‌گذاری هوش مصنوعی شکل گرفته است. از یک سو، «فاجعه‌گرایان» هستند که معتقدند نتایج فاجعه‌بار از توسعه هوش مصنوعی اجتناب‌ناپذیر است و خواستار کند شدن پیشرفت هوش مصنوعی توسط کشورها هستند. از سوی دیگر، «شترمرغ‌ها» قرار دارند که معتقدند ملت‌ها باید توسعه هوش مصنوعی را تسریع کنند و اساساً فقط امیدوار باشند که همه چیز به خوبی پیش برود.

این مقاله راه سومی پیشنهاد می‌کند: رویکردی سنجیده به توسعه AGI که استراتژی‌های دفاعی را در اولویت قرار دهد.

این استراتژی به‌ویژه از سوی اشمیت قابل توجه است، کسی که پیش‌تر به‌طور صریح درباره نیاز ایالات متحده به رقابت تهاجمی با چین در توسعه سیستم‌های هوش مصنوعی پیشرفته صحبت کرده بود. تنها چند ماه پیش، اشمیت در مقاله‌ای اظهار داشت که DeepSeek نقطه عطفی در رقابت هوش مصنوعی آمریکا با چین بود.

دولت ترامپ به نظر مصمم است که توسعه هوش مصنوعی آمریکا را پیش ببرد. با این حال، همان‌طور که نویسندگان خاطرنشان می‌کنند، تصمیمات آمریکا درباره AGI در خلأ وجود ندارد.

در حالی که جهان شاهد تلاش آمریکا برای پیشبرد مرزهای هوش مصنوعی است، اشمیت و همکارانش پیشنهاد می‌کنند که شاید عاقلانه‌تر باشد که رویکردی دفاعی در پیش گرفته شود.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...