در مقالهای سیاستی که روز چهارشنبه منتشر شد، اریک اشمیت، مدیرعامل سابق گوگل، الکساندر وانگ، مدیرعامل Scale AI، و دان هندریکس، مدیر مرکز ایمنی هوش مصنوعی، اظهار داشتند که ایالات متحده نباید به دنبال رویکردی مشابه «پروژه منهتن» برای توسعه سیستمهای هوش مصنوعی با «هوش فرابشری»، که به اختصار AGI شناخته میشود، باشد.
این مقاله با عنوان «استراتژی فراهوشمندی» ادعا میکند که تلاش تهاجمی ایالات متحده برای کنترل انحصاری سیستمهای هوش مصنوعی فراهوشمند ممکن است واکنش شدیدی از سوی چین به دنبال داشته باشد، احتمالاً در قالب یک حمله سایبری، که میتواند روابط بینالمللی را بیثبات کند.
نویسندگان همکار مینویسند: «[پروژه منهتن برای AGI] فرض میکند که رقبا با نابرابری پایدار یا نابودی کامل موافقت خواهند کرد، به جای اینکه برای جلوگیری از آن اقدام کنند. آنچه به عنوان تلاشی برای دستیابی به یک سلاح فوقالعاده و کنترل جهانی آغاز میشود، ممکن است اقدامات خصمانه و تشدید تنشها را برانگیزد و در نتیجه همان ثباتی را که این استراتژی ادعا میکند به دنبال آن است، تضعیف کند.»
این مقاله که توسط سه چهره بسیار تأثیرگذار در صنعت هوش مصنوعی آمریکا نوشته شده، تنها چند ماه پس از آن منتشر میشود که یک کمیسیون کنگره ایالات متحده پیشنهاد کرد تلاشی به سبک «پروژه منهتن» برای تأمین مالی توسعه AGI، مشابه برنامه بمب اتمی آمریکا در دهه ۱۹۴۰، انجام شود. کریس رایت، وزیر انرژی ایالات متحده، اخیراً در کنار گرگ براکمن، همبنیانگذار OpenAI، در مقابل یک سایت ابررایانه اظهار داشت که آمریکا در «آغاز یک پروژه منهتن جدید» در زمینه هوش مصنوعی قرار دارد.
مقاله «استراتژی فراهوشمندی» ایدهای را که در ماههای اخیر توسط چندین رهبر سیاسی و صنعتی آمریکا حمایت شده، به چالش میکشد؛ ایدهای که معتقد است برنامهای با حمایت دولت برای پیگیری AGI بهترین راه رقابت با چین است.
به نظر اشمیت، وانگ و هندریکس، ایالات متحده در نوعی بنبست AGI قرار دارد که شباهتهایی به «نابودی متقابل تضمینشده» دارد. همانطور که قدرتهای جهانی به دنبال انحصار تسلیحات هستهای نیستند — زیرا این امر میتواند حمله پیشدستانه از سوی دشمن را تحریک کند — اشمیت و همکارانش استدلال میکنند که ایالات متحده باید در رقابت برای تسلط بر سیستمهای هوش مصنوعی بسیار قدرتمند محتاط باشد.
اگرچه مقایسه سیستمهای هوش مصنوعی با تسلیحات هستهای ممکن است افراطی به نظر برسد، رهبران جهان هماکنون هوش مصنوعی را یک مزیت نظامی برتر میدانند. پنتاگون اعلام کرده که هوش مصنوعی در حال حاضر به تسریع زنجیره کشتار نظامی کمک میکند.
اشمیت و همکارانش مفهومی به نام «خرابی متقابل تضمینشده هوش مصنوعی» (MAIM) را معرفی میکنند، که در آن دولتها میتوانند پروژههای هوش مصنوعی تهدیدآمیز را بهصورت پیشفعال غیرفعال کنند، به جای اینکه منتظر بمانند تا دشمنان AGI را به سلاح تبدیل کنند.
اشمیت، وانگ و هندریکس پیشنهاد میکنند که ایالات متحده تمرکز خود را از «پیروزی در رقابت برای فراهوشمندی» به توسعه روشهایی معطوف کند که سایر کشورها را از ایجاد هوش مصنوعی فراهوشمند بازدارد. نویسندگان استدلال میکنند که دولت باید «زیرساخت حملات سایبری خود را برای غیرفعال کردن پروژههای هوش مصنوعی تهدیدآمیز» تحت کنترل سایر کشورها گسترش دهد و همچنین دسترسی دشمنان به تراشههای پیشرفته هوش مصنوعی و مدلهای متنباز را محدود کند.
نویسندگان به دوگانگیای اشاره میکنند که در دنیای سیاستگذاری هوش مصنوعی شکل گرفته است. از یک سو، «فاجعهگرایان» هستند که معتقدند نتایج فاجعهبار از توسعه هوش مصنوعی اجتنابناپذیر است و خواستار کند شدن پیشرفت هوش مصنوعی توسط کشورها هستند. از سوی دیگر، «شترمرغها» قرار دارند که معتقدند ملتها باید توسعه هوش مصنوعی را تسریع کنند و اساساً فقط امیدوار باشند که همه چیز به خوبی پیش برود.
این مقاله راه سومی پیشنهاد میکند: رویکردی سنجیده به توسعه AGI که استراتژیهای دفاعی را در اولویت قرار دهد.
این استراتژی بهویژه از سوی اشمیت قابل توجه است، کسی که پیشتر بهطور صریح درباره نیاز ایالات متحده به رقابت تهاجمی با چین در توسعه سیستمهای هوش مصنوعی پیشرفته صحبت کرده بود. تنها چند ماه پیش، اشمیت در مقالهای اظهار داشت که DeepSeek نقطه عطفی در رقابت هوش مصنوعی آمریکا با چین بود.
دولت ترامپ به نظر مصمم است که توسعه هوش مصنوعی آمریکا را پیش ببرد. با این حال، همانطور که نویسندگان خاطرنشان میکنند، تصمیمات آمریکا درباره AGI در خلأ وجود ندارد.
در حالی که جهان شاهد تلاش آمریکا برای پیشبرد مرزهای هوش مصنوعی است، اشمیت و همکارانش پیشنهاد میکنند که شاید عاقلانهتر باشد که رویکردی دفاعی در پیش گرفته شود.