مدیرعامل Anthropic، داریو آمودی، نگران رقیب DeepSeek، شرکت چینی هوش مصنوعی است که با مدل R1 خود سیلیکون ولی را تحت تأثیر قرار داده است. اما نگرانیهای او میتواند فراتر از موضوعات معمول درباره ارسال دادههای کاربران به چین باشد.
در مصاحبهای با پادکست ChinaTalk به میزبانی جردن اشنایدر، آمودی گفت که DeepSeek در یک آزمایش ایمنی که توسط Anthropic اجرا شد، اطلاعات نادری درباره تسلیحات بیولوژیکی تولید کرده است.
آمودی ادعا کرد: «عملکرد DeepSeek بدترین عملکرد در میان تقریباً هر مدلی بود که ما تاکنون آزمایش کردهایم.» او افزود: «این مدل هیچ محدودیتی برای جلوگیری از تولید این اطلاعات نداشت.»
وی توضیح داد که این آزمایش بخشی از ارزیابیهایی است که Anthropic بهطور منظم روی مدلهای مختلف هوش مصنوعی انجام میدهد تا خطرات احتمالی برای امنیت ملی را ارزیابی کند. تیم او بررسی میکند که آیا مدلها قادر به تولید اطلاعات مرتبط با تسلیحات بیولوژیکی هستند که بهراحتی در گوگل یا کتابهای درسی یافت نمیشود یا خیر. Anthropic خود را بهعنوان ارائهدهنده مدلهای بنیادی هوش مصنوعی که به ایمنی اهمیت میدهد، معرفی کرده است.
آمودی بیان کرد که در حال حاضر مدلهای DeepSeek «به معنای واقعی خطرناک» نیستند، اما ممکن است در آینده نزدیک خطرناک شوند. او در حالی که تیم DeepSeek را بهعنوان «مهندسان بااستعداد» تحسین کرد، به آنها توصیه کرد که «نگرش جدیتری به این ملاحظات ایمنی در هوش مصنوعی داشته باشند.»
آمودی همچنین از کنترلهای سختگیرانه صادرات تراشه به چین حمایت کرده و نگرانیهایی را در مورد مزیت نظامی احتمالی چین مطرح کرده است.
آمودی در مصاحبه خود با ChinaTalk مشخص نکرد که کدام مدل DeepSeek توسط Anthropic آزمایش شده است و جزئیات فنی بیشتری درباره این آزمایشها ارائه نداد. Anthropic و DeepSeek نیز به درخواستهای TechCrunch برای اظهار نظر بلافاصله پاسخ ندادند.
ظهور DeepSeek نگرانیهایی در مورد ایمنی در جاهای دیگر نیز ایجاد کرده است. بهعنوان مثال، پژوهشگران امنیتی Cisco هفته گذشته اعلام کردند که DeepSeek R1 در آزمایشهای ایمنی خود در برابر دستورات مضر هیچ مقاومتی نشان نداده و نرخ موفقیت ۱۰۰ درصدی در دور زدن محدودیتها داشته است.
Cisco اشارهای به تسلیحات بیولوژیکی نکرده است، اما اعلام کرد که موفق به دریافت اطلاعات مضر درباره جرایم سایبری و سایر فعالیتهای غیرقانونی از این مدل شده است. با این حال، شایان ذکر است که مدلهای Llama-3.1-405B شرکت Meta و GPT-4o شرکت OpenAI نیز نرخهای شکست بالایی به ترتیب ۹۶٪ و ۸۶٪ داشتهاند.
هنوز مشخص نیست که آیا این نگرانیهای ایمنی تأثیر قابل توجهی بر پذیرش سریع DeepSeek خواهد داشت یا خیر. شرکتهایی مانند AWS و مایکروسافت بهطور علنی از ادغام R1 در پلتفرمهای ابری خود حمایت کردهاند — موضوعی که با توجه به اینکه آمازون بزرگترین سرمایهگذار Anthropic است، تناقضآمیز به نظر میرسد.
از سوی دیگر، فهرست کشورهای، شرکتها و بهویژه سازمانهای دولتی مانند نیروی دریایی ایالات متحده و پنتاگون که DeepSeek را ممنوع کردهاند، در حال افزایش است.
زمان نشان خواهد داد که آیا این تلاشها موفق خواهند بود یا ظهور جهانی DeepSeek همچنان ادامه خواهد داشت. به هر حال، آمودی معتقد است که DeepSeek یک رقیب جدید در سطح شرکتهای برتر هوش مصنوعی ایالات متحده است.
او در پادکست ChinaTalk گفت: «واقعیت جدید این است که یک رقیب جدید وجود دارد. در میان شرکتهای بزرگی که میتوانند هوش مصنوعی را آموزش دهند — Anthropic، OpenAI، گوگل، شاید Meta و xAI — حالا شاید DeepSeek به این دسته اضافه شده باشد.»
منبع: تککرانچ