مدیرعامل متا، مارک زاکربرگ، متعهد شده است که روزی هوش عمومی مصنوعی (AGI) را – که به طور کلی به عنوان هوش مصنوعیای تعریف میشود که میتواند هر وظیفهای را که یک انسان قادر به انجام آن است، انجام دهد – بهصورت عمومی در دسترس قرار دهد. اما در یک سند سیاستی جدید، متا نشان میدهد که در برخی سناریوها ممکن است یک سیستم هوش مصنوعی بسیار قدرتمند که بهصورت داخلی توسعه داده است را منتشر نکند.
این سند، که متا آن را چارچوب هوش مصنوعی پیشرفته (Frontier AI Framework) نامیده است، دو نوع سیستم هوش مصنوعی را که شرکت آنها را بیش از حد پرخطر برای انتشار میداند، مشخص میکند: سیستمهای “پرخطر” و “بحرانی”.
طبق تعریف متا، هر دو نوع سیستم “پرخطر” و “بحرانی” قادر به کمک در حملات سایبری، حملات شیمیایی و بیولوژیکی هستند، با این تفاوت که سیستمهای “بحرانی” میتوانند منجر به یک نتیجه فاجعهبار شوند که در چارچوب پیادهسازی پیشنهادی قابل کاهش نیست. در مقابل، سیستمهای “پرخطر” ممکن است حمله را آسانتر کنند، اما به اندازه یک سیستم بحرانی، مطمئن و قابلاتکا عمل نمیکنند.
چه نوع حملاتی مدنظر متا هستند؟
متا چند مثال ارائه میدهد، از جمله:
- نقض خودکار و جامع یک محیط سازمانی محافظتشده با استانداردهای برتر امنیتی
- گسترش تسلیحات بیولوژیکی با تأثیر بالا
البته، فهرست سناریوهای فاجعهبار در این سند کامل نیست، اما متا تأکید میکند که این موارد از جمله فوریترین و محتملترین تهدیدهایی هستند که ممکن است مستقیماً از انتشار یک سیستم هوش مصنوعی قدرتمند ناشی شوند.
ارزیابی ریسک سیستمهای هوش مصنوعی
نکته جالب اینجاست که طبق این سند، متا ریسک سیستمها را نه بر اساس یک معیار تجربی خاص، بلکه بر اساس نظرات پژوهشگران داخلی و خارجی که توسط مدیران ارشد بررسی میشوند، تعیین میکند.
چرا؟ متا میگوید که معتقد نیست علم ارزیابی ریسک به اندازه کافی قوی باشد تا بتواند معیارهای کمی و دقیقی برای تعیین میزان خطر یک سیستم ارائه دهد.
اگر متا یک سیستم را “پرخطر” تشخیص دهد، دسترسی به آن را در داخل شرکت محدود کرده و آن را منتشر نخواهد کرد تا زمانی که اقدامات لازم برای کاهش ریسک به سطح متوسط اجرا شوند.
اما اگر یک سیستم “بحرانی” تشخیص داده شود، متا اقدامات امنیتی نامشخصی برای جلوگیری از سرقت آن اتخاذ کرده و توسعه آن را متوقف میکند تا زمانی که بتواند آن را ایمنتر کند.
چارچوب هوش مصنوعی پیشرفته متا و چالشهای پیش روی آن
متا اعلام کرده است که چارچوب هوش مصنوعی پیشرفته خود را با تغییرات مستمر در حوزه هوش مصنوعی تطبیق خواهد داد. این شرکت قبلاً متعهد شده بود که این سند را پیش از برگزاری نشست اقدام برای هوش مصنوعی در فرانسه در این ماه منتشر کند.
این اقدام احتمالاً پاسخی به انتقادات پیرامون رویکرد “باز” متا در توسعه سیستمهای هوش مصنوعی است. برخلاف شرکتهایی مانند OpenAI که سیستمهای خود را از طریق APIهای محدود در دسترس قرار میدهند، متا راهبرد انتشار عمومی را در پیش گرفته است – البته نه به معنای متنباز (open-source) به شکل مرسوم.
انتشار آزادانه هوش مصنوعی: فرصت یا تهدید؟
استراتژی انتشار آزادانه متا هم یک مزیت و هم یک چالش بوده است. مدلهای هوش مصنوعی این شرکت، با نام Llama، تاکنون صدها میلیون بار دانلود شدهاند. اما گزارشها حاکی از آن هستند که دستکم یک رقیب ایالات متحده از این مدلها برای توسعه یک چتبات دفاعی استفاده کرده است.
به نظر میرسد متا با انتشار این چارچوب قصد دارد تفاوت رویکرد خود را با شرکت چینی DeepSeek برجسته کند. شرکت DeepSeek نیز سیستمهای هوش مصنوعی خود را بهصورت عمومی منتشر میکند، اما حفاظتهای کمی روی مدلهای خود اعمال کرده و بهراحتی میتوان آنها را به سمت تولید خروجیهای مخرب و مضر هدایت کرد.
متا در سند خود مینویسد:
“ما بر این باوریم که با در نظر گرفتن همزمان مزایا و ریسکها در تصمیمگیریهای مربوط به توسعه و استقرار هوش مصنوعی پیشرفته، میتوان این فناوری را به گونهای در اختیار جامعه قرار داد که مزایای آن حفظ شده و در عین حال، سطح ریسک آن در حد قابل قبولی باقی بماند.”
منبع: تککرانچ