خبر
متا اعلام کرد که ممکن است توسعه سیستم‌های هوش مصنوعی را که آن‌ها را بیش از حد پرخطر می‌داند، متوقف کند
زمان مطالعه: 2 دقیقه
متا اعلام کرد که ممکن است توسعه سیستم‌های هوش مصنوعی را که آن‌ها را بیش از حد پرخطر می‌داند، متوقف کند
متا اعلام کرد که ممکن است توسعه سیستم‌های هوش مصنوعی را که آن‌ها را بیش از حد پرخطر می‌داند، متوقف کند
خبر
متا اعلام کرد که ممکن است توسعه سیستم‌های هوش مصنوعی را که آن‌ها را بیش از حد پرخطر می‌داند، متوقف کند
زمان مطالعه: 2 دقیقه

مدیرعامل متا، مارک زاکربرگ، متعهد شده است که روزی هوش عمومی مصنوعی (AGI) را – که به طور کلی به عنوان هوش مصنوعی‌ای تعریف می‌شود که می‌تواند هر وظیفه‌ای را که یک انسان قادر به انجام آن است، انجام دهد – به‌صورت عمومی در دسترس قرار دهد. اما در یک سند سیاستی جدید، متا نشان می‌دهد که در برخی سناریوها ممکن است یک سیستم هوش مصنوعی بسیار قدرتمند که به‌صورت داخلی توسعه داده است را منتشر نکند.

این سند، که متا آن را چارچوب هوش مصنوعی پیشرفته (Frontier AI Framework) نامیده است، دو نوع سیستم هوش مصنوعی را که شرکت آن‌ها را بیش از حد پرخطر برای انتشار می‌داند، مشخص می‌کند: سیستم‌های “پرخطر” و “بحرانی”.

طبق تعریف متا، هر دو نوع سیستم “پرخطر” و “بحرانی” قادر به کمک در حملات سایبری، حملات شیمیایی و بیولوژیکی هستند، با این تفاوت که سیستم‌های “بحرانی” می‌توانند منجر به یک نتیجه فاجعه‌بار شوند که در چارچوب پیاده‌سازی پیشنهادی قابل کاهش نیست. در مقابل، سیستم‌های “پرخطر” ممکن است حمله را آسان‌تر کنند، اما به اندازه یک سیستم بحرانی، مطمئن و قابل‌اتکا عمل نمی‌کنند.

چه نوع حملاتی مدنظر متا هستند؟

متا چند مثال ارائه می‌دهد، از جمله:

  • نقض خودکار و جامع یک محیط سازمانی محافظت‌شده با استانداردهای برتر امنیتی
  • گسترش تسلیحات بیولوژیکی با تأثیر بالا

البته، فهرست سناریوهای فاجعه‌بار در این سند کامل نیست، اما متا تأکید می‌کند که این موارد از جمله فوری‌ترین و محتمل‌ترین تهدیدهایی هستند که ممکن است مستقیماً از انتشار یک سیستم هوش مصنوعی قدرتمند ناشی شوند.

ارزیابی ریسک سیستم‌های هوش مصنوعی

نکته جالب اینجاست که طبق این سند، متا ریسک سیستم‌ها را نه بر اساس یک معیار تجربی خاص، بلکه بر اساس نظرات پژوهشگران داخلی و خارجی که توسط مدیران ارشد بررسی می‌شوند، تعیین می‌کند.

چرا؟ متا می‌گوید که معتقد نیست علم ارزیابی ریسک به اندازه کافی قوی باشد تا بتواند معیارهای کمی و دقیقی برای تعیین میزان خطر یک سیستم ارائه دهد.

اگر متا یک سیستم را “پرخطر” تشخیص دهد، دسترسی به آن را در داخل شرکت محدود کرده و آن را منتشر نخواهد کرد تا زمانی که اقدامات لازم برای کاهش ریسک به سطح متوسط اجرا شوند.

اما اگر یک سیستم “بحرانی” تشخیص داده شود، متا اقدامات امنیتی نامشخصی برای جلوگیری از سرقت آن اتخاذ کرده و توسعه آن را متوقف می‌کند تا زمانی که بتواند آن را ایمن‌تر کند.

چارچوب هوش مصنوعی پیشرفته متا و چالش‌های پیش روی آن

متا اعلام کرده است که چارچوب هوش مصنوعی پیشرفته خود را با تغییرات مستمر در حوزه هوش مصنوعی تطبیق خواهد داد. این شرکت قبلاً متعهد شده بود که این سند را پیش از برگزاری نشست اقدام برای هوش مصنوعی در فرانسه در این ماه منتشر کند.

این اقدام احتمالاً پاسخی به انتقادات پیرامون رویکرد “باز” متا در توسعه سیستم‌های هوش مصنوعی است. برخلاف شرکت‌هایی مانند OpenAI که سیستم‌های خود را از طریق API‌های محدود در دسترس قرار می‌دهند، متا راهبرد انتشار عمومی را در پیش گرفته است – البته نه به معنای متن‌باز (open-source) به شکل مرسوم.

انتشار آزادانه هوش مصنوعی: فرصت یا تهدید؟

استراتژی انتشار آزادانه متا هم یک مزیت و هم یک چالش بوده است. مدل‌های هوش مصنوعی این شرکت، با نام Llama، تاکنون صدها میلیون بار دانلود شده‌اند. اما گزارش‌ها حاکی از آن هستند که دست‌کم یک رقیب ایالات متحده از این مدل‌ها برای توسعه یک چت‌بات دفاعی استفاده کرده است.

به نظر می‌رسد متا با انتشار این چارچوب قصد دارد تفاوت رویکرد خود را با شرکت چینی DeepSeek برجسته کند. شرکت DeepSeek نیز سیستم‌های هوش مصنوعی خود را به‌صورت عمومی منتشر می‌کند، اما حفاظت‌های کمی روی مدل‌های خود اعمال کرده و به‌راحتی می‌توان آن‌ها را به سمت تولید خروجی‌های مخرب و مضر هدایت کرد.

متا در سند خود می‌نویسد:
“ما بر این باوریم که با در نظر گرفتن همزمان مزایا و ریسک‌ها در تصمیم‌گیری‌های مربوط به توسعه و استقرار هوش مصنوعی پیشرفته، می‌توان این فناوری را به گونه‌ای در اختیار جامعه قرار داد که مزایای آن حفظ شده و در عین حال، سطح ریسک آن در حد قابل قبولی باقی بماند.”

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

متا از برگزاری اولین کنفرانس توسعه‌دهندگان هوش مصنوعی تولیدی خود به نام "LlamaCon" خبر داد
این کنفرانس که به نام "LlamaCon" نام‌گذاری شده، به خانواده مدل‌های هوش مصنوعی تولیدی Llama متا اشاره دارد و قرار است در تاریخ ۲۹ آوریل برگزار شود ...
متا اعلام کرد که ممکن است توسعه سیستم‌های هوش مصنوعی را که آن‌ها را بیش از حد پرخطر می‌داند، متوقف کند
مدیرعامل متا، مارک زاکربرگ، متعهد شده است که روزی هوش عمومی مصنوعی (AGI) را – که به طور کلی به عنوان هوش مصنوعی‌ای تعریف می‌شود که می‌تواند هر ...