خبر
مقاله 145 صفحه‌ای DeepMind در مورد ایمنی AGI ممکن است منتقدان را متقاعد نکند
زمان مطالعه: 4 دقیقه
مقاله 145 صفحه‌ای DeepMind در مورد ایمنی AGI ممکن است منتقدان را متقاعد نکند
مقاله 145 صفحه‌ای DeepMind در مورد ایمنی AGI ممکن است منتقدان را متقاعد نکند
خبر
مقاله 145 صفحه‌ای DeepMind در مورد ایمنی AGI ممکن است منتقدان را متقاعد نکند
زمان مطالعه: 4 دقیقه

گوگل دیپ‌مایند روز چهارشنبه یک مقاله جامع در مورد رویکرد ایمنی خود در قبال AGI منتشر کرد، که تقریباً به عنوان هوش مصنوعی تعریف می‌شود که می‌تواند هر کاری را که یک انسان انجام می‌دهد، انجام دهد.

AGI موضوعی تا حدودی بحث‌برانگیز در زمینه هوش مصنوعی است، به طوری که مخالفان پیشنهاد می‌کنند که این چیزی بیش از یک خیال‌پردازی نیست. دیگران، از جمله آزمایشگاه‌های بزرگ هوش مصنوعی مانند Anthropic، هشدار می‌دهند که این موضوع نزدیک است و اگر اقداماتی برای اجرای محافظت‌های مناسب انجام نشود، می‌تواند منجر به آسیب‌های فاجعه‌باری شود.

سند ۱۴۵ صفحه‌ای DeepMind، که به طور مشترک توسط شین لگ، یکی از بنیانگذاران DeepMind، نوشته شده است، پیش‌بینی می‌کند که AGI می‌تواند تا سال ۲۰۳۰ از راه برسد و ممکن است منجر به چیزی شود که نویسندگان آن را “آسیب شدید” می‌نامند. این مقاله به طور مشخص این را تعریف نمی‌کند، اما مثال هشداردهنده “خطرات وجودی” را ارائه می‌دهد که “به طور دائم بشریت را نابود می‌کند.”

نویسندگان نوشتند: “[ما پیش‌بینی می‌کنیم] توسعه یک AGI استثنایی قبل از پایان دهه جاری. یک AGI استثنایی سیستمی است که توانایی آن حداقل با ۹۹ درصد افراد بزرگسال ماهر در طیف گسترده‌ای از وظایف غیر فیزیکی، از جمله وظایف فراشناختی مانند یادگیری مهارت‌های جدید، مطابقت دارد.”

در ابتدا، این مقاله نحوه برخورد DeepMind با کاهش خطر AGI را با Anthropic و OpenAI مقایسه می‌کند. به گفته این مقاله، Anthropic تأکید کمتری بر “آموزش، نظارت و امنیت قوی” دارد، در حالی که OpenAI بیش از حد خوشبین به “خودکارسازی” نوعی تحقیق در مورد ایمنی هوش مصنوعی است که به عنوان تحقیق همسویی شناخته می‌شود.

این مقاله همچنین در مورد امکان‌پذیر بودن هوش مصنوعی فوق‌العاده – هوش مصنوعی که می‌تواند وظایف را بهتر از هر انسانی انجام دهد – تردید ایجاد می‌کند. (OpenAI اخیراً ادعا کرده است که هدف خود را از AGI به هوش مصنوعی فوق‌العاده تغییر می‌دهد.) نویسندگان DeepMind در غیاب “نوآوری معماری قابل توجه”، متقاعد نشده‌اند که سیستم‌های فوق‌العاده هوشمند به زودی – اگر اصلاً – ظهور خواهند کرد.

با این حال، این مقاله این موضوع را محتمل می‌داند که الگوهای فعلی “بهبود بازگشتی هوش مصنوعی” را امکان‌پذیر می‌سازند: یک حلقه بازخورد مثبت که در آن هوش مصنوعی تحقیقات هوش مصنوعی خود را برای ایجاد سیستم‌های هوش مصنوعی پیچیده‌تر انجام می‌دهد. و نویسندگان ادعا می‌کنند که این می‌تواند فوق‌العاده خطرناک باشد.

در سطح بالا، این مقاله توسعه تکنیک‌هایی را برای جلوگیری از دسترسی بازیگران بد به AGI فرضی، بهبود درک اقدامات سیستم‌های هوش مصنوعی و “تقویت” محیط‌هایی که هوش مصنوعی می‌تواند در آن‌ها عمل کند، پیشنهاد و از آن حمایت می‌کند. این مقاله اذعان دارد که بسیاری از این تکنیک‌ها نوپا هستند و “مسائل تحقیقاتی باز” دارند، اما هشدار می‌دهد که چالش‌های ایمنی احتمالی پیش رو نادیده گرفته نشوند.

نویسندگان می‌نویسند: “ماهیت تحول‌آفرین AGI پتانسیل مزایای باورنکردنی و همچنین آسیب‌های شدید را دارد. در نتیجه، برای ساخت AGI به طور مسئولانه، برای توسعه‌دهندگان پیشرو هوش مصنوعی حیاتی است که به طور فعال برای کاهش آسیب‌های شدید برنامه‌ریزی کنند.”

با این حال، برخی از کارشناسان با مقدمات این مقاله مخالف هستند.

هیدی خلااف، دانشمند ارشد هوش مصنوعی در موسسه غیرانتفاعی AI Now، به TechCrunch گفت که به نظر او مفهوم AGI برای “ارزیابی دقیق علمی” بیش از حد مبهم است. متیو گوزدیال، محقق هوش مصنوعی دیگر و استادیار دانشگاه آلبرتا، گفت که او معتقد نیست بهبود بازگشتی هوش مصنوعی در حال حاضر واقع‌بینانه باشد.

گوزدیال به TechCrunch گفت: “[بهبود بازگشتی] اساس استدلال‌های تکینگی هوش است، اما ما هرگز هیچ مدرکی دال بر کارکرد آن ندیده‌ایم.”

ساندرا واکتر، محققی که در آکسفورد به مطالعه فناوری و مقررات می‌پردازد، استدلال می‌کند که نگرانی واقع‌بینانه‌تر، تقویت خودکار هوش مصنوعی با “خروجی‌های نادرست” است.

او به TechCrunch گفت: “با تکثیر خروجی‌های هوش مصنوعی مولد در اینترنت و جایگزینی تدریجی داده‌های معتبر، مدل‌ها اکنون از خروجی‌های خودشان یاد می‌گیرند که مملو از اطلاعات نادرست یا توهم هستند. در این مرحله، چت‌بات‌ها عمدتاً برای اهداف جستجو و یافتن حقیقت استفاده می‌شوند. این بدان معناست که ما دائماً در معرض خطر تغذیه شدن با اطلاعات نادرست و باور کردن آن‌ها هستیم زیرا به روش‌های بسیار قانع‌کننده‌ای ارائه می‌شوند.”

مقاله DeepMind، هر چقدر هم جامع باشد، به نظر نمی‌رسد بحث‌ها در مورد میزان واقع‌بینانه بودن AGI – و حوزه‌های ایمنی هوش مصنوعی که بیشترین نیاز به توجه فوری دارند – را فیصله دهد.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest


0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...
جدیدترین مدل هوش مصنوعی گوگل برای کمک به مطالعه "گفتار" دلفین‌ها طراحی شده است
گوگل DeepMind، آزمایشگاه تحقیقاتی هوش مصنوعی گوگل، اعلام کرده است که یک مدل هوش مصنوعی ایجاد کرده است که می‌تواند به رمزگشایی صداهای دلفین‌ها کمک ...
گوگل کلاس‌روم یک ویژگی هوش مصنوعی برای سؤالات کوئیز در اختیار معلمان قرار می‌دهد
گوگل کلاس‌روم یک ویژگی جدید مبتنی بر هوش مصنوعی را معرفی کرده است که برای کمک به معلمان در تولید سؤالات طراحی شده است. این ابزار که روز دوشنبه ...