گوگل دیپمایند روز چهارشنبه یک مقاله جامع در مورد رویکرد ایمنی خود در قبال AGI منتشر کرد، که تقریباً به عنوان هوش مصنوعی تعریف میشود که میتواند هر کاری را که یک انسان انجام میدهد، انجام دهد.
AGI موضوعی تا حدودی بحثبرانگیز در زمینه هوش مصنوعی است، به طوری که مخالفان پیشنهاد میکنند که این چیزی بیش از یک خیالپردازی نیست. دیگران، از جمله آزمایشگاههای بزرگ هوش مصنوعی مانند Anthropic، هشدار میدهند که این موضوع نزدیک است و اگر اقداماتی برای اجرای محافظتهای مناسب انجام نشود، میتواند منجر به آسیبهای فاجعهباری شود.
سند ۱۴۵ صفحهای DeepMind، که به طور مشترک توسط شین لگ، یکی از بنیانگذاران DeepMind، نوشته شده است، پیشبینی میکند که AGI میتواند تا سال ۲۰۳۰ از راه برسد و ممکن است منجر به چیزی شود که نویسندگان آن را “آسیب شدید” مینامند. این مقاله به طور مشخص این را تعریف نمیکند، اما مثال هشداردهنده “خطرات وجودی” را ارائه میدهد که “به طور دائم بشریت را نابود میکند.”
نویسندگان نوشتند: “[ما پیشبینی میکنیم] توسعه یک AGI استثنایی قبل از پایان دهه جاری. یک AGI استثنایی سیستمی است که توانایی آن حداقل با ۹۹ درصد افراد بزرگسال ماهر در طیف گستردهای از وظایف غیر فیزیکی، از جمله وظایف فراشناختی مانند یادگیری مهارتهای جدید، مطابقت دارد.”
در ابتدا، این مقاله نحوه برخورد DeepMind با کاهش خطر AGI را با Anthropic و OpenAI مقایسه میکند. به گفته این مقاله، Anthropic تأکید کمتری بر “آموزش، نظارت و امنیت قوی” دارد، در حالی که OpenAI بیش از حد خوشبین به “خودکارسازی” نوعی تحقیق در مورد ایمنی هوش مصنوعی است که به عنوان تحقیق همسویی شناخته میشود.
این مقاله همچنین در مورد امکانپذیر بودن هوش مصنوعی فوقالعاده – هوش مصنوعی که میتواند وظایف را بهتر از هر انسانی انجام دهد – تردید ایجاد میکند. (OpenAI اخیراً ادعا کرده است که هدف خود را از AGI به هوش مصنوعی فوقالعاده تغییر میدهد.) نویسندگان DeepMind در غیاب “نوآوری معماری قابل توجه”، متقاعد نشدهاند که سیستمهای فوقالعاده هوشمند به زودی – اگر اصلاً – ظهور خواهند کرد.
با این حال، این مقاله این موضوع را محتمل میداند که الگوهای فعلی “بهبود بازگشتی هوش مصنوعی” را امکانپذیر میسازند: یک حلقه بازخورد مثبت که در آن هوش مصنوعی تحقیقات هوش مصنوعی خود را برای ایجاد سیستمهای هوش مصنوعی پیچیدهتر انجام میدهد. و نویسندگان ادعا میکنند که این میتواند فوقالعاده خطرناک باشد.
در سطح بالا، این مقاله توسعه تکنیکهایی را برای جلوگیری از دسترسی بازیگران بد به AGI فرضی، بهبود درک اقدامات سیستمهای هوش مصنوعی و “تقویت” محیطهایی که هوش مصنوعی میتواند در آنها عمل کند، پیشنهاد و از آن حمایت میکند. این مقاله اذعان دارد که بسیاری از این تکنیکها نوپا هستند و “مسائل تحقیقاتی باز” دارند، اما هشدار میدهد که چالشهای ایمنی احتمالی پیش رو نادیده گرفته نشوند.
نویسندگان مینویسند: “ماهیت تحولآفرین AGI پتانسیل مزایای باورنکردنی و همچنین آسیبهای شدید را دارد. در نتیجه، برای ساخت AGI به طور مسئولانه، برای توسعهدهندگان پیشرو هوش مصنوعی حیاتی است که به طور فعال برای کاهش آسیبهای شدید برنامهریزی کنند.”
با این حال، برخی از کارشناسان با مقدمات این مقاله مخالف هستند.
هیدی خلااف، دانشمند ارشد هوش مصنوعی در موسسه غیرانتفاعی AI Now، به TechCrunch گفت که به نظر او مفهوم AGI برای “ارزیابی دقیق علمی” بیش از حد مبهم است. متیو گوزدیال، محقق هوش مصنوعی دیگر و استادیار دانشگاه آلبرتا، گفت که او معتقد نیست بهبود بازگشتی هوش مصنوعی در حال حاضر واقعبینانه باشد.
گوزدیال به TechCrunch گفت: “[بهبود بازگشتی] اساس استدلالهای تکینگی هوش است، اما ما هرگز هیچ مدرکی دال بر کارکرد آن ندیدهایم.”
ساندرا واکتر، محققی که در آکسفورد به مطالعه فناوری و مقررات میپردازد، استدلال میکند که نگرانی واقعبینانهتر، تقویت خودکار هوش مصنوعی با “خروجیهای نادرست” است.
او به TechCrunch گفت: “با تکثیر خروجیهای هوش مصنوعی مولد در اینترنت و جایگزینی تدریجی دادههای معتبر، مدلها اکنون از خروجیهای خودشان یاد میگیرند که مملو از اطلاعات نادرست یا توهم هستند. در این مرحله، چتباتها عمدتاً برای اهداف جستجو و یافتن حقیقت استفاده میشوند. این بدان معناست که ما دائماً در معرض خطر تغذیه شدن با اطلاعات نادرست و باور کردن آنها هستیم زیرا به روشهای بسیار قانعکنندهای ارائه میشوند.”
مقاله DeepMind، هر چقدر هم جامع باشد، به نظر نمیرسد بحثها در مورد میزان واقعبینانه بودن AGI – و حوزههای ایمنی هوش مصنوعی که بیشترین نیاز به توجه فوری دارند – را فیصله دهد.
منبع: تککرانچ