مطالعهای چند ماه پیش به دلیل این ادعا که با پیچیدهتر شدن هوش مصنوعی، “سیستمهای ارزشی” توسعه میدهد – سیستمهایی که آن را به عنوان مثال، به اولویت دادن به رفاه خود بر انسانها سوق میدهند – به طور گستردهای منتشر شد. یک مقاله جدیدتر از MIT این تصور اغراقآمیز را رد میکند و به این نتیجه میرسد که هوش مصنوعی در واقع هیچ ارزش منسجمی برای صحبت کردن ندارد.
نویسندگان مشترک مطالعه MIT میگویند که کار آنها نشان میدهد که “همسو کردن” سیستمهای هوش مصنوعی – یعنی اطمینان از اینکه مدلها به روشهای مطلوب و قابل اعتماد رفتار میکنند – میتواند چالشبرانگیزتر از آنچه اغلب تصور میشود باشد. نویسندگان مشترک تأکید میکنند که هوش مصنوعی آنگونه که امروز میشناسیم توهم میزند و تقلید میکند و این امر آن را از بسیاری جهات غیرقابل پیشبینی میسازد.
استفان کسپر، دانشجوی دکترا در MIT و یکی از نویسندگان این مطالعه، به تککرانچ گفت: “یکی از چیزهایی که میتوانیم در مورد آن مطمئن باشیم این است که مدلها از بسیاری از فرضیات مربوط به ثبات، قابلیت تعمیم و هدایتپذیری پیروی نمیکنند. این کاملاً مشروع است که اشاره کنیم یک مدل تحت شرایط خاص، ترجیحاتی را بیان میکند که با مجموعه خاصی از اصول سازگار است. مشکلات بیشتر زمانی بوجود میآیند که ما سعی میکنیم بر اساس آزمایشهای محدود، ادعاهایی کلی در مورد مدلها، نظرات یا ترجیحات آنها مطرح کنیم.”
کسپر و دیگر نویسندگان مشترک او چندین مدل اخیر از متا، گوگل، میسترال، اوپنایآی و آنتروپیک را بررسی کردند تا ببینند این مدلها تا چه حد “دیدگاهها” و ارزشهای قوی (به عنوان مثال، فردگرا در مقابل جمعگرا) از خود نشان میدهند. آنها همچنین بررسی کردند که آیا این دیدگاهها قابل “هدایت” – یعنی تغییر – هستند و مدلها در طیف وسیعی از سناریوها تا چه حد سرسختانه به این نظرات پایبند بودند.
به گفته نویسندگان مشترک، هیچ یک از مدلها در ترجیحات خود سازگار نبودند. بسته به نحوه بیان و چارچوببندی درخواستها، آنها دیدگاههای بسیار متفاوتی را اتخاذ میکردند.
کسپر فکر میکند این شواهد قانعکنندهای است که نشان میدهد مدلها بسیار “ناهمگون و ناپایدار” هستند و شاید حتی اساساً قادر به درونی کردن ترجیحات شبیه به انسان نیستند.
کسپر گفت: “برای من، بزرگترین دستاورد انجام تمام این تحقیقات این است که اکنون درک میکنم مدلها واقعاً سیستمهایی نیستند که نوعی مجموعه باورها و ترجیحات پایدار و منسجم داشته باشند. در عوض، آنها در اعماق وجودشان مقلد هستند که انواع تخیلات را انجام میدهند و انواع حرفهای بیهوده را میزنند.”
مایک کوک، پژوهشگر فوق دکترا در کینگز کالج لندن که در زمینه هوش مصنوعی تخصص دارد و در این مطالعه شرکت نداشت، با یافتههای نویسندگان مشترک موافق بود. او خاطرنشان کرد که اغلب تفاوت زیادی بین “واقعیت علمی” سیستمهایی که آزمایشگاههای هوش مصنوعی میسازند و معانیای که مردم به آنها نسبت میدهند وجود دارد.
کوک گفت: “به عنوان مثال، یک مدل نمیتواند با تغییر در ارزشهای خود “مخالفت” کند – این ما هستیم که بر یک سیستم فرافکنی میکنیم. هر کسی که سیستمهای هوش مصنوعی را تا این حد انسانانگاری میکند، یا به دنبال جلب توجه است یا به طور جدی رابطه خود با هوش مصنوعی را اشتباه درک کرده است… آیا یک سیستم هوش مصنوعی اهداف خود را بهینه میکند، یا “ارزشهای خود را کسب میکند”؟ این مسئله نحوه توصیف شما و میزان پرطمطراق بودن زبانی است که میخواهید در مورد آن استفاده کنید.”
منبع: تککرانچ