تصور کنید یک شرکت قهوه در تلاش برای بهینهسازی زنجیره تامین خود است. این شرکت دانههای قهوه را از سه تامینکننده تهیه میکند، آنها را در دو کارخانه به قهوه تیره یا روشن برشته میکند و سپس قهوه برشته شده را به سه مکان خردهفروشی ارسال میکند. تامینکنندگان ظرفیت ثابت متفاوتی دارند و هزینههای برشتهکاری و حمل و نقل از مکانی به مکان دیگر متفاوت است.
این شرکت به دنبال کاهش هزینهها ضمن برآورده کردن افزایش ۲۳ درصدی تقاضا است.
آیا برای شرکت آسانتر نبود که فقط از ChatGPT بخواهد یک برنامه بهینه ارائه دهد؟ در واقع، با وجود تمام قابلیتهای باورنکردنیشان، مدلهای زبانی بزرگ (LLM) اغلب هنگام واگذاری مستقیم حل چنین مسائل برنامهریزی پیچیدهای به تنهایی، عملکرد ضعیفی دارند.
محققان MIT به جای تلاش برای تغییر مدل به منظور تبدیل LLM به یک برنامهریز بهتر، رویکرد متفاوتی را اتخاذ کردند. آنها چارچوبی را معرفی کردند که LLM را راهنمایی میکند تا مسئله را مانند یک انسان تجزیه کند و سپس به طور خودکار آن را با استفاده از یک ابزار نرمافزاری قدرتمند حل کند.
کاربر فقط باید مسئله را به زبان طبیعی توصیف کند – برای آموزش یا درخواست از LLM نیازی به مثالهای خاص وظیفه نیست. مدل درخواست متنی کاربر را به قالبی رمزگذاری میکند که میتواند توسط یک حلکننده بهینهسازی طراحی شده برای حل کارآمد چالشهای برنامهریزی بسیار دشوار، باز شود.
در طول فرآیند فرمولبندی، LLM کار خود را در چندین مرحله میانی بررسی میکند تا مطمئن شود که طرح به درستی به حلکننده توصیف شده است. اگر خطایی را تشخیص دهد، به جای تسلیم شدن، LLM سعی میکند قسمت خراب فرمولبندی را اصلاح کند.
هنگامی که محققان چارچوب خود را بر روی نه چالش پیچیده آزمایش کردند، مانند به حداقل رساندن مسافتی که رباتهای انبار برای انجام وظایف باید طی کنند، به نرخ موفقیت ۸۵ درصدی دست یافت، در حالی که بهترین خط مبنا فقط به نرخ موفقیت ۳۹ درصدی دست یافت.
این چارچوب چندمنظوره میتواند در طیف وسیعی از وظایف برنامهریزی چند مرحلهای، مانند زمانبندی خدمه هواپیما یا مدیریت زمان ماشینآلات در یک کارخانه، اعمال شود.
ییلون هائو، دانشجوی فارغالتحصیل آزمایشگاه سیستمهای اطلاعات و تصمیمگیری MIT (LIDS) و نویسنده اصلی مقالهای در مورد این تحقیق، میگوید: “تحقیقات ما چارچوبی را معرفی میکند که اساساً به عنوان یک دستیار هوشمند برای مسائل برنامهریزی عمل میکند. این چارچوب میتواند بهترین طرحی را که تمام نیازهای شما را برآورده میکند، حتی اگر قوانین پیچیده یا غیرمعمول باشند، پیدا کند.”
یانگ ژانگ، دانشمند پژوهشی آزمایشگاه هوش مصنوعی MIT-IBM واتسون؛ و چوچو فن، استاد دانشیار هوانوردی و فضانوردی و محقق اصلی LIDS، در این مقاله با او همکاری دارند. این تحقیق در کنفرانس بینالمللی یادگیری بازنماییها ارائه خواهد شد.
بهینهسازی ۱۰۱
گروه فن الگوریتمهایی را توسعه میدهد که به طور خودکار مسائل بهینهسازی ترکیبی شناخته شده را حل میکنند. این مسائل گسترده دارای متغیرهای تصمیمگیری مرتبط بسیاری هستند که هر کدام دارای گزینههای متعددی هستند که به سرعت به میلیاردها انتخاب بالقوه میرسند.
انسانها چنین مشکلاتی را با محدود کردن آنها به چند گزینه و سپس تعیین اینکه کدام یک منجر به بهترین طرح کلی میشود، حل میکنند. حلکنندههای الگوریتمی محققان همان اصول را برای مسائل بهینهسازی اعمال میکنند که برای یک انسان بسیار پیچیده هستند.
اما حلکنندههایی که آنها توسعه میدهند معمولاً منحنی یادگیری شیبداری دارند و معمولاً فقط توسط متخصصان استفاده میشوند.
فن میگوید: “ما فکر کردیم که LLMها میتوانند به افراد غیرمتخصص اجازه دهند از این الگوریتمهای حلکننده استفاده کنند. در آزمایشگاه ما، ما مشکل یک متخصص حوزه را میگیریم و آن را به مشکلی تبدیل میکنیم که حلکننده ما میتواند آن را حل کند. آیا میتوانیم به یک LLM یاد دهیم که همین کار را انجام دهد؟”
با استفاده از چارچوبی که محققان توسعه دادهاند، به نام برنامهنویسی رسمی مبتنی بر LLM (LLMFP)، یک فرد توصیفی به زبان طبیعی از مسئله، اطلاعات پسزمینه در مورد وظیفه و یک پرس و جو که هدف آنها را توصیف میکند، ارائه میدهد.
سپس LLMFP یک LLM را وادار میکند تا در مورد مسئله استدلال کند و متغیرهای تصمیمگیری و محدودیتهای کلیدی را که راه حل بهینه را شکل میدهند، تعیین کند.
LLMFP از LLM میخواهد که الزامات هر متغیر را قبل از رمزگذاری اطلاعات در یک فرمول ریاضی از مسئله بهینهسازی، شرح دهد. این چارچوب کدی مینویسد که مسئله را رمزگذاری میکند و حلکننده بهینهسازی متصل را فرا میخواند، که به یک راه حل ایدهآل میرسد.
فن میافزاید: “این شبیه به نحوه آموزش مسائل بهینهسازی به دانشجویان کارشناسی در MIT است. ما فقط یک حوزه را آموزش نمیدهیم. ما روششناسی را آموزش میدهیم.”
تا زمانی که ورودیهای حلکننده صحیح باشند، پاسخ درست را ارائه میدهد. هرگونه اشتباه در راه حل ناشی از خطاهای موجود در فرآیند فرمولبندی است.
برای اطمینان از یافتن یک طرح کارآمد، LLMFP راه حل را تجزیه و تحلیل میکند و هرگونه مرحله نادرست در فرمولبندی مسئله را اصلاح میکند. پس از اینکه طرح این خودارزیابی را گذراند، راه حل به زبان طبیعی برای کاربر توصیف میشود.
تکمیل طرح
هائو میگوید، این ماژول خودارزیابی همچنین به LLM اجازه میدهد تا هرگونه محدودیت ضمنی را که در اولین بار از دست داده است، اضافه کند.
به عنوان مثال، اگر چارچوب در حال بهینهسازی زنجیره تامین برای به حداقل رساندن هزینهها برای یک قهوهفروشی باشد، یک انسان میداند که قهوهفروشی نمیتواند مقدار منفی دانههای برشته شده را حمل کند، اما یک LLM ممکن است متوجه این موضوع نشود.
مرحله خودارزیابی آن خطا را علامتگذاری میکند و مدل را وادار میکند تا آن را اصلاح کند.
فن میگوید: “به علاوه، یک LLM میتواند با ترجیحات کاربر سازگار شود. اگر مدل متوجه شود که یک کاربر خاص تمایلی به تغییر زمان یا بودجه برنامههای سفر خود ندارد، میتواند تغییراتی را پیشنهاد دهد که با نیازهای کاربر مطابقت داشته باشد.”
در یک سری آزمایشها، چارچوب آنها با استفاده از چندین LLM، در سراسر نه مسئله برنامهریزی متنوع، به میانگین نرخ موفقیت بین ۸۳ تا ۸۷ درصد دست یافت. در حالی که برخی از مدلهای پایه در برخی مسائل بهتر بودند، LLMFP نرخ موفقیت کلی حدود دو برابر بالاتر از تکنیکهای پایه داشت.
برخلاف این رویکردهای دیگر، LLMFP برای آموزش نیازی به مثالهای خاص حوزه ندارد. این چارچوب میتواند راه حل بهینه برای یک مسئله برنامهریزی را بلافاصله پیدا کند.
علاوه بر این، کاربر میتواند با تنظیم درخواستهای ارائه شده به LLM، LLMFP را برای حلکنندههای بهینهسازی مختلف تطبیق دهد.
فن میگوید: “با LLMها، ما این فرصت را داریم که رابطی ایجاد کنیم که به افراد اجازه میدهد از ابزارهای حوزههای دیگر برای حل مشکلاتی به روشهایی استفاده کنند که قبلاً به آنها فکر نکرده بودند.”
در آینده، محققان میخواهند LLMFP را قادر سازند تا تصاویر را به عنوان ورودی برای تکمیل توضیحات یک مسئله برنامهریزی دریافت کند. این امر به چارچوب کمک میکند تا وظایفی را حل کند که توصیف کامل آنها با زبان طبیعی به ویژه دشوار است.
این تحقیق تا حدی توسط دفتر تحقیقات نیروی دریایی و آزمایشگاه هوش مصنوعی MIT-IBM واتسون تأمین شده است.
منبع: اخبار MIT