خبر
OpenAI ابزارهای جدیدی را برای کمک به کسب‌وکارها در ساخت عامل‌های هوش مصنوعی راه‌اندازی کرد
زمان مطالعه: 5 دقیقه
OpenAI ابزارهای جدیدی را برای کمک به کسب‌وکارها در ساخت عامل‌های هوش مصنوعی راه‌اندازی کرد
OpenAI ابزارهای جدیدی را برای کمک به کسب‌وکارها در ساخت عامل‌های هوش مصنوعی راه‌اندازی کرد
خبر
OpenAI ابزارهای جدیدی را برای کمک به کسب‌وکارها در ساخت عامل‌های هوش مصنوعی راه‌اندازی کرد
زمان مطالعه: 5 دقیقه

روز سه‌شنبه، OpenAI ابزارهای جدیدی را منتشر کرد که برای کمک به توسعه‌دهندگان و شرکت‌ها در ساخت عامل‌های هوش مصنوعی طراحی شده‌اند؛ سیستم‌های خودکاری که می‌توانند به‌طور مستقل وظایف را انجام دهند و از مدل‌ها و چارچوب‌های هوش مصنوعی خود این شرکت بهره می‌برند.

این ابزارها بخشی از API جدید Responses شرکت OpenAI هستند که به کسب‌وکارها امکان می‌دهد عامل‌های هوش مصنوعی سفارشی بسازند که قادر به جستجو در وب، بررسی فایل‌های شرکت و پیمایش در وب‌سایت‌ها باشند، مشابه محصول Operator شرکت OpenAI. API Responses در واقع جایگزین API Assistants این شرکت می‌شود که قرار است در نیمه اول سال ۲۰۲۶ منسوخ شود.

هیجان پیرامون عامل‌های هوش مصنوعی در سال‌های اخیر به‌طور چشمگیری افزایش یافته است، با وجود اینکه صنعت فناوری در نشان دادن یا حتی تعریف دقیق «عامل‌های هوش مصنوعی» به مردم با چالش مواجه بوده است. در جدیدترین نمونه از هیاهوی عامل‌ها که از کاربرد واقعی پیشی گرفته، استارتاپ چینی Butterfly Effect این هفته با پلتفرم جدید عامل هوش مصنوعی خود به نام Manus ویروسی شد، اما کاربران به‌سرعت متوجه شدند که این پلتفرم بسیاری از وعده‌های شرکت را برآورده نمی‌کند.

به عبارت دیگر، موفقیت OpenAI در توسعه عامل‌های هوش مصنوعی اهمیت زیادی دارد.

اولیویه گودمان، مسئول محصولات API در OpenAI، در مصاحبه‌ای با تک‌کرانچ گفت: «نمایش یک عامل آسان است. مقیاس‌پذیری یک عامل بسیار سخت است و جلب استفاده مکرر مردم از آن بسیار دشوارتر.»

اوایل امسال، OpenAI دو عامل هوش مصنوعی را در ChatGPT معرفی کرد: Operator، که به نمایندگی از شما در وب‌سایت‌ها پیمایش می‌کند، و Deep Research، که گزارش‌های تحقیقاتی را برای شما گردآوری می‌کند. هر دو ابزار نگاهی به قابلیت‌های فناوری عامل‌محور ارائه دادند، اما در زمینه «خودمختاری» انتظارات را چندان برآورده نکردند.

اکنون با API Responses، OpenAI قصد دارد دسترسی به اجزای تشکیل‌دهنده عامل‌های هوش مصنوعی را به فروش برساند و به توسعه‌دهندگان امکان دهد برنامه‌های عامل‌محور مشابه Operator و Deep Research را خودشان بسازند. OpenAI امیدوار است که توسعه‌دهندگان بتوانند با فناوری عامل این شرکت، برنامه‌هایی بسازند که خودمختاری بیشتری نسبت به آنچه امروز در دسترس است، ارائه دهند.

با استفاده از API Responses، توسعه‌دهندگان می‌توانند به همان مدل‌های هوش مصنوعی (در نسخه پیش‌نمایش) که در ابزار جستجوی وب ChatGPT Search شرکت OpenAI استفاده شده‌اند، دسترسی پیدا کنند: GPT-4o Search و GPT-4o Mini Search. این مدل‌ها می‌توانند وب را برای یافتن پاسخ سؤالات جستجو کنند و منابعی را که در تولید پاسخ‌ها استفاده می‌کنند، ذکر کنند.

OpenAI ادعا می‌کند که GPT-4o Search و GPT-4o Mini Search از دقت واقعی بالایی برخوردارند. در معیار SimpleQA این شرکت، که توانایی مدل‌ها را در پاسخ به سؤالات کوتاه و حقیقت‌جو می‌سنجد، GPT-4o Search امتیاز ۹۰ درصد و GPT-4o Mini Search امتیاز ۸۸ درصد را کسب کرده‌اند (هرچه بالاتر بهتر). برای مقایسه، GPT-4.5 — مدل بزرگ‌تر و اخیراً منتشرشده OpenAI — تنها ۶۳ درصد امتیاز گرفته است.

API Responses همچنین شامل ابزار جستجوی فایل است که می‌تواند به‌سرعت در پایگاه‌های داده شرکت‌ها فایل‌ها را اسکن کرده و اطلاعات را بازیابی کند. (OpenAI ادعا می‌کند که از این فایل‌ها برای آموزش مدل‌ها استفاده نخواهد کرد.) علاوه بر این، توسعه‌دهندگان با استفاده از API Responses می‌توانند به مدل Computer-Using Agent (CUA) شرکت OpenAI، که Operator را پشتیبانی می‌کند، دسترسی پیدا کنند. این مدل اقدامات ماوس و کیبورد را تولید می‌کند و به توسعه‌دهندگان امکان می‌دهد وظایف استفاده از کامپیوتر مانند ورود داده‌ها و جریان‌های کاری برنامه‌ها را خودکار کنند.

OpenAI اعلام کرد که شرکت‌ها می‌توانند به‌صورت اختیاری مدل CUA را، که در پیش‌نمایش تحقیقاتی عرضه شده، به‌صورت محلی روی سیستم‌های خود اجرا کنند. نسخه مصرف‌کننده CUA که در Operator موجود است، تنها می‌تواند اقداماتی را در وب انجام دهد.

برای روشن شدن موضوع، API Responses همه مشکلات فنی که امروزه عامل‌های هوش مصنوعی را تحت تأثیر قرار داده، حل نخواهد کرد.

اگرچه ابزارهای جستجوی مبتنی بر هوش مصنوعی دقیق‌تر از مدل‌های سنتی هوش مصنوعی هستند — واقعیتی که با توجه به توانایی آن‌ها در جستجوی پاسخ صحیح چندان تعجب‌آور نیست — جستجوی وب مشکل توهمات هوش مصنوعی را به‌طور کامل برطرف نمی‌کند. GPT-4o Search هنوز ۱۰ درصد از سؤالات واقعی را اشتباه پاسخ می‌دهد. علاوه بر دقت، ابزارهای جستجوی هوش مصنوعی معمولاً با سؤالات کوتاه و navigational (مانند «امتیاز لیکرز امروز») مشکل دارند و گزارش‌های اخیر نشان می‌دهند که ارجاعات ChatGPT همیشه قابل اعتماد نیستند.

OpenAI در پستی که به تک‌کرانچ ارائه داد، اعلام کرد که مدل CUA «هنوز برای خودکارسازی وظایف در سیستم‌عامل‌ها به‌طور کامل قابل اعتماد نیست» و ممکن است به «اشتباهات ناخواسته» منجر شود.

با این حال، OpenAI اعلام کرد که این‌ها نسخه‌های اولیه ابزارهای عاملی آن هستند و این شرکت به‌طور مداوم در حال بهبود آن‌هاست.

هم‌زمان با API Responses، OpenAI یک جعبه‌ابزار متن‌باز به نام Agents SDK را منتشر می‌کند که ابزارهای رایگانی را در اختیار توسعه‌دهندگان قرار می‌دهد تا مدل‌ها را با سیستم‌های داخلی خود یکپارچه کنند، محافظ‌هایی را اعمال کنند و فعالیت‌های عامل‌های هوش مصنوعی را برای اهداف اشکال‌زدایی و بهینه‌سازی نظارت کنند. Agents SDK به‌نوعی دنباله‌ای بر Swarm، چارچوبی برای هماهنگی چندعاملی است که OpenAI اواخر سال گذشته منتشر کرد.

گودمان گفت که امیدوار است OpenAI بتواند در سال جاری شکاف بین نمایش‌های عامل‌های هوش مصنوعی و محصولات واقعی را پر کند و به نظر او «عامل‌ها تأثیرگذارترین کاربرد هوش مصنوعی خواهند بود که رخ می‌دهد.» این اظهارات با پیش‌بینی سام آلتمن، مدیرعامل OpenAI، در ژانویه هم‌راستاست: که سال ۲۰۲۵ سال ورود عامل‌های هوش مصنوعی به نیروی کار خواهد بود.

چه سال ۲۰۲۵ واقعاً «سال عامل‌های هوش مصنوعی» شود یا نه، آخرین انتشارات OpenAI نشان می‌دهد که این شرکت قصد دارد از نمایش‌های پرزرق‌وبرق عامل‌ها به سمت ابزارهای تأثیرگذار حرکت کند.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...