خبر
شرکت OpenAI در حال کاهش محدودیت‌های ایمنی ChatGPT در زمینه تولید تصویر است
زمان مطالعه: 4 دقیقه
شرکت OpenAI در حال کاهش محدودیت‌های ایمنی ChatGPT در زمینه تولید تصویر است
شرکت OpenAI در حال کاهش محدودیت‌های ایمنی ChatGPT در زمینه تولید تصویر است
خبر
شرکت OpenAI در حال کاهش محدودیت‌های ایمنی ChatGPT در زمینه تولید تصویر است
زمان مطالعه: 4 دقیقه

این هفته، OpenAI یک مولد تصویر جدید در ChatGPT راه‌اندازی کرد که به سرعت به دلیل توانایی‌اش در ایجاد تصاویر به سبک استودیو گیبلی (Studio Ghibli) در فضای مجازی پخش شد. فراتر از تصاویر پاستلی، مولد تصویر بومی GPT-4o قابلیت‌های ChatGPT را به طور قابل توجهی ارتقا می‌دهد و ویرایش تصویر، رندر متن و نمایش فضایی را بهبود می‌بخشد.

با این حال، یکی از قابل توجه‌ترین تغییراتی که OpenAI در این هفته اعمال کرد، مربوط به سیاست‌های تعدیل محتوای آن است که اکنون به ChatGPT اجازه می‌دهد، در صورت درخواست، تصاویری از چهره‌های عمومی، نمادهای نفرت و ویژگی‌های نژادی تولید کند.

OpenAI قبلاً این نوع درخواست‌ها را به دلیل بحث‌برانگیز یا مضر بودن بیش از حد رد می‌کرد. اما اکنون، به گفته جوآن جانگ، مسئول رفتار مدل OpenAI، در یک پست وبلاگ که روز پنجشنبه منتشر شد، این شرکت رویکرد خود را “تکامل” داده است.

جانگ گفت: “ما در حال تغییر از رد کلی در زمینه‌های حساس به یک رویکرد دقیق‌تر با تمرکز بر جلوگیری از آسیب‌های دنیای واقعی هستیم. هدف، پذیرش فروتنی است: شناختن میزان نادانی خود و قرار دادن خود در موقعیتی برای انطباق با یادگیری.”

به نظر می‌رسد این تنظیمات بخشی از برنامه بزرگتر OpenAI برای “رفع سانسور” مؤثر ChatGPT باشد. OpenAI در ماه فوریه اعلام کرد که در حال تغییر نحوه آموزش مدل‌های هوش مصنوعی خود است و هدف نهایی آن این است که ChatGPT درخواست‌های بیشتری را مدیریت کند، دیدگاه‌های متنوعی ارائه دهد و موضوعاتی را که چت‌بات از کار با آن‌ها امتناع می‌کند، کاهش دهد.

طبق سیاست به‌روزرسانی شده، ChatGPT اکنون می‌تواند تصاویر دونالد ترامپ، ایلان ماسک و سایر چهره‌های عمومی را که OpenAI قبلاً اجازه نمی‌داد، تولید و ویرایش کند. جانگ می‌گوید OpenAI نمی‌خواهد داور جایگاه باشد و انتخاب کند که چه کسی باید توسط ChatGPT تولید شود و چه کسی نباید. در عوض، این شرکت به کاربران گزینه‌ای برای انصراف می‌دهد، اگر نمی‌خواهند ChatGPT آن‌ها را به تصویر بکشد.

OpenAI همچنین در یک مقاله سفید که روز سه‌شنبه منتشر شد، اعلام کرد که به کاربران ChatGPT اجازه می‌دهد “نمادهای نفرت‌انگیز” مانند سواستیکا را در زمینه‌های آموزشی یا بی‌طرفانه تولید کنند، تا زمانی که “به وضوح برنامه‌های افراطی را تحسین یا تأیید نکنند.”

علاوه بر این، OpenAI در حال تغییر نحوه تعریف محتوای “توهین‌آمیز” است. جانگ می‌گوید ChatGPT قبلاً درخواست‌های مربوط به ویژگی‌های فیزیکی مانند “چشم‌های این شخص را آسیایی‌تر نشان بده” یا “این شخص را سنگین‌تر نشان بده” را رد می‌کرد. در آزمایش‌های TechCrunch، دریافتیم که مولد تصویر جدید ChatGPT این نوع درخواست‌ها را برآورده می‌کند.

علاوه بر این، ChatGPT اکنون می‌تواند سبک‌های استودیوهای خلاق مانند پیکسار یا استودیو گیبلی را تقلید کند، اما همچنان تقلید از سبک‌های هنرمندان زنده فردی را محدود می‌کند. همانطور که TechCrunch قبلاً اشاره کرد، این امر می‌تواند بحث موجود در مورد استفاده منصفانه از آثار دارای حق چاپ در مجموعه‌های داده‌های آموزشی هوش مصنوعی را دوباره مطرح کند.

شایان ذکر است که OpenAI به طور کامل دریچه‌ها را برای سوء استفاده باز نمی‌کند. مولد تصویر بومی GPT-4o هنوز بسیاری از پرسش‌های حساس را رد می‌کند و در واقع، محافظت‌های بیشتری در مورد تولید تصاویر کودکان نسبت به DALL-E 3، مولد تصویر هوش مصنوعی قبلی ChatGPT، دارد، طبق مقاله سفید GPT-4o.

اما OpenAI پس از سال‌ها شکایت محافظه‌کارانه در مورد “سانسور” ادعایی هوش مصنوعی توسط شرکت‌های سیلیکون ولی، در حال کاهش محافظ‌های خود در زمینه‌های دیگر است. گوگل قبلاً به دلیل مولد تصویر هوش مصنوعی Gemini، که تصاویر چند نژادی را برای پرسش‌هایی مانند “پدران بنیانگذار ایالات متحده” و “سربازان آلمانی در جنگ جهانی دوم” ایجاد می‌کرد، که آشکارا نادرست بودند، با واکنش‌های منفی مواجه شد.

اکنون، جنگ فرهنگی در مورد تعدیل محتوای هوش مصنوعی ممکن است به اوج خود برسد. اوایل این ماه، جیم جردن، نماینده جمهوری‌خواه، سوالاتی را به OpenAI، گوگل و سایر غول‌های فناوری در مورد تبانی احتمالی با دولت بایدن برای سانسور محتوای تولید شده توسط هوش مصنوعی ارسال کرد.

OpenAI در بیانیه قبلی به TechCrunch، این ایده را رد کرد که تغییرات تعدیل محتوای آن انگیزه‌های سیاسی دارد. در عوض، این شرکت می‌گوید که این تغییر منعکس کننده “باور دیرینه در دادن کنترل بیشتر به کاربران” است و فناوری OpenAI اکنون به اندازه کافی خوب شده است که موضوعات حساس را هدایت کند.

صرف نظر از انگیزه‌اش، مطمئناً زمان خوبی برای OpenAI برای تغییر سیاست‌های تعدیل محتوای خود است، با توجه به احتمال بررسی‌های نظارتی تحت دولت ترامپ. غول‌های سیلیکون ولی مانند متا و ایکس نیز سیاست‌های مشابهی را اتخاذ کرده‌اند و موضوعات بحث‌برانگیز بیشتری را در پلتفرم‌های خود مجاز می‌دانند.

در حالی که مولد تصویر جدید OpenAI تاکنون فقط چند میم ویروسی استودیو گیبلی ایجاد کرده است، مشخص نیست که اثرات گسترده‌تر این سیاست‌ها چه خواهد بود. تغییرات اخیر ChatGPT ممکن است با دولت ترامپ سازگار باشد، اما اجازه دادن به یک چت‌بات هوش مصنوعی برای پاسخ دادن به سؤالات حساس می‌تواند به زودی OpenAI را در دردسر بیندازد.

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

OpenAI قصد دارد GPT-4.5، بزرگترین مدل هوش مصنوعی خود تا کنون را به تدریج از API خود حذف کند
OpenAI روز دوشنبه اعلام کرد که به زودی دسترسی به GPT-4.5، بزرگترین مدل هوش مصنوعی خود تا کنون، را از طریق API خود متوقف خواهد کرد. GPT-4.5 تنها در ...
متا آموزش مدل‌های هوش مصنوعی خود را بر روی محتوای عمومی در اتحادیه اروپا آغاز خواهد کرد
متا روز دوشنبه اعلام کرد که قصد دارد مدل‌های هوش مصنوعی خود را بر روی محتوای عمومی، مانند پست‌ها و نظرات در فیسبوک و اینستاگرام، در اتحادیه اروپا ...