آموزشی، مقاله
سه پرسش: تجسم پژوهش در عصر هوش مصنوعی
زمان مطالعه: 5 دقیقه
سه پرسش: تجسم پژوهش در عصر هوش مصنوعی
سه پرسش: تجسم پژوهش در عصر هوش مصنوعی
آموزشی، مقاله
سه پرسش: تجسم پژوهش در عصر هوش مصنوعی
زمان مطالعه: 5 دقیقه

بیش از ۳۰ سال است که فلیسه فرانکل، عکاس علمی، به اساتید، محققان و دانشجویان MIT کمک کرده است تا کار خود را به صورت بصری منتقل کنند. در طول این مدت، او شاهد توسعه ابزارهای مختلفی برای پشتیبانی از ایجاد تصاویر قانع‌کننده بوده است: برخی مفید و برخی مغایر با تلاش برای تولید یک بازنمایی قابل اعتماد و کامل از تحقیق. فرانکل در یک مقاله نظر اخیر منتشر شده در مجله Nature، به بحث در مورد استفاده رو به رشد هوش مصنوعی مولد (GenAI) در تصاویر و چالش‌ها و پیامدهای آن برای انتقال تحقیق می‌پردازد. او در یک یادداشت شخصی‌تر، این سوال را مطرح می‌کند که آیا هنوز جایی برای یک عکاس علمی در جامعه تحقیقاتی وجود خواهد داشت یا خیر.

پرسش: شما اشاره کرده‌اید که به محض گرفته شدن یک عکس، تصویر را می‌توان “دستکاری شده” در نظر گرفت. شما روش‌هایی را برای دستکاری تصاویر خود به کار برده‌اید تا یک تصویر بصری ایجاد کنید که پیام مورد نظر را با موفقیت بیشتری منتقل کند. مرز بین دستکاری قابل قبول و غیرقابل قبول کجاست؟

پاسخ: به طور کلی، تصمیمات گرفته شده در مورد نحوه قاب‌بندی و ساختار محتوای یک تصویر، همراه با ابزارهای مورد استفاده برای ایجاد تصویر، خود نوعی دستکاری واقعیت هستند. ما باید به یاد داشته باشیم که تصویر صرفاً یک بازنمایی از چیز است، نه خود چیز. هنگام ایجاد تصویر باید تصمیماتی گرفته شود. مسئله حیاتی این است که داده‌ها را دستکاری نکنیم، و در مورد بیشتر تصاویر، داده‌ها ساختار هستند. به عنوان مثال، برای تصویری که مدتی پیش ساختم، به طور دیجیتالی ظرف پتری که یک کلنی مخمر در آن رشد می‌کرد را حذف کردم تا توجه را به مورفولوژی خیره‌کننده کلنی جلب کنم. داده‌های موجود در تصویر، مورفولوژی کلنی است. من آن داده‌ها را دستکاری نکردم. با این حال، همیشه در متن اشاره می‌کنم که آیا تغییری در تصویر ایجاد کرده‌ام یا خیر. من ایده بهبود تصویر را در کتاب راهنمای خود، “عناصر بصری، عکاسی” مورد بحث قرار می‌دهم.

پرسش: محققان برای اطمینان از اینکه تحقیق آن‌ها به درستی و اخلاقی منتقل می‌شود، چه کاری می‌توانند انجام دهند؟

پاسخ: با ظهور هوش مصنوعی، من سه مسئله اصلی را در مورد بازنمایی بصری می‌بینم: تفاوت بین تصویرسازی و مستندسازی، اخلاق پیرامون دستکاری دیجیتالی، و نیاز مداوم به آموزش محققان در زمینه ارتباط بصری. سال‌هاست که تلاش می‌کنم یک برنامه سواد بصری برای طبقات فعلی و آینده محققان علوم و مهندسی ایجاد کنم. MIT یک الزام ارتباطی دارد که بیشتر به نوشتن می‌پردازد، اما در مورد بصری چطور، که دیگر حاشیه‌ای برای ارسال به مجله نیست؟ شرط می‌بندم که اکثر خوانندگان مقالات علمی پس از خواندن چکیده، مستقیماً به شکل‌ها می‌روند.

ما باید از دانشجویان بخواهیم که یاد بگیرند چگونه یک نمودار یا تصویر منتشر شده را به طور انتقادی بررسی کنند و تصمیم بگیرند که آیا چیز عجیبی در آن وجود دارد یا خیر. ما باید در مورد اخلاق “هدایت” یک تصویر برای نشان دادن یک روش از پیش تعیین شده بحث کنیم. من در مقاله حادثه‌ای را شرح می‌دهم که در آن یک دانشجو یکی از تصاویر من را (بدون اجازه گرفتن از من) تغییر داد تا با آنچه دانشجو می‌خواست به صورت بصری منتقل کند مطابقت داشته باشد. من البته اجازه ندادم و از اینکه اخلاق چنین تغییری در نظر گرفته نشده بود ناامید شدم. ما باید حداقل مکالماتی را در دانشگاه ایجاد کنیم و حتی بهتر، یک الزام سواد بصری همراه با الزام نوشتن ایجاد کنیم.

پرسش: هوش مصنوعی مولد از بین نخواهد رفت. شما آینده ارتباط بصری علم را چگونه می‌بینید؟

پاسخ: برای مقاله Nature، تصمیم گرفتم که یک راه قدرتمند برای زیر سوال بردن استفاده از هوش مصنوعی در تولید تصاویر، ارائه مثال باشد. من از یکی از مدل‌های انتشار برای ایجاد یک تصویر با استفاده از دستور زیر استفاده کردم:

“یک عکس از نانوکریستال‌های مونگی باوندی در ویال‌ها روی پس‌زمینه سیاه ایجاد کنید که بسته به اندازه آن‌ها، هنگام تحریک با نور UV در طول موج‌های مختلف فلورسانس می‌کنند.”

نتایج آزمایش‌های هوش مصنوعی من اغلب تصاویر کارتونی مانندی بود که به سختی می‌توانستند به عنوان واقعیت – چه رسد به مستندسازی – پذیرفته شوند، اما زمانی فرا خواهد رسید که اینگونه خواهند بود. در گفتگو با همکاران در جوامع تحقیقاتی و علوم کامپیوتر، همه موافقند که ما باید استانداردهای روشنی در مورد آنچه مجاز و غیرمجاز است داشته باشیم. و مهمتر از همه، یک تصویر بصری تولید شده توسط GenAI هرگز نباید به عنوان مستندسازی مجاز باشد.

اما تصاویر بصری تولید شده توسط هوش مصنوعی در واقع برای اهداف تصویرسازی مفید خواهند بود. اگر یک تصویر بصری تولید شده توسط هوش مصنوعی قرار است به یک مجله ارسال شود (یا در واقع، در یک ارائه نشان داده شود)، من معتقدم که محقق باید به وضوح برچسب بزند که آیا یک تصویر توسط یک مدل هوش مصنوعی ایجاد شده است یا خیر؛ مدل مورد استفاده را مشخص کند؛ دستور مورد استفاده را درج کند؛ و در صورت وجود، تصویری که برای کمک به دستور استفاده شده است را درج کند.

منبع: اخبار MIT

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...