خبر
کارشناسان معتقدند که هوش مصنوعی هنوز آماده نیست تا به‌عنوان یک «همکار علمی» عمل کند
زمان مطالعه: 6 دقیقه
کارشناسان معتقدند که هوش مصنوعی هنوز آماده نیست تا به‌عنوان یک «همکار علمی» عمل کند
کارشناسان معتقدند که هوش مصنوعی هنوز آماده نیست تا به‌عنوان یک «همکار علمی» عمل کند
خبر
کارشناسان معتقدند که هوش مصنوعی هنوز آماده نیست تا به‌عنوان یک «همکار علمی» عمل کند
زمان مطالعه: 6 دقیقه

ماه گذشته، گوگل از «هوش مصنوعی همکار علمی» رونمایی کرد؛ ابزاری که این شرکت مدعی است برای کمک به دانشمندان در تدوین فرضیه‌ها و طرح‌های پژوهشی طراحی شده است. گوگل این ابزار را راهی برای کشف دانش جدید معرفی کرد، اما کارشناسان معتقدند که این ابزار — و ابزارهای مشابه آن — به مراتب از وعده‌های تبلیغاتی خود عقب‌تر هستند.

سارا بیری، پژوهشگر بینایی کامپیوتری در MIT، به تک‌کرانچ گفت: «این ابزار اولیه، هرچند جالب به نظر می‌رسد، بعید است که به طور جدی مورد استفاده قرار گیرد. من مطمئن نیستم که جامعه علمی تقاضایی برای این نوع سیستم تولید فرضیه داشته باشد.»

گوگل آخرین غول فناوری است که این ایده را پیش می‌برد که هوش مصنوعی روزی به طور چشمگیری سرعت تحقیقات علمی را افزایش خواهد داد، به‌ویژه در حوزه‌های پر از مقالات مانند زیست‌پزشکی. سام آلتمن، مدیرعامل OpenAI، در مقاله‌ای در اوایل سال جاری اظهار داشت که ابزارهای «فوق‌هوشمند» هوش مصنوعی می‌توانند «کشف و نوآوری علمی را به شدت تسریع کنند.» به همین ترتیب، داریو آمودی، مدیرعامل Anthropic، پیش‌بینی جسورانه‌ای کرده است که هوش مصنوعی می‌تواند به تدوین درمان برای اکثر سرطان‌ها کمک کند.

اما بسیاری از پژوهشگران معتقدند که هوش مصنوعی امروزی به‌ویژه در هدایت فرآیند علمی چندان مفید نیست. به گفته آن‌ها، کاربردهایی مانند «هوش مصنوعی همکار علمی» گوگل بیشتر به نظر اغراق‌آمیز می‌آیند تا واقعی، و داده‌های تجربی از آن‌ها پشتیبانی نمی‌کند.

برای مثال، گوگل در پست وبلاگی که این ابزار را توصیف می‌کند، اعلام کرد که این ابزار پتانسیل خود را در حوزه‌هایی مانند بازاستفاده دارو برای لوسمی میلوئید حاد — نوعی سرطان خون که مغز استخوان را تحت تأثیر قرار می‌دهد — نشان داده است. با این حال، نتایج آنقدر مبهم هستند که فاویا دوبیک، آسیب‌شناس وابسته به مرکز پزشکی نورث‌وست در توسان آریزونا، به تک‌کرانچ گفت: «هیچ دانشمند معتبری این [نتایج] را جدی نمی‌گیرد.»

او افزود: «این می‌تواند نقطه شروع خوبی برای پژوهشگران باشد، اما […] کمبود جزئیات نگران‌کننده است و اعتماد من را جلب نمی‌کند. اطلاعات ارائه‌شده آنقدر کم است که درک اینکه آیا واقعاً می‌تواند مفید باشد یا نه، بسیار دشوار است.»

این اولین بار نیست که جامعه علمی گوگل را به دلیل تبلیغ یک پیشرفت ادعایی در هوش مصنوعی بدون ارائه روشی برای بازتولید نتایج مورد انتقاد قرار می‌دهد. در سال ۲۰۲۰، گوگل مدعی شد که یکی از سیستم‌های هوش مصنوعی‌اش که برای تشخیص تومورهای پستان آموزش دیده بود، نتایجی بهتر از رادیولوژیست‌های انسانی به دست آورده است. پژوهشگرانی از هاروارد و استنفورد در مجله Nature پاسخی منتشر کردند و گفتند که فقدان روش‌ها و کدهای دقیق در پژوهش گوگل «ارزش علمی آن را تضعیف می‌کند.»

دانشمندان همچنین گوگل را به دلیل نادیده گرفتن محدودیت‌های ابزارهای هوش مصنوعی‌اش که برای رشته‌های علمی مانند مهندسی مواد طراحی شده‌اند، سرزنش کرده‌اند. در سال ۲۰۲۳، این شرکت اعلام کرد که حدود ۴۰ «ماده جدید» با کمک یکی از سیستم‌های هوش مصنوعی‌اش به نام GNoME سنتز شده‌اند. اما تحلیل خارجی نشان داد که حتی یک مورد از این مواد واقعاً جدید نبود.

آشیک خودابخش، استادیار مهندسی نرم‌افزار در مؤسسه فناوری روچستر، به تک‌کرانچ گفت: «ما تا زمانی که ابزارهایی مانند «هوش مصنوعی همکار علمی» گوگل تحت ارزیابی دقیق و مستقل در رشته‌های علمی متنوع قرار نگیرند، نمی‌توانیم نقاط قوت و محدودیت‌های آن‌ها را به‌درستی درک کنیم. هوش مصنوعی اغلب در محیط‌های کنترل‌شده عملکرد خوبی دارد، اما ممکن است در مقیاس بزرگ با شکست مواجه شود.»

فرآیندهای پیچیده

بخشی از چالش در توسعه ابزارهای هوش مصنوعی برای کمک به کشف علمی، پیش‌بینی تعداد بی‌شمار عوامل مخدوش‌کننده است. هوش مصنوعی ممکن است در حوزه‌هایی که نیاز به کاوش گسترده دارند، مانند محدود کردن فهرست بزرگی از احتمالات، مفید باشد. اما مشخص نیست که آیا هوش مصنوعی قادر به حل خلاقانه مسائل به شیوه‌ای است که به پیشرفت‌های علمی منجر شود یا نه.

خودابخش گفت: «در طول تاریخ دیده‌ایم که برخی از مهم‌ترین پیشرفت‌های علمی، مانند توسعه واکسن‌های mRNA، با شهود انسانی و پشتکار در برابر تردیدها به دست آمده‌اند. هوش مصنوعی، همان‌طور که امروز وجود دارد، ممکن است برای بازتولید آن مناسب نباشد.»

لانا سیناپاین، پژوهشگر هوش مصنوعی در آزمایشگاه‌های علوم کامپیوتر سونی در ژاپن، معتقد است که ابزارهایی مانند «هوش مصنوعی همکار علمی» گوگل بر نوع نادرستی از کارهای علمی تمرکز دارند.

سیناپاین ارزش واقعی را در هوش مصنوعی می‌بیند که بتواند وظایف فنی دشوار یا خسته‌کننده مانند خلاصه‌سازی مقالات علمی جدید یا قالب‌بندی کارها برای تطابق با الزامات درخواست کمک‌هزینه را خودکار کند. اما به گفته او، در جامعه علمی تقاضای چندانی برای یک «هوش مصنوعی همکار علمی» که فرضیه تولید کند وجود ندارد — وظیفه‌ای که بسیاری از پژوهشگران از آن لذت فکری می‌برند.

او به تک‌کرانچ گفت: «برای بسیاری از دانشمندان، از جمله خودم، تولید فرضیه جذاب‌ترین بخش کار است. چرا باید لذتم را به یک کامپیوتر واگذار کنم و فقط کارهای سخت را برای خودم نگه دارم؟ به طور کلی، به نظر می‌رسد بسیاری از پژوهشگران هوش مصنوعی مولد درک درستی از انگیزه‌های انسانی ندارند، و در نتیجه پیشنهادهایی برای محصولاتی ارائه می‌دهند که بخشی را خودکار می‌کنند که ما از آن لذت می‌بریم.»

بیری خاطرنشان کرد که اغلب سخت‌ترین گام در فرآیند علمی، طراحی و اجرای مطالعات و تحلیل‌ها برای تأیید یا رد یک فرضیه است — چیزی که لزوماً در دسترس سیستم‌های هوش مصنوعی کنونی نیست. هوش مصنوعی البته نمی‌تواند از ابزارهای فیزیکی برای انجام آزمایش‌ها استفاده کند و اغلب در مسائلی که داده‌های بسیار محدودی وجود دارد، عملکرد بدتری دارد.

او گفت: «بیشتر علوم را نمی‌توان کاملاً به‌صورت مجازی انجام داد — اغلب بخش مهمی از فرآیند علمی وجود دارد که فیزیکی است، مانند جمع‌آوری داده‌های جدید و انجام آزمایش‌ها در آزمایشگاه. یکی از محدودیت‌های بزرگ سیستم‌هایی [مانند هوش مصنوعی همکار علمی گوگل] نسبت به فرآیند علمی واقعی، که قطعاً کاربرد آن را محدود می‌کند، زمینه‌ای درباره آزمایشگاه و پژوهشگری است که از سیستم استفاده می‌کند، اهداف پژوهشی خاص آن‌ها، کارهای قبلی‌شان، مهارت‌هایشان، و منابعی که به آن‌ها دسترسی دارند.»

خطرات هوش مصنوعی

کاستی‌های فنی و خطرات هوش مصنوعی — مانند تمایل آن به توهم‌زایی — نیز باعث شده است که دانشمندان نسبت به تأیید آن برای کارهای جدی محتاط باشند.

خودابخش نگران است که ابزارهای هوش مصنوعی به سادگی در ادبیات علمی سر و صدا ایجاد کنند، نه اینکه پیشرفت را ارتقا دهند.

این موضوع همین حالا هم یک مشکل است. مطالعه‌ای اخیر نشان داد که «علم بی‌ارزش» تولیدشده توسط هوش مصنوعی، گوگل اسکالر، موتور جستجوی رایگان گوگل برای ادبیات علمی، را پر کرده است.

او گفت: «پژوهش تولیدشده توسط هوش مصنوعی، اگر با دقت نظارت نشود، می‌تواند حوزه علمی را با مطالعات کم‌کیفیت یا حتی گمراه‌کننده پر کند و فرآیند بازبینی همتا را تحت فشار قرار دهد. فرآیند بازبینی همتا که همین حالا هم در رشته‌هایی مانند علوم کامپیوتر چالش‌برانگیز است، با افزایش نمایی ارسال‌ها به کنفرانس‌های برتر مواجه شده است.»

سیناپاین گفت که حتی مطالعات طراحی‌شده نیز ممکن است به دلیل عملکرد نادرست هوش مصنوعی آلوده شوند. او در حالی که ایده ابزاری که بتواند در مرور و تلفیق ادبیات کمک کند را دوست دارد، گفت که به هوش مصنوعی امروزی برای انجام قابل‌اعتماد این کار اعتماد ندارد.

او افزود: «این‌ها چیزهایی هستند که ابزارهای موجود ادعا می‌کنند انجام می‌دهند، اما این‌ها کارهایی نیستند که من شخصاً به هوش مصنوعی کنونی واگذار کنم. حتی اگر تمام مسائل اخلاقی […] حل شوند، هوش مصنوعی فعلی به اندازه کافی قابل‌اعتماد نیست که کارم را بر اساس خروجی‌های آن بنا کنم.»

منبع: تک‌کرانچ

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...