داستان
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
زمان مطالعه: 6 دقیقه
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
داستان
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
زمان مطالعه: 6 دقیقه

وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین می‌زند که هوش مصنوعی تا سال ۲۰۳۳ می‌تواند یک بازار جهانی ۴.۸ تریلیون دلاری باشد – تقریباً به اندازه اقتصاد آلمان.

اما سال ۲۰۳۳ را فراموش کنید: همین حالا نیز هوش مصنوعی در حال ایجاد تحول در صنایعی به گستردگی خدمات مالی، تولید، بهداشت و درمان، بازاریابی، کشاورزی و تجارت الکترونیک است. چه “عوامل” الگوریتمی خودکار باشند که سبد سرمایه‌گذاری شما را مدیریت می‌کنند و چه سیستم‌های تشخیص هوش مصنوعی که بیماری‌ها را زود تشخیص می‌دهند، هوش مصنوعی اساساً نحوه زندگی و کار ما را تغییر می‌دهد.

اما بدبینی نسبت به هوش مصنوعی در حال افزایش است – ما به اندازه کافی فیلم ترمیناتور ۲ را دیده‌ایم که بسیار محتاط باشیم. بنابراین، سوالی که ارزش پرسیدن دارد این است که چگونه با ادغام عمیق‌تر هوش مصنوعی در زندگی روزمره خود، اعتماد را تضمین کنیم؟

مخاطرات زیاد است: گزارش اخیر Camunda یک حقیقت ناخوشایند را برجسته می‌کند: اکثر سازمان‌ها (۸۴%) مسائل مربوط به انطباق با مقررات را به عدم شفافیت در برنامه‌های کاربردی هوش مصنوعی نسبت می‌دهند. اگر شرکت‌ها نتوانند الگوریتم‌ها را ببینند – یا بدتر از آن، اگر الگوریتم‌ها چیزی را پنهان کنند – کاربران کاملاً در تاریکی قرار می‌گیرند. عوامل جانبداری سیستماتیک، سیستم‌های آزمایش نشده و مجموعه‌ای از مقررات ناهمگون را نیز به آن اضافه کنید تا دستورالعملی برای بی‌اعتمادی در مقیاس بزرگ داشته باشید.

شفافیت: باز کردن جعبه سیاه هوش مصنوعی

الگوریتم‌های هوش مصنوعی با تمام قابلیت‌های چشمگیرشان، اغلب مبهم هستند و کاربران را از نحوه تصمیم‌گیری بی‌اطلاع می‌گذارند. آیا درخواست وام مبتنی بر هوش مصنوعی به دلیل امتیاز اعتباری شما رد می‌شود – یا به دلیل یک جانبداری پنهان شرکت؟ بدون شفافیت، هوش مصنوعی می‌تواند اهداف مالک خود یا مالک آن را دنبال کند، در حالی که کاربر بی‌اطلاع می‌ماند و همچنان باور دارد که مطابق میل او عمل می‌کند.

یک راه حل امیدوارکننده این است که فرآیندها را روی بلاک چین قرار دهیم و الگوریتم‌ها را برای هر کسی قابل تأیید و حسابرسی کنیم. اینجاست که فناوری Web3 وارد می‌شود. ما در حال حاضر شاهد استارت‌آپ‌هایی هستیم که امکانات آن را بررسی می‌کنند. Space and Time (SxT)، شرکتی که توسط مایکروسافت پشتیبانی می‌شود، فیدهای داده ضد دستکاری را ارائه می‌دهد که از یک لایه محاسباتی قابل تأیید تشکیل شده است، بنابراین SxT می‌تواند اطمینان حاصل کند که اطلاعاتی که هوش مصنوعی به آن متکی است واقعی، دقیق و توسط یک نهاد واحد دستکاری نشده است.

اثبات جدید SQL Space and Time تضمین می‌کند که پرس و جوها به طور دقیق در برابر داده‌های دستکاری نشده محاسبه می‌شوند، محاسبات را در تاریخچه‌های بلاک چین اثبات می‌کند و می‌تواند این کار را بسیار سریع‌تر از zkVMها و کمک پردازنده‌های پیشرفته انجام دهد. در اصل، SxT به ایجاد اعتماد در ورودی‌های هوش مصنوعی بدون وابستگی به یک قدرت متمرکز کمک می‌کند.

اثبات قابل اعتماد بودن هوش مصنوعی

اعتماد یک معامله یکباره نیست؛ بلکه با گذشت زمان به دست می‌آید، مشابه رستورانی که برای حفظ ستاره میشلن خود استانداردها را حفظ می‌کند. سیستم‌های هوش مصنوعی باید به طور مداوم از نظر عملکرد و ایمنی ارزیابی شوند، به ویژه در زمینه‌های پرمخاطره مانند بهداشت و درمان یا رانندگی خودکار. هوش مصنوعی درجه دوم که داروهای اشتباه تجویز می‌کند یا به یک عابر پیاده برخورد می‌کند، چیزی فراتر از یک نقص فنی است، یک فاجعه است.

زیبایی مدل‌های متن‌باز و تأیید زنجیره‌ای از طریق استفاده از دفتر کل‌های تغییرناپذیر، با حفاظت‌های حریم خصوصی داخلی که توسط استفاده از رمزنگاری مانند اثبات دانش صفر (ZKPs) تضمین می‌شود، در همین است. با این حال، اعتماد تنها ملاحظه نیست: کاربران باید بدانند که هوش مصنوعی چه کاری می‌تواند انجام دهد و چه کاری نمی‌تواند، تا انتظارات خود را به طور واقع‌بینانه تنظیم کنند. اگر کاربر معتقد باشد که هوش مصنوعی بی‌عیب و نقص است، احتمال بیشتری دارد که به خروجی معیوب اعتماد کند.

تا به امروز، روایت آموزش هوش مصنوعی بر خطرات آن متمرکز بوده است. از این پس، باید تلاش کنیم تا دانش کاربران را در مورد قابلیت‌ها و محدودیت‌های هوش مصنوعی بهبود بخشیم، تا بهتر اطمینان حاصل شود که کاربران توانمند می‌شوند نه استثمار.

انطباق و مسئولیت‌پذیری

همانند ارزهای دیجیتال، کلمه انطباق هنگام بحث در مورد هوش مصنوعی اغلب به میان می‌آید. هوش مصنوعی تحت قانون و مقررات مختلف معاف نیست. چگونه یک الگوریتم بی‌چهره باید پاسخگو نگه داشته شود؟ پاسخ ممکن است در پروتکل بلاک چین مدولار Cartesi باشد که اطمینان می‌دهد استنتاج هوش مصنوعی به صورت زنجیره‌ای انجام می‌شود.

ماشین مجازی Cartesi به توسعه‌دهندگان اجازه می‌دهد تا کتابخانه‌های استاندارد هوش مصنوعی – مانند TensorFlow، PyTorch و Llama.cpp – را در یک محیط اجرای غیرمتمرکز اجرا کنند، و آن را برای توسعه هوش مصنوعی زنجیره‌ای مناسب می‌سازد. به عبارت دیگر، ترکیبی از شفافیت بلاک چین و هوش مصنوعی محاسباتی.

اعتماد از طریق عدم تمرکز

گزارش اخیر فناوری و نوآوری سازمان ملل نشان می‌دهد که در حالی که هوش مصنوعی وعده رفاه و نوآوری می‌دهد، توسعه آن خطر “تعمیق شکاف‌های جهانی” را به همراه دارد. عدم تمرکز می‌تواند پاسخ باشد، پاسخی که به مقیاس‌پذیری هوش مصنوعی کمک می‌کند و اعتماد به آنچه در زیرساخت آن وجود دارد را القا می‌کند.

منبع: اخبار هوش مصنوعی

اشتراک گذاری:

آخرین مقالات پیشنهادی

دیدگاه‌ها

اشتراک در
اطلاع از
guest
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
دیتانید تو مراحل مختلف تحلیل داده می‌تونه به شما کمک کنه:
  1. امکان‌سنجی خواسته‌ها و تطبیق نیازمندی‌ها
  2. استخراج و تمیز کردن دادگان
  3. طراحی مدل‌های مناسب
  4. آموزش مدل براساس داده‌های به‌دست آمده
  5. استقرار مدل

آخرین اخبار

اخبار مشابه

روش جدید قابلیت اطمینان گزارش‌های تشخیصی رادیولوژیست‌ها را ارزیابی و بهبود می‌بخشد
به دلیل ابهام ذاتی در تصاویر پزشکی مانند اشعه ایکس، رادیولوژیست‌ها اغلب هنگام توصیف وجود یک آسیب‌شناسی خاص، مانند ذات‌الریه، از کلماتی مانند "ممکن ..
فناوری Web3 به ایجاد اطمینان و اعتماد در هوش مصنوعی کمک می‌کند
وعده هوش مصنوعی این است که زندگی همه ما را آسان‌تر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه می‌آید. سازمان ملل متحد تخمین ...
نینا شیک(نویسنده): تأثیر هوش مصنوعی مولد بر تجارت، سیاست و جامعه
نینا شیک، سخنران و کارشناس برجسته در زمینه هوش مصنوعی مولد است که به دلیل کار پیشگامانه‌اش در تقاطع فناوری، جامعه و ژئوپلیتیک مشهور است...