وعده هوش مصنوعی این است که زندگی همه ما را آسانتر خواهد کرد. و با این سهولت بزرگ، پتانسیل سود جدی نیز به همراه میآید. سازمان ملل متحد تخمین میزند که هوش مصنوعی تا سال ۲۰۳۳ میتواند یک بازار جهانی ۴.۸ تریلیون دلاری باشد – تقریباً به اندازه اقتصاد آلمان.
اما سال ۲۰۳۳ را فراموش کنید: همین حالا نیز هوش مصنوعی در حال ایجاد تحول در صنایعی به گستردگی خدمات مالی، تولید، بهداشت و درمان، بازاریابی، کشاورزی و تجارت الکترونیک است. چه “عوامل” الگوریتمی خودکار باشند که سبد سرمایهگذاری شما را مدیریت میکنند و چه سیستمهای تشخیص هوش مصنوعی که بیماریها را زود تشخیص میدهند، هوش مصنوعی اساساً نحوه زندگی و کار ما را تغییر میدهد.
اما بدبینی نسبت به هوش مصنوعی در حال افزایش است – ما به اندازه کافی فیلم ترمیناتور ۲ را دیدهایم که بسیار محتاط باشیم. بنابراین، سوالی که ارزش پرسیدن دارد این است که چگونه با ادغام عمیقتر هوش مصنوعی در زندگی روزمره خود، اعتماد را تضمین کنیم؟
مخاطرات زیاد است: گزارش اخیر Camunda یک حقیقت ناخوشایند را برجسته میکند: اکثر سازمانها (۸۴%) مسائل مربوط به انطباق با مقررات را به عدم شفافیت در برنامههای کاربردی هوش مصنوعی نسبت میدهند. اگر شرکتها نتوانند الگوریتمها را ببینند – یا بدتر از آن، اگر الگوریتمها چیزی را پنهان کنند – کاربران کاملاً در تاریکی قرار میگیرند. عوامل جانبداری سیستماتیک، سیستمهای آزمایش نشده و مجموعهای از مقررات ناهمگون را نیز به آن اضافه کنید تا دستورالعملی برای بیاعتمادی در مقیاس بزرگ داشته باشید.
شفافیت: باز کردن جعبه سیاه هوش مصنوعی
الگوریتمهای هوش مصنوعی با تمام قابلیتهای چشمگیرشان، اغلب مبهم هستند و کاربران را از نحوه تصمیمگیری بیاطلاع میگذارند. آیا درخواست وام مبتنی بر هوش مصنوعی به دلیل امتیاز اعتباری شما رد میشود – یا به دلیل یک جانبداری پنهان شرکت؟ بدون شفافیت، هوش مصنوعی میتواند اهداف مالک خود یا مالک آن را دنبال کند، در حالی که کاربر بیاطلاع میماند و همچنان باور دارد که مطابق میل او عمل میکند.
یک راه حل امیدوارکننده این است که فرآیندها را روی بلاک چین قرار دهیم و الگوریتمها را برای هر کسی قابل تأیید و حسابرسی کنیم. اینجاست که فناوری Web3 وارد میشود. ما در حال حاضر شاهد استارتآپهایی هستیم که امکانات آن را بررسی میکنند. Space and Time (SxT)، شرکتی که توسط مایکروسافت پشتیبانی میشود، فیدهای داده ضد دستکاری را ارائه میدهد که از یک لایه محاسباتی قابل تأیید تشکیل شده است، بنابراین SxT میتواند اطمینان حاصل کند که اطلاعاتی که هوش مصنوعی به آن متکی است واقعی، دقیق و توسط یک نهاد واحد دستکاری نشده است.
اثبات جدید SQL Space and Time تضمین میکند که پرس و جوها به طور دقیق در برابر دادههای دستکاری نشده محاسبه میشوند، محاسبات را در تاریخچههای بلاک چین اثبات میکند و میتواند این کار را بسیار سریعتر از zkVMها و کمک پردازندههای پیشرفته انجام دهد. در اصل، SxT به ایجاد اعتماد در ورودیهای هوش مصنوعی بدون وابستگی به یک قدرت متمرکز کمک میکند.
اثبات قابل اعتماد بودن هوش مصنوعی
اعتماد یک معامله یکباره نیست؛ بلکه با گذشت زمان به دست میآید، مشابه رستورانی که برای حفظ ستاره میشلن خود استانداردها را حفظ میکند. سیستمهای هوش مصنوعی باید به طور مداوم از نظر عملکرد و ایمنی ارزیابی شوند، به ویژه در زمینههای پرمخاطره مانند بهداشت و درمان یا رانندگی خودکار. هوش مصنوعی درجه دوم که داروهای اشتباه تجویز میکند یا به یک عابر پیاده برخورد میکند، چیزی فراتر از یک نقص فنی است، یک فاجعه است.
زیبایی مدلهای متنباز و تأیید زنجیرهای از طریق استفاده از دفتر کلهای تغییرناپذیر، با حفاظتهای حریم خصوصی داخلی که توسط استفاده از رمزنگاری مانند اثبات دانش صفر (ZKPs) تضمین میشود، در همین است. با این حال، اعتماد تنها ملاحظه نیست: کاربران باید بدانند که هوش مصنوعی چه کاری میتواند انجام دهد و چه کاری نمیتواند، تا انتظارات خود را به طور واقعبینانه تنظیم کنند. اگر کاربر معتقد باشد که هوش مصنوعی بیعیب و نقص است، احتمال بیشتری دارد که به خروجی معیوب اعتماد کند.
تا به امروز، روایت آموزش هوش مصنوعی بر خطرات آن متمرکز بوده است. از این پس، باید تلاش کنیم تا دانش کاربران را در مورد قابلیتها و محدودیتهای هوش مصنوعی بهبود بخشیم، تا بهتر اطمینان حاصل شود که کاربران توانمند میشوند نه استثمار.
انطباق و مسئولیتپذیری
همانند ارزهای دیجیتال، کلمه انطباق هنگام بحث در مورد هوش مصنوعی اغلب به میان میآید. هوش مصنوعی تحت قانون و مقررات مختلف معاف نیست. چگونه یک الگوریتم بیچهره باید پاسخگو نگه داشته شود؟ پاسخ ممکن است در پروتکل بلاک چین مدولار Cartesi باشد که اطمینان میدهد استنتاج هوش مصنوعی به صورت زنجیرهای انجام میشود.
ماشین مجازی Cartesi به توسعهدهندگان اجازه میدهد تا کتابخانههای استاندارد هوش مصنوعی – مانند TensorFlow، PyTorch و Llama.cpp – را در یک محیط اجرای غیرمتمرکز اجرا کنند، و آن را برای توسعه هوش مصنوعی زنجیرهای مناسب میسازد. به عبارت دیگر، ترکیبی از شفافیت بلاک چین و هوش مصنوعی محاسباتی.
اعتماد از طریق عدم تمرکز
گزارش اخیر فناوری و نوآوری سازمان ملل نشان میدهد که در حالی که هوش مصنوعی وعده رفاه و نوآوری میدهد، توسعه آن خطر “تعمیق شکافهای جهانی” را به همراه دارد. عدم تمرکز میتواند پاسخ باشد، پاسخی که به مقیاسپذیری هوش مصنوعی کمک میکند و اعتماد به آنچه در زیرساخت آن وجود دارد را القا میکند.
منبع: اخبار هوش مصنوعی