پس زمینه
با توسعه Web3، عوامل غیرمتمرکز AI به عنوان یک برنامه کاربردی کلیدی ظاهر شدند. این عوامل بدون اتکا به سرورهای متمرکز، مدیریت دادههای کاربر و تعامل با قراردادهای هوشمند بلاک چین، بهطور مستقل عمل میکنند. با این حال، باز بودن و ماهیت غیرقابل اعتماد Web3 چالش های امنیتی قابل توجهی را ایجاد می کند.
عوامل هوش مصنوعی پتانسیل را در برنامه های Web3 نشان می دهند، مانند مدیریت کلیدهای خصوصی، خودکارسازی تراکنش ها و پشتیبانی از عملیات DAO. با این حال، کاستی های آنها در قابلیت اعتماد و پاسخگویی از اصول اصلی مانند تمرکززدایی و شفافیت منحرف است. این پذیرش گسترده تر آنها را محدود می کند و مانع از توسعه آینده می شود.
وضعیت فعلی
در حال حاضر، اکثر عوامل هوش مصنوعی در محیط های غیر قابل اعتماد کار می کنند و با چالش های متعددی از نظر امنیت و شفافیت مواجه هستند. این عوامل اغلب دادههای حساس کاربر را مدیریت میکنند و وظایف حیاتی را انجام میدهند، با این حال محیطهای عملیاتی آنها فاقد حفاظتهای لازم است. این آنها را در معرض خطراتی مانند نشت داده ها، دستکاری در منطق اجرا یا نتایج محاسباتی غیرقابل تایید قرار می دهد. مسائلی که معمولاً فرض می شود عبارتند از:
- فرآیند اولیه سازی عامل دستکاری نشده است.
- داده های ارائه شده توسط API های خارجی ایمن و قابل اعتماد هستند.
- کلیدهای خصوصی به درستی مدیریت می شوند و نمی توان آنها را فاش کرد.
- ورودی کاربر بی خطر باقی می ماند…