چگونه مدل های زبان بزرگ بر امنیت داده ها در برنامه های RAG تأثیر می گذارد

امنیت داده ها با استفاده از مدل های بزرگ با استفاده از مدل های بزرگ زبان ، به یک نگرانی اساسی تبدیل شده است. در یک بررسی اخیر ، بیش از 80 ٪ از تیم های حریم خصوصی شرکت کننده گفتند که آنها با زمینه های هوش مصنوعی و مدیریت داده ها سر و کار دارند. حفاظت از داده ها هنگام تهیه ابزارهای برنامه کاربردی AI یک مسئله اساسی است.

اعتماد فقط می تواند در جایی ساخته شود که حریم خصوصی داده ها و استانداردهای امنیتی درجه تجاری مشاهده شود. اگرچه برخی از مشتریان اکنون می توانند دوره های حفظ رکورد خود را مدیریت کنند ، اما خطر استفاده از اطلاعات خصوصی در گردش کار RAG که به LLM شخص ثالث بستگی دارد ، باقی مانده است.

حتی اگر از LLMS در دستگاه های فیزیکی خود استفاده کنید ، سطح تهدید به طور قابل توجهی زیاد است. در این مقاله تجزیه و تحلیل می شود که آیا و چگونه ارائه دهندگان سیستم های LLM جمع آوری و پردازش داده ها می توانند الزامات حریم خصوصی و امنیتی مورد نیاز شرکت ها را برآورده کنند.

https://baffle.io/blog/data-security-and-privacy-your-generative-ai-application-doesnt-need-to-nown-your-name/https://baffle.io/blog/data-security-and-privacy-your-generative-ai-application-doesnt-need-to-nown-your-name/

هنگام استفاده از LLMS چه اتفاقی برای داده های شما می افتد؟

LLM که شما استفاده می کنید بسیار وابسته به قراردادهای کاربر سرویس و خط مشی های تنظیم شده توسط ارائه دهنده در هنگام استفاده از داده ها است. حریم خصوصی و امنیت داده ها برای اکثر ارائه دهندگان خدمات LLM مهم است. با این حال ، هنوز هم در شیوه های آنها در مورد حفظ داده ها واریانس وجود دارد.

ذخیره سازی داده های موقت

ارائه دهندگان گاهی اوقات اجازه ذخیره کوتاه مدت داده های کاربر را برای تشخیص سوء استفاده ، نظارت و اشکال زدایی می دهند. Azure Openai …

Source link