موسسه ایمنی هوش مصنوعی پلتفرم ابزار تست ایمنی مدل هوش مصنوعی را راه اندازی کرد

این مقاله در ابتدا در AI Business ظاهر شد.

موسسه ایمنی هوش مصنوعی بریتانیا پلتفرم جدیدی راه اندازی کرده است که به کسب و کارها اجازه می دهد تا خود را آزمایش کنند هوش مصنوعی مدل ها قبل از عرضه عمومی.

پلت فرم، به نام بازرسی کنیدیک کتابخانه نرم‌افزاری است که برای ارزیابی قابلیت‌های مدل هوش مصنوعی، امتیازدهی به آن‌ها در زمینه‌هایی مانند استدلال و توانایی‌های مستقل طراحی شده است.

امروزه ابزارهای تست ایمنی در دسترس توسعه دهندگان نیست. MLCommons از یک زبان بزرگ متمرکز بر مدل پرده برداری کرد معیار برای تست ایمنی ماه گذشته.

Inspect برای پر کردن شکاف ساخته شده است و به صورت متن باز راه اندازی می شود تا همه بتوانند از آن برای آزمایش مدل های هوش مصنوعی خود استفاده کنند.

کسب و کارها می توانند از Inspect برای ارزیابی مهندسی سریع برای مدل های هوش مصنوعی و استفاده از ابزار خارجی خود استفاده کنند. این ابزار همچنین شامل مجموعه داده‌های ارزیابی حاوی نمونه‌های برچسب‌گذاری شده است تا توسعه‌دهندگان بتوانند داده‌های مورد استفاده برای آزمایش مدل را با جزئیات بررسی کنند.

این به گونه ای طراحی شده است که استفاده از آن آسان باشد و توضیح دهندگانی برای اجرای تست های مختلف ارائه شده است، از جمله اینکه آیا یک مدل در یک محیط ابری مانند AWS Bedrock میزبانی می شود.

به گفته مؤسسه ایمنی، تصمیم به منبع باز ابزار تست، توسعه دهندگان در سراسر جهان را قادر می سازد تا ارزیابی های هوش مصنوعی موثرتری را انجام دهند.

میشل دونلان، وزیر فناوری بریتانیا، گفت: “به عنوان بخشی از ضرب و شتم مداوم رهبری بریتانیا در مورد ایمنی هوش مصنوعی، من پلتفرم تست موسسه ایمنی هوش مصنوعی را به عنوان منبع باز پاک کردم.” دلیل علاقه من به این موضوع و اینکه چرا من Inspect منبع باز را دارم، به خاطر پاداش های فوق العاده ای است که اگر خطرات هوش مصنوعی را تحمل کنیم، می توانیم به دست آوریم.

موسسه Safety گفت که قصد دارد در آینده ابزارهای تست منبع باز را فراتر از Inspect توسعه دهد. این آژانس پس از امضای یک مورد، روی پروژه های مرتبط با همتای آمریکایی خود کار خواهد کرد توافقنامه کاری مشترک در آوریل.

ایان هوگارت، رئیس مؤسسه ایمنی هوش مصنوعی، گفت: «همکاری موفق در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است و ما امیدواریم که Inspect بتواند بلوک ساختمانی برای مؤسسه‌های ایمنی هوش مصنوعی، سازمان‌های تحقیقاتی و دانشگاه باشد». ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از Inspect نه تنها برای انجام آزمایش‌های ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلت‌فرم منبع باز ببینیم تا بتوانیم ارزیابی‌های با کیفیت بالا را در سراسر صفحه تولید کنیم.»

به گفته آماندا براک، مدیر عامل OpenUK، موفقیت پلتفرم جدید مؤسسه ایمنی را تنها می‌توان با تعداد شرکت‌هایی که قبلاً متعهد به استفاده از ابزار آزمایش هستند، اندازه‌گیری کرد.

براک گفت: «با موقعیت کند بریتانیا در تنظیم مقررات، این پلتفرم به سادگی باید موفق باشد تا بریتانیا در آینده هوش مصنوعی جایگاهی داشته باشد. اکنون همه نگاه‌ها به کره جنوبی و اجلاس بعدی ایمنی معطوف خواهد شد تا ببینند جهان چگونه از این موضوع استقبال می‌کند.»

ویرا سیوونن، مدیر ارشد بازرگانی Saidot گفت: «توانایی Inspect برای ارزیابی طیف وسیعی از قابلیت‌های هوش مصنوعی و ارائه امتیاز ایمنی، سازمان‌های بزرگ و کوچک را قادر می‌سازد تا نه تنها از پتانسیل هوش مصنوعی استفاده کنند، بلکه اطمینان حاصل کنند که از آن به‌طور مسئولانه و ایمن استفاده می‌شود.» . “این گامی به سوی دموکراتیک کردن ایمنی هوش مصنوعی است، حرکتی که بدون شک باعث ایجاد نوآوری می شود و در عین حال از خطرات مرتبط با سیستم های هوش مصنوعی پیشرفته محافظت می کند.”


Source link