یادداشت سردبیر: امروز، گوگل، مایکروسافت، OpenAI و Anthropic اعلامیه مشترک زیر را منتشر کردند که در آن کریس مزرول را به عنوان اولین مدیر اجرایی انجمن مدل مرزی معرفی کردند و صندوق ایمنی هوش مصنوعی 10 میلیون دلاری را اعلام کردند.
- کریس مزرول اولین مدیر اجرایی انجمن مدل مرزی را منصوب کرد، یک نهاد صنعتی که بر تضمین توسعه ایمن و مسئولانه و استفاده از مدلهای هوش مصنوعی مرزی در سطح جهانی تمرکز دارد.
- مزرول تجربیات زیادی را با تمرکز بر حاکمیت و ایمنی فناوری های نوظهور و کاربردهای آینده آنها به ارمغان می آورد.
- امروز اعضای انجمن با همکاری شرکای بشردوستانه، بنیاد پاتریک جی مک گاورن، بنیاد دیوید و لوسیل پاکارد، اریک اشمیت و جان تالین بیش از 10 میلیون دلار برای صندوق ایمنی هوش مصنوعی جدید برای پیشبرد تحقیقات در مورد توسعه مداوم ابزارها متعهد می شوند. برای جامعه که به طور مؤثری توانمندترین مدل های هوش مصنوعی را آزمایش و ارزیابی کند.
25 اکتبر 2023 – امروز آنتروپیک، گوگل، مایکروسافت و OpenAI انتخاب کریس مزرول را به عنوان اولین مدیر اجرایی انجمن مدل مرزی و ایجاد صندوق ایمنی هوش مصنوعی جدید، ابتکاری بیش از 10 میلیون دلار برای ترویج تحقیقات در جهان اعلام کردند. زمینه ایمنی هوش مصنوعی انجمن مدل مرزی، یک نهاد صنعتی متمرکز بر حصول اطمینان از توسعه ایمن و مسئولانه مدلهای هوش مصنوعی مرزی، همچنین اولین بهروزرسانی گروه کاری فنی خود را در مورد تیم قرمز برای به اشتراک گذاشتن تخصص صنعت با مخاطبان گستردهتری منتشر میکند، زیرا انجمن گفتگو در مورد مدیریت مسئولانه هوش مصنوعی را گسترش میدهد. نزدیک می شود.
مدیر اجرایی
کریس مزرول با تخصص عمیق در زمینه سیاست فناوری به انجمن مدل مرزی می آید و به طور گسترده روی حاکمیت و ایمنی فناوری های نوظهور و کاربردهای آینده آنها کار کرده است. اخیراً او به عنوان مدیر ابتکار هوش مصنوعی و فناوری نوظهور در موسسه بروکینگز خدمت کرده است.
در این نقش جدید، Meserole مسئول کمک به انجمن برای انجام ماموریت خود برای (i) پیشبرد تحقیقات ایمنی هوش مصنوعی برای ترویج توسعه مسئولانه مدلهای مرزی و به حداقل رساندن خطرات احتمالی است، (ii) شناسایی بهترین شیوههای ایمنی برای مدلهای مرزی، (iii) به اشتراک گذاری دانش با سیاست گذاران، دانشگاهیان، جامعه مدنی و دیگران برای پیشبرد توسعه هوش مصنوعی مسئول. و (IV) از تلاشها برای استفاده از هوش مصنوعی برای رسیدگی به بزرگترین چالشهای جامعه حمایت میکند.
قویترین مدلهای هوش مصنوعی نویدهای زیادی برای جامعه دارند، اما برای تحقق پتانسیلهای آنها باید درک بهتری از چگونگی توسعه و ارزیابی ایمن آنها داشته باشیم. من برای مقابله با این چالش با انجمن مدل مرزی هیجانزده هستم. – کریس مزرول
صندوق ایمنی هوش مصنوعی
طی سال گذشته، صنعت پیشرفت های قابل توجهی در قابلیت های هوش مصنوعی داشته است. با سرعت گرفتن این پیشرفت ها، تحقیقات دانشگاهی جدید در مورد ایمنی هوش مصنوعی مورد نیاز است. برای رفع این شکاف، انجمن و شرکای بشردوستانه در حال ایجاد یک صندوق ایمنی هوش مصنوعی جدید هستند که از محققان مستقل از سراسر جهان وابسته به موسسات دانشگاهی، موسسات تحقیقاتی و استارت آپ ها حمایت می کند. تعهد اولیه بودجه برای صندوق ایمنی هوش مصنوعی از Anthropic، Google، Microsoft، و OpenAI و سخاوت شرکای بشردوستانه ما، بنیاد پاتریک جی مک گاورن، بنیاد دیوید و لوسیل پاکارد*، اریک اشمیت، و جان تالین دریافت میشود. مجموع این مبلغ بیش از 10 میلیون دلار بودجه اولیه است. ما انتظار کمک های اضافی از دیگر شرکا را داریم.
در اوایل سال جاری، اعضای انجمن تعهدات داوطلبانه هوش مصنوعی را در کاخ سفید امضا کردند، که شامل تعهدی برای تسهیل کشف و گزارش آسیبپذیریهای شخص ثالث در سیستمهای هوش مصنوعی ما بود. انجمن صندوق ایمنی هوش مصنوعی را بخش مهمی از اجرای این تعهد با ارائه بودجه به جامعه خارجی برای ارزیابی و درک بهتر سیستم های مرزی می داند. بحث جهانی در مورد ایمنی هوش مصنوعی و پایگاه دانش عمومی هوش مصنوعی از طیف وسیع تری از صداها و دیدگاه ها بهره خواهد برد.
تمرکز اولیه صندوق حمایت از توسعه ارزیابیهای مدل جدید و تکنیکهای تیمسازی قرمز مدلهای هوش مصنوعی برای کمک به توسعه و آزمایش تکنیکهای ارزیابی برای قابلیتهای بالقوه خطرناک سیستمهای مرزی خواهد بود. ما بر این باوریم که افزایش بودجه در این زمینه به افزایش استانداردهای ایمنی و امنیت کمک می کند و بینشی در مورد کاهش و کنترل صنعت، دولت ها و جامعه مدنی برای پاسخ به چالش های ارائه شده توسط سیستم های هوش مصنوعی ارائه می دهد.
صندوق ظرف چند ماه آینده فراخوانی برای پیشنهادات ارسال خواهد کرد. موسسه مریدین صندوق را مدیریت خواهد کرد – کار آنها توسط یک کمیته مشورتی متشکل از کارشناسان مستقل خارجی، کارشناسان شرکت های هوش مصنوعی و افراد با تجربه در اعطای کمک هزینه پشتیبانی می شود.
تخصص فنی
در چند ماه گذشته، تالار گفتمان برای کمک به ایجاد مجموعه ای مشترک از تعاریف اصطلاحات، مفاهیم، و فرآیندها کار کرده است، بنابراین ما یک درک پایه برای ساختن داشته باشیم. به این ترتیب محققان، دولتها و سایر همتایان صنعت همگی میتوانند نقطه شروع یکسانی را در بحثهای مربوط به ایمنی هوش مصنوعی و مسائل حاکمیتی داشته باشند.
برای حمایت از ایجاد یک درک مشترک، انجمن همچنین در حال کار برای به اشتراک گذاشتن بهترین شیوه ها در مورد تیم قرمز در سراسر صنعت است. به عنوان نقطه شروع، انجمن گرد هم آمده است تا یک تعریف مشترک از “تیمینگ قرمز” برای هوش مصنوعی و مجموعه ای از مطالعات موردی مشترک در به روز رسانی گروه کاری جدید ارائه دهد. ما تیم قرمز را به عنوان فرآیندی ساختاریافته برای بررسی سیستمها و محصولات هوش مصنوعی برای شناسایی قابلیتها، خروجیها یا تهدیدات زیرساختی مضر تعریف کردیم. ما بر این کار ادامه خواهیم داد و متعهد به همکاری با یکدیگر برای ادامه تلاشهای تیم قرمز خود هستیم.
ما همچنین در حال توسعه یک فرآیند افشای مسئولانه جدید هستیم که از طریق آن آزمایشگاههای هوش مصنوعی مرزی میتوانند اطلاعات مربوط به کشف آسیبپذیریها یا قابلیتهای بالقوه خطرناک در مدلهای هوش مصنوعی مرزی و اقدامات کاهشی مرتبط با آنها را به اشتراک بگذارند. برخی از شرکتهای فروم مدل Frontier قبلاً قابلیتها، روندها و کاهشهایی را برای هوش مصنوعی در حوزه امنیت ملی کشف کردهاند. انجمن بر این باور است که تحقیقات ترکیبی ما در این زمینه میتواند به عنوان یک مطالعه موردی برای اینکه چگونه آزمایشگاههای هوش مصنوعی مرزی میتوانند فرآیند افشای مسئولانه را در حرکت رو به جلو اصلاح و پیادهسازی کنند.
بعد چه می شود
در ماههای آینده، انجمن مدل مرزی، یک هیئت مشورتی برای کمک به هدایت استراتژی و اولویتهای خود ایجاد خواهد کرد که طیفی از دیدگاهها و تخصصها را نشان میدهد. نسخهها و بهروزرسانیهای آینده، از جمله بهروزرسانیهای مربوط به اعضای جدید، مستقیماً از فروم Frontier Model ارائه میشوند. بنابراین برای اطلاعات بیشتر با وبسایت آنها همراه باشید.
صندوق ایمنی هوش مصنوعی اولین فراخوان خود را برای پیشنهادات در ماه های آینده منتشر خواهد کرد و ما انتظار داریم که کمک های بلاعوض در مدت کوتاهی پس از آن صادر شود.
انجمن مدل مرزی همچنین یافته های فنی بیشتری را به محض در دسترس قرار دادن آنها منتشر خواهد کرد.
انجمن مشتاق است که با Meserole همکاری کند و تعاملات خود را با جامعه تحقیقاتی گسترده تر، از جمله مشارکت در هوش مصنوعی، MLCommons، و سایر سازمان های غیر دولتی پیشرو و سازمان های دولتی و چند ملیتی برای کمک به درک مزایای هوش مصنوعی و در عین حال توسعه ایمن آن، افزایش دهد. و استفاده کنید.
*بنیاد دیوید و لوسیل پاکارد در نظر دارد حمایت کند، اما هنوز در زمان توزیع به طور رسمی تعهد نشده بود.