گوگل، مایکروسافت، Anthropic و Open AI اولین مدیر اجرایی انجمن Frontier Model هستند

یادداشت سردبیر: امروز، گوگل، مایکروسافت، OpenAI و Anthropic اعلامیه مشترک زیر را منتشر کردند که در آن کریس مزرول را به عنوان اولین مدیر اجرایی انجمن مدل مرزی معرفی کردند و صندوق ایمنی هوش مصنوعی 10 میلیون دلاری را اعلام کردند.

  • کریس مزرول اولین مدیر اجرایی انجمن مدل مرزی را منصوب کرد، یک نهاد صنعتی که بر تضمین توسعه ایمن و مسئولانه و استفاده از مدل‌های هوش مصنوعی مرزی در سطح جهانی تمرکز دارد.
  • مزرول تجربیات زیادی را با تمرکز بر حاکمیت و ایمنی فناوری های نوظهور و کاربردهای آینده آنها به ارمغان می آورد.
  • امروز اعضای انجمن با همکاری شرکای بشردوستانه، بنیاد پاتریک جی مک گاورن، بنیاد دیوید و لوسیل پاکارد، اریک اشمیت و جان تالین بیش از 10 میلیون دلار برای صندوق ایمنی هوش مصنوعی جدید برای پیشبرد تحقیقات در مورد توسعه مداوم ابزارها متعهد می شوند. برای جامعه که به طور مؤثری توانمندترین مدل های هوش مصنوعی را آزمایش و ارزیابی کند.

25 اکتبر 2023 – امروز آنتروپیک، گوگل، مایکروسافت و OpenAI انتخاب کریس مزرول را به عنوان اولین مدیر اجرایی انجمن مدل مرزی و ایجاد صندوق ایمنی هوش مصنوعی جدید، ابتکاری بیش از 10 میلیون دلار برای ترویج تحقیقات در جهان اعلام کردند. زمینه ایمنی هوش مصنوعی انجمن مدل مرزی، یک نهاد صنعتی متمرکز بر حصول اطمینان از توسعه ایمن و مسئولانه مدل‌های هوش مصنوعی مرزی، همچنین اولین به‌روزرسانی گروه کاری فنی خود را در مورد تیم قرمز برای به اشتراک گذاشتن تخصص صنعت با مخاطبان گسترده‌تری منتشر می‌کند، زیرا انجمن گفتگو در مورد مدیریت مسئولانه هوش مصنوعی را گسترش می‌دهد. نزدیک می شود.

مدیر اجرایی

کریس مزرول با تخصص عمیق در زمینه سیاست فناوری به انجمن مدل مرزی می آید و به طور گسترده روی حاکمیت و ایمنی فناوری های نوظهور و کاربردهای آینده آنها کار کرده است. اخیراً او به عنوان مدیر ابتکار هوش مصنوعی و فناوری نوظهور در موسسه بروکینگز خدمت کرده است.

در این نقش جدید، Meserole مسئول کمک به انجمن برای انجام ماموریت خود برای (i) پیشبرد تحقیقات ایمنی هوش مصنوعی برای ترویج توسعه مسئولانه مدل‌های مرزی و به حداقل رساندن خطرات احتمالی است، (ii) شناسایی بهترین شیوه‌های ایمنی برای مدل‌های مرزی، (iii) به اشتراک گذاری دانش با سیاست گذاران، دانشگاهیان، جامعه مدنی و دیگران برای پیشبرد توسعه هوش مصنوعی مسئول. و (IV) از تلاش‌ها برای استفاده از هوش مصنوعی برای رسیدگی به بزرگترین چالش‌های جامعه حمایت می‌کند.

قوی‌ترین مدل‌های هوش مصنوعی نویدهای زیادی برای جامعه دارند، اما برای تحقق پتانسیل‌های آن‌ها باید درک بهتری از چگونگی توسعه و ارزیابی ایمن آن‌ها داشته باشیم. من برای مقابله با این چالش با انجمن مدل مرزی هیجان‌زده هستم. – کریس مزرول

صندوق ایمنی هوش مصنوعی

طی سال گذشته، صنعت پیشرفت های قابل توجهی در قابلیت های هوش مصنوعی داشته است. با سرعت گرفتن این پیشرفت ها، تحقیقات دانشگاهی جدید در مورد ایمنی هوش مصنوعی مورد نیاز است. برای رفع این شکاف، انجمن و شرکای بشردوستانه در حال ایجاد یک صندوق ایمنی هوش مصنوعی جدید هستند که از محققان مستقل از سراسر جهان وابسته به موسسات دانشگاهی، موسسات تحقیقاتی و استارت آپ ها حمایت می کند. تعهد اولیه بودجه برای صندوق ایمنی هوش مصنوعی از Anthropic، Google، Microsoft، و OpenAI و سخاوت شرکای بشردوستانه ما، بنیاد پاتریک جی مک گاورن، بنیاد دیوید و لوسیل پاکارد*، اریک اشمیت، و جان تالین دریافت می‌شود. مجموع این مبلغ بیش از 10 میلیون دلار بودجه اولیه است. ما انتظار کمک های اضافی از دیگر شرکا را داریم.

در اوایل سال جاری، اعضای انجمن تعهدات داوطلبانه هوش مصنوعی را در کاخ سفید امضا کردند، که شامل تعهدی برای تسهیل کشف و گزارش آسیب‌پذیری‌های شخص ثالث در سیستم‌های هوش مصنوعی ما بود. انجمن صندوق ایمنی هوش مصنوعی را بخش مهمی از اجرای این تعهد با ارائه بودجه به جامعه خارجی برای ارزیابی و درک بهتر سیستم های مرزی می داند. بحث جهانی در مورد ایمنی هوش مصنوعی و پایگاه دانش عمومی هوش مصنوعی از طیف وسیع تری از صداها و دیدگاه ها بهره خواهد برد.

تمرکز اولیه صندوق حمایت از توسعه ارزیابی‌های مدل جدید و تکنیک‌های تیم‌سازی قرمز مدل‌های هوش مصنوعی برای کمک به توسعه و آزمایش تکنیک‌های ارزیابی برای قابلیت‌های بالقوه خطرناک سیستم‌های مرزی خواهد بود. ما بر این باوریم که افزایش بودجه در این زمینه به افزایش استانداردهای ایمنی و امنیت کمک می کند و بینشی در مورد کاهش و کنترل صنعت، دولت ها و جامعه مدنی برای پاسخ به چالش های ارائه شده توسط سیستم های هوش مصنوعی ارائه می دهد.

صندوق ظرف چند ماه آینده فراخوانی برای پیشنهادات ارسال خواهد کرد. موسسه مریدین صندوق را مدیریت خواهد کرد – کار آنها توسط یک کمیته مشورتی متشکل از کارشناسان مستقل خارجی، کارشناسان شرکت های هوش مصنوعی و افراد با تجربه در اعطای کمک هزینه پشتیبانی می شود.

تخصص فنی

در چند ماه گذشته، تالار گفتمان برای کمک به ایجاد مجموعه ای مشترک از تعاریف اصطلاحات، مفاهیم، ​​و فرآیندها کار کرده است، بنابراین ما یک درک پایه برای ساختن داشته باشیم. به این ترتیب محققان، دولت‌ها و سایر همتایان صنعت همگی می‌توانند نقطه شروع یکسانی را در بحث‌های مربوط به ایمنی هوش مصنوعی و مسائل حاکمیتی داشته باشند.

برای حمایت از ایجاد یک درک مشترک، انجمن همچنین در حال کار برای به اشتراک گذاشتن بهترین شیوه ها در مورد تیم قرمز در سراسر صنعت است. به عنوان نقطه شروع، انجمن گرد هم آمده است تا یک تعریف مشترک از “تیمینگ قرمز” برای هوش مصنوعی و مجموعه ای از مطالعات موردی مشترک در به روز رسانی گروه کاری جدید ارائه دهد. ما تیم قرمز را به عنوان فرآیندی ساختاریافته برای بررسی سیستم‌ها و محصولات هوش مصنوعی برای شناسایی قابلیت‌ها، خروجی‌ها یا تهدیدات زیرساختی مضر تعریف کردیم. ما بر این کار ادامه خواهیم داد و متعهد به همکاری با یکدیگر برای ادامه تلاش‌های تیم قرمز خود هستیم.

ما همچنین در حال توسعه یک فرآیند افشای مسئولانه جدید هستیم که از طریق آن آزمایشگاه‌های هوش مصنوعی مرزی می‌توانند اطلاعات مربوط به کشف آسیب‌پذیری‌ها یا قابلیت‌های بالقوه خطرناک در مدل‌های هوش مصنوعی مرزی و اقدامات کاهشی مرتبط با آن‌ها را به اشتراک بگذارند. برخی از شرکت‌های فروم مدل Frontier قبلاً قابلیت‌ها، روندها و کاهش‌هایی را برای هوش مصنوعی در حوزه امنیت ملی کشف کرده‌اند. انجمن بر این باور است که تحقیقات ترکیبی ما در این زمینه می‌تواند به عنوان یک مطالعه موردی برای اینکه چگونه آزمایشگاه‌های هوش مصنوعی مرزی می‌توانند فرآیند افشای مسئولانه را در حرکت رو به جلو اصلاح و پیاده‌سازی کنند.

بعد چه می شود

در ماه‌های آینده، انجمن مدل مرزی، یک هیئت مشورتی برای کمک به هدایت استراتژی و اولویت‌های خود ایجاد خواهد کرد که طیفی از دیدگاه‌ها و تخصص‌ها را نشان می‌دهد. نسخه‌ها و به‌روزرسانی‌های آینده، از جمله به‌روزرسانی‌های مربوط به اعضای جدید، مستقیماً از فروم Frontier Model ارائه می‌شوند. بنابراین برای اطلاعات بیشتر با وب‌سایت آن‌ها همراه باشید.

صندوق ایمنی هوش مصنوعی اولین فراخوان خود را برای پیشنهادات در ماه های آینده منتشر خواهد کرد و ما انتظار داریم که کمک های بلاعوض در مدت کوتاهی پس از آن صادر شود.

انجمن مدل مرزی همچنین یافته های فنی بیشتری را به محض در دسترس قرار دادن آنها منتشر خواهد کرد.

انجمن مشتاق است که با Meserole همکاری کند و تعاملات خود را با جامعه تحقیقاتی گسترده تر، از جمله مشارکت در هوش مصنوعی، MLCommons، و سایر سازمان های غیر دولتی پیشرو و سازمان های دولتی و چند ملیتی برای کمک به درک مزایای هوش مصنوعی و در عین حال توسعه ایمن آن، افزایش دهد. و استفاده کنید.

*بنیاد دیوید و لوسیل پاکارد در نظر دارد حمایت کند، اما هنوز در زمان توزیع به طور رسمی تعهد نشده بود.