انویدیا با Oracle Cloud، Microsoft Azure، Google Cloud و دیگران همکاری کرده است تا ابررایانه های هوش مصنوعی خود را به عنوان یک سرویس ابری در دسترس قرار دهد.
پیشنهاد جدید این شرکت که Nvidia DGX Cloud نام دارد، شرکتها را قادر میسازد تا از یک مرورگر وب برای دسترسی فوری به ابررایانههای DGX AI انویدیا و نرمافزار هوش مصنوعی که برای آموزش مدلهایی برای هوش مصنوعی مولد و سایر برنامههای هوش مصنوعی نیاز دارند، استفاده کنند.
در کنفرانس توسعهدهندگان GTC AI در روز سهشنبه، مدیران Nvidia گفتند که اوراکل قبلاً با سرویس DGX Cloud انویدیا راهاندازی کرده است و به شرکتها محاسبات فلزی خالی و فضای ذخیرهسازی با کارایی بالا را ارائه میدهد که میتواند به ابرخوشههای 32000 پردازنده گرافیکی تبدیل شود. این شرکت گفت که انتظار می رود این سرویس در سه ماهه آینده در Azure در دسترس باشد و در آینده به Google Cloud و سایرین گسترش یابد.
انویدیا همچنین مجموعهای از سه سرویس ابری را با نام Nvidia AI Foundations اعلام کرد که به شرکتها امکان میدهد مدلهای زبان بزرگ و مدلهای هوش مصنوعی مولد آموزشدیده با دادههای اختصاصی خود و برای وظایف خاص خود را بسازند و اجرا کنند.
سرویس ابری NeMo برای ساخت مدلهای تولیدی متن به متن به زبان سفارشی است، در حالی که سرویس ابری پیکاسو برای تولید تصاویر و مدلهای ویدیویی است. سومین سرویس ابری، BioNeMo، به تسریع تحقیقات علوم زیستی و کشف دارو کمک می کند. هر سه روی DGX Cloud اجرا می شوند.
مدیران انویدیا گفتند DGX Cloud و خانواده نرم افزارهای هوش مصنوعی آن، که شامل مجموعه نرم افزاری AI Enterprise است، به شرکت ها این امکان را می دهد تا ابررایانه های DGX AI خود را به صورت ماهانه اجاره کنند و به سرعت و به راحتی پروژه های هوش مصنوعی خود را بدون پیچیدگی و هزینه خرید، استقرار و توسعه مقیاس کنند. زیرساخت های خود را مدیریت کنند.
کاری که ما در طول سالها با DGX انجام دادهایم فقط نیست [create] مانوویر داس، معاون محاسبات سازمانی انویدیا، طی یک نشست خبری گفت: یک ابر رایانه پیشرفته، اما ما یک پشته نرم افزاری ساخته ایم که در بالای آن قرار دارد. “این به عنوان یک سرویس به آموزش کلید در دست تبدیل می شود. شما فقط شغل خود را ارائه می دهید، به مجموعه داده های خود اشاره می کنید و می روید و تمام ارکستراسیون و همه چیز مراقبت می شود. در DGX Cloud، اکنون همان مدل در زیرساخت هایی موجود است که در انواع ابرهای عمومی میزبانی می شود. این همان رابط است، همان مدل برای اجرای تمرینات شما.”
جنسن هوانگ، مدیرعامل انویدیا در کنفرانس چهار روزه سالانه GTC این شرکت که روز سه شنبه آغاز شد، بیش از ده ها اعلامیه ارائه کرد. او در سخنرانی اصلی خود توضیح داد که انویدیا و شرکای آن چگونه هوش مصنوعی را به هر صنعتی می آورند.
الکساندر هاروول، تحلیلگر اصلی Omdia در زمینه محاسبات پیشرفته برای هوش مصنوعی، گفت تصمیم انویدیا برای راه اندازی یک سرویس ابری ابر محاسباتی هوش مصنوعی یک حرکت هوشمندانه است.
“انویدیا مدتی است که خود را به عنوان شریک همه جانبه شرکت ها برای توسعه هوش مصنوعی معرفی کرده است. هاروول در مصاحبه ای با Data Center Knowledge گفت: سرمایه گذاری آن در ابزارهای نرم افزاری و افزایش تعامل با فضای ابری را باید از این منظر دید.
هاروول با اشاره به این موضوع افزود: «DGX Cloud هم به شرکتها امکان میدهد از ابزارهای خود NVIDIA برای مدیریت خوشههای GPU بزرگ در زمینه مهارتها و روابط فوقمقیاس موجود خود استفاده کنند و هم در مقایسه با قیمتهای فروش فعلی برای A100s و H100s، یک پیشنهاد قیمتگذاری بسیار جذاب است. آخرین نسل پردازنده های گرافیکی انویدیا. “به طور کلی این به خندق دفاعی که NVIDIA در برابر گزینه های نیمه هادی هوش مصنوعی جایگزین می سازد کمک می کند.”
پیشرفت جدید در طراحی تراشه
انویدیا روز سهشنبه همچنین از پیشرفتی در لیتوگرافی محاسباتی خبر داد، فرآیندی که در آن طرحهای تراشهای که روی رایانهها ایجاد میشوند به صورت فیزیکی روی یک قطعه سیلیکون چاپ میشوند.
طبق گزارش ها، کتابخانه نرم افزار جدید cuLitho انویدیا برای لیتوگرافی محاسباتی از انرژی کمتری استفاده می کند و طراحی سریعتر را امکان پذیر می کند. این شرکت همچنین میگوید این صنعت را قادر میسازد تا پردازندههای نسل بعدی قدرتمندتر و کممصرفتری بسازد که «۲ نانومتری و بالاتر» هستند.
TSMC، بزرگترین تولید کننده تراشه قراردادی جهان، کتابخانه نرم افزار cuLitho انویدیا را در فرآیندهای خود گنجانده است، در حالی که Synopsis، رهبر اتوماسیون طراحی الکترونیکی، آن را در نرم افزار خود ادغام می کند. این شرکت گفت که سازنده تجهیزات ASML همچنین با انویدیا در زمینه cuLitho و GPU همکاری می کند.
هاروول گفت که ابزارهای اتوماسیون طراحی الکترونیکی بهتر (EDA) یک عامل مهم برای حرکت به سمت پایین به 2 نانومتر و فراتر از آن و همچنین برای فضای رو به رشد سیلیکونی سفارشی هستند.
وی افزود: «دیدن اینکه دقیقاً چه کاری میتوانید با این کار انجام دهید جالب خواهد بود، زیرا یک پیشرفت واقعی هوش مصنوعی EDA میتواند پیامد طعنهآمیز توانمندسازی توسعهدهندگان سفارشی به قیمت سازندگان تراشههای بزرگ داشته باشد.
دو پردازنده گرافیکی جدید انویدیا
انویدیا روز سهشنبه نیز دو پردازنده گرافیکی جدید را برای بارهای کاری استنتاج هوش مصنوعی مولد معرفی کرد. آن ها هستند:
- Nvidia L4. طبق گزارش ها، این پردازنده گرافیکی می تواند ۱۲۰ برابر بیشتر از CPU ها عملکرد ویدیویی با هوش مصنوعی ارائه دهد. قابلیتهای رمزگشایی و ترانکدینگ ویدیو، پخش ویدیو، واقعیت افزوده و ویدیوهای هوش مصنوعی مولد را ارائه میدهد. انویدیا گفت که Google Cloud اولین ارائه دهنده خدمات ابری است که L4 را به مشتریان خود ارائه می دهد.
- Nvidia H100 NVL. این GPU برای استقرار مدل های زبانی عظیم مانند ChatGPT در مقیاس است. این شرکت گفت که IT دارای 94 گیگابایت حافظه است و تا 12 برابر عملکرد سریعتر در GPT-3 در مقایسه با نسل قبلی A100 در مقیاس مرکز داده ارائه می دهد.
هاروول گفت: «H100 NVL با تقویت H100 سال گذشته با دوبرابر اتصالات تراشه به تراشه NVLink، که به ساخت خوشههای بزرگ کمک میکند، به تقاضا برای مقیاسپذیری در مواجهه با رشد مداوم مدل هوش مصنوعی پاسخ میدهد. جالب اینجاست که NVIDIA به جای آموزش با این ویژگی، بر ارائه استنتاج تاکید دارد – اگرچه آموزش مدل معمولاً با کلاسترهای سبک HPC مرتبط است، ممکن است زمانی که مدلهای بسیار بزرگ در چندین شتابدهنده تقسیم میشوند، I/O یک گلوگاه تأخیر برای استنتاج باشد. ”
مشارکت های ابری و سایر اعلامیه های سخت افزاری
انویدیا همچنین چندین اعلامیه را با ارائه دهندگان خدمات ابری اعلام کرد. آنها عبارتند از:
- مایکروسافت اعلام کرد که متاورس صنعتی انویدیا را در Azure در دسترس قرار خواهد داد. به طور دقیق تر، Azure میزبانی خواهد بود Nvidia Omniverse Cloud، یک پلتفرم به عنوان یک سرویس که به مشتریان امکان دسترسی فوری به یک محیط تمام پشته برای توسعه، استقرار و مدیریت برنامه های کاربردی متاورس صنعتی را می دهد.
- مایکروسافت همچنین اعلام کرد که Nvidia Omniverse را با برنامه های مایکروسافت 365 مانند Teams، SharePoint و OneDrive یکپارچه خواهد کرد.
- Oracle Cloud Infrastructure و سایر ارائه دهندگان خدمات ابری نیز اعلام کردند که محصولات و خدماتی را ارائه می دهند که بر روی پردازنده گرافیکی H100 Tensor Core انویدیا اجرا می شوند. خدمات وب آمازون اعلام کرد که نمونههای آتی EC2 UltraClusters P5 میتوانند تا 20000 GPU H100 متصل به هم را مقیاس کنند.
- Nvidia و Quantum Machines اعلام کردند که یک سیستم محاسباتی کوانتومی با شتاب GPU به نام Nvidia DGX Quantum ساختهاند که توسط سوپرتراشه گریس هاپر انویدیا پشتیبانی میشود.