انویدیا سرویس ابری ابر رایانه هوش مصنوعی را راه اندازی کرد | دانش مرکز داده

انویدیا با Oracle Cloud، Microsoft Azure، Google Cloud و دیگران همکاری کرده است تا ابررایانه های هوش مصنوعی خود را به عنوان یک سرویس ابری در دسترس قرار دهد.

پیشنهاد جدید این شرکت که Nvidia DGX Cloud نام دارد، شرکت‌ها را قادر می‌سازد تا از یک مرورگر وب برای دسترسی فوری به ابررایانه‌های DGX AI انویدیا و نرم‌افزار هوش مصنوعی که برای آموزش مدل‌هایی برای هوش مصنوعی مولد و سایر برنامه‌های هوش مصنوعی نیاز دارند، استفاده کنند.

در کنفرانس توسعه‌دهندگان GTC AI در روز سه‌شنبه، مدیران Nvidia گفتند که اوراکل قبلاً با سرویس DGX Cloud انویدیا راه‌اندازی کرده است و به شرکت‌ها محاسبات فلزی خالی و فضای ذخیره‌سازی با کارایی بالا را ارائه می‌دهد که می‌تواند به ابرخوشه‌های 32000 پردازنده گرافیکی تبدیل شود. این شرکت گفت که انتظار می رود این سرویس در سه ماهه آینده در Azure در دسترس باشد و در آینده به Google Cloud و سایرین گسترش یابد.

انویدیا همچنین مجموعه‌ای از سه سرویس ابری را با نام Nvidia AI Foundations اعلام کرد که به شرکت‌ها امکان می‌دهد مدل‌های زبان بزرگ و مدل‌های هوش مصنوعی مولد آموزش‌دیده با داده‌های اختصاصی خود و برای وظایف خاص خود را بسازند و اجرا کنند.

سرویس ابری NeMo برای ساخت مدل‌های تولیدی متن به متن به زبان سفارشی است، در حالی که سرویس ابری پیکاسو برای تولید تصاویر و مدل‌های ویدیویی است. سومین سرویس ابری، BioNeMo، به تسریع تحقیقات علوم زیستی و کشف دارو کمک می کند. هر سه روی DGX Cloud اجرا می شوند.

مدیران انویدیا گفتند DGX Cloud و خانواده نرم افزارهای هوش مصنوعی آن، که شامل مجموعه نرم افزاری AI Enterprise است، به شرکت ها این امکان را می دهد تا ابررایانه های DGX AI خود را به صورت ماهانه اجاره کنند و به سرعت و به راحتی پروژه های هوش مصنوعی خود را بدون پیچیدگی و هزینه خرید، استقرار و توسعه مقیاس کنند. زیرساخت های خود را مدیریت کنند.

کاری که ما در طول سال‌ها با DGX انجام داده‌ایم فقط نیست [create] مانوویر داس، معاون محاسبات سازمانی انویدیا، طی یک نشست خبری گفت: یک ابر رایانه پیشرفته، اما ما یک پشته نرم افزاری ساخته ایم که در بالای آن قرار دارد. “این به عنوان یک سرویس به آموزش کلید در دست تبدیل می شود. شما فقط شغل خود را ارائه می دهید، به مجموعه داده های خود اشاره می کنید و می روید و تمام ارکستراسیون و همه چیز مراقبت می شود. در DGX Cloud، اکنون همان مدل در زیرساخت هایی موجود است که در انواع ابرهای عمومی میزبانی می شود. این همان رابط است، همان مدل برای اجرای تمرینات شما.”

جنسن هوانگ، مدیرعامل انویدیا در کنفرانس چهار روزه سالانه GTC این شرکت که روز سه شنبه آغاز شد، بیش از ده ها اعلامیه ارائه کرد. او در سخنرانی اصلی خود توضیح داد که انویدیا و شرکای آن چگونه هوش مصنوعی را به هر صنعتی می آورند.

الکساندر هاروول، تحلیلگر اصلی Omdia در زمینه محاسبات پیشرفته برای هوش مصنوعی، گفت تصمیم انویدیا برای راه اندازی یک سرویس ابری ابر محاسباتی هوش مصنوعی یک حرکت هوشمندانه است.

انویدیا مدتی است که خود را به عنوان شریک همه جانبه شرکت ها برای توسعه هوش مصنوعی معرفی کرده است. هاروول در مصاحبه ای با Data Center Knowledge گفت: سرمایه گذاری آن در ابزارهای نرم افزاری و افزایش تعامل با فضای ابری را باید از این منظر دید.

هاروول با اشاره به این موضوع افزود: «DGX Cloud هم به شرکت‌ها امکان می‌دهد از ابزارهای خود NVIDIA برای مدیریت خوشه‌های GPU بزرگ در زمینه مهارت‌ها و روابط فوق‌مقیاس موجود خود استفاده کنند و هم در مقایسه با قیمت‌های فروش فعلی برای A100s و H100s، یک پیشنهاد قیمت‌گذاری بسیار جذاب است. آخرین نسل پردازنده های گرافیکی انویدیا. “به طور کلی این به خندق دفاعی که NVIDIA در برابر گزینه های نیمه هادی هوش مصنوعی جایگزین می سازد کمک می کند.”

پیشرفت جدید در طراحی تراشه

انویدیا روز سه‌شنبه همچنین از پیشرفتی در لیتوگرافی محاسباتی خبر داد، فرآیندی که در آن طرح‌های تراشه‌ای که روی رایانه‌ها ایجاد می‌شوند به صورت فیزیکی روی یک قطعه سیلیکون چاپ می‌شوند.

طبق گزارش ها، کتابخانه نرم افزار جدید cuLitho انویدیا برای لیتوگرافی محاسباتی از انرژی کمتری استفاده می کند و طراحی سریعتر را امکان پذیر می کند. این شرکت همچنین می‌گوید این صنعت را قادر می‌سازد تا پردازنده‌های نسل بعدی قدرتمندتر و کم‌مصرف‌تری بسازد که «۲ نانومتری و بالاتر» هستند.

TSMC، بزرگترین تولید کننده تراشه قراردادی جهان، کتابخانه نرم افزار cuLitho انویدیا را در فرآیندهای خود گنجانده است، در حالی که Synopsis، رهبر اتوماسیون طراحی الکترونیکی، آن را در نرم افزار خود ادغام می کند. این شرکت گفت که سازنده تجهیزات ASML همچنین با انویدیا در زمینه cuLitho و GPU همکاری می کند.

هاروول گفت که ابزارهای اتوماسیون طراحی الکترونیکی بهتر (EDA) یک عامل مهم برای حرکت به سمت پایین به 2 نانومتر و فراتر از آن و همچنین برای فضای رو به رشد سیلیکونی سفارشی هستند.

وی افزود: «دیدن اینکه دقیقاً چه کاری می‌توانید با این کار انجام دهید جالب خواهد بود، زیرا یک پیشرفت واقعی هوش مصنوعی EDA می‌تواند پیامد طعنه‌آمیز توانمندسازی توسعه‌دهندگان سفارشی به قیمت سازندگان تراشه‌های بزرگ داشته باشد.

دو پردازنده گرافیکی جدید انویدیا

انویدیا روز سه‌شنبه نیز دو پردازنده گرافیکی جدید را برای بارهای کاری استنتاج هوش مصنوعی مولد معرفی کرد. آن ها هستند:

  • Nvidia L4. طبق گزارش ها، این پردازنده گرافیکی می تواند ۱۲۰ برابر بیشتر از CPU ها عملکرد ویدیویی با هوش مصنوعی ارائه دهد. قابلیت‌های رمزگشایی و ترانکدینگ ویدیو، پخش ویدیو، واقعیت افزوده و ویدیوهای هوش مصنوعی مولد را ارائه می‌دهد. انویدیا گفت که Google Cloud اولین ارائه دهنده خدمات ابری است که L4 را به مشتریان خود ارائه می دهد.
  • Nvidia H100 NVL. این GPU برای استقرار مدل های زبانی عظیم مانند ChatGPT در مقیاس است. این شرکت گفت که IT دارای 94 گیگابایت حافظه است و تا 12 برابر عملکرد سریعتر در GPT-3 در مقایسه با نسل قبلی A100 در مقیاس مرکز داده ارائه می دهد.

هاروول گفت: «H100 NVL با تقویت H100 سال گذشته با دوبرابر اتصالات تراشه به تراشه NVLink، که به ساخت خوشه‌های بزرگ کمک می‌کند، به تقاضا برای مقیاس‌پذیری در مواجهه با رشد مداوم مدل هوش مصنوعی پاسخ می‌دهد. جالب اینجاست که NVIDIA به جای آموزش با این ویژگی، بر ارائه استنتاج تاکید دارد – اگرچه آموزش مدل معمولاً با کلاسترهای سبک HPC مرتبط است، ممکن است زمانی که مدل‌های بسیار بزرگ در چندین شتاب‌دهنده تقسیم می‌شوند، I/O یک گلوگاه تأخیر برای استنتاج باشد. ”

مشارکت های ابری و سایر اعلامیه های سخت افزاری

انویدیا همچنین چندین اعلامیه را با ارائه دهندگان خدمات ابری اعلام کرد. آنها عبارتند از:

  • مایکروسافت اعلام کرد که متاورس صنعتی انویدیا را در Azure در دسترس قرار خواهد داد. به طور دقیق تر، Azure میزبانی خواهد بود Nvidia Omniverse Cloud، یک پلتفرم به عنوان یک سرویس که به مشتریان امکان دسترسی فوری به یک محیط تمام پشته برای توسعه، استقرار و مدیریت برنامه های کاربردی متاورس صنعتی را می دهد.
  • مایکروسافت همچنین اعلام کرد که Nvidia Omniverse را با برنامه های مایکروسافت 365 مانند Teams، SharePoint و OneDrive یکپارچه خواهد کرد.
  • Oracle Cloud Infrastructure و سایر ارائه دهندگان خدمات ابری نیز اعلام کردند که محصولات و خدماتی را ارائه می دهند که بر روی پردازنده گرافیکی H100 Tensor Core انویدیا اجرا می شوند. خدمات وب آمازون اعلام کرد که نمونه‌های آتی EC2 UltraClusters P5 می‌توانند تا 20000 GPU H100 متصل به هم را مقیاس کنند.
  • Nvidia و Quantum Machines اعلام کردند که یک سیستم محاسباتی کوانتومی با شتاب GPU به نام Nvidia DGX Quantum ساخته‌اند که توسط سوپرتراشه گریس هاپر انویدیا پشتیبانی می‌شود.

سئو PBN | خبر های جدید سئو و هک و سرور