HPE راه حل مرکز داده هوش مصنوعی «Turnkey» را با انویدیا معرفی کرد

شرکت Hewlett Packard (HPE) با انویدیا برای ساخت چیزی که این شرکت به عنوان “کلید در دست” توصیف می کند شریک شده است. هوش مصنوعی راه حل خصوصی ابری که به شرکت ها همه آنچه را که برای استقرار سریع و آسان برنامه های هوش مصنوعی مولد نیاز دارند، می دهد

مدیران HPE امروز (18 ژوئن) در نمایشگاه HPE گفتند که HPE Private Cloud AI پردازنده‌های گرافیکی Nvidia، شبکه و پلتفرم نرم‌افزار AI Enterprise را با سرورها و فضای ذخیره‌سازی HPE که همگی از طریق یک لایه مدیریت متمرکز در ابر HPE GreenLake مدیریت می‌شوند، یکپارچه می‌کند. HPE Discover 2024 کنفرانس در لاس وگاس

فیدلما روسو، مدیر ارشد فناوری HPE در یک نشست خبری اخیر گفت: «هوش مصنوعی ابری خصوصی آماده تمام شدن جعبه است. شما آن را وصل می‌کنید. آن را به ابر GreenLake وصل می‌کنید و سه کلیک بعد… تیم‌های عملیات علم داده و فناوری اطلاعات شما پشته نرم‌افزار Nvidia را راه‌اندازی می‌کنند.»

HPE همچنین از سرورهای جدید بهینه سازی شده با هوش مصنوعی با جدیدترین انویدیا رونمایی کرد پردازنده های گرافیکی و سوپرتراشه و پشتیبانی از سخت افزار انویدیا و نرم افزار هوش مصنوعی در ابزار مدیریت عملیات فناوری اطلاعات مبتنی بر ابر OpsRamp. روسو گفت که یک دستیار مکالمه جدید در OpsRamp به تیم های فناوری اطلاعات اجازه می دهد تا زیرساخت های هوش مصنوعی خود را به راحتی نظارت و مدیریت کنند.

فروشندگان سخت افزار با انویدیا همکاری می کنند

با اطلاعیه های امروز، HPE پیشنهادات هوش مصنوعی را در داخل خود تقویت کرده است پلتفرم گرین لیک، راه حل های داخلی این شرکت که از طریق یک مدل ابری و مبتنی بر اشتراک ارائه می شوند.

مربوط:HPE می خواهد ابر خصوصی شما را بسازد و مدیریت کند

این شرکت به آخرین فروشنده سخت افزار تبدیل شده است که راه حل های جدید مرکز داده را که برای حجم کاری هوش مصنوعی طراحی شده است، رونمایی کرده است. سیسکو هفته گذشته اعلام کرد برای راه‌حل مرکز داده هوش مصنوعی همه‌کاره خود برنامه‌ریزی می‌کند با همکاری انویدیا خوشه‌های هوش مصنوعی Cisco Nexus HyperFabric را نامید. دل و لنوو همچنین قبلاً سیستم های مرکز داده مبتنی بر Nvidia را اعلام کرده بودند.

پیتر روتن، معاون پژوهشی سازمان تحقیقات زیرساخت جهانی IDC، گفت که فروشندگان سخت‌افزار با انویدیا در راه‌حل‌های مرکز داده هوش مصنوعی همکاری می‌کنند.

انویدیا با پردازنده‌های گرافیکی و اکوسیستم نرم‌افزاری خود، که شامل آن می‌شود، بر بازار هوش مصنوعی تسلط دارد Nvidia AI Enterprise، مجموعه نرم افزاری از ابزارها، چارچوب ها و مدل های از پیش آموزش دیده هوش مصنوعی که توسعه و استقرار حجم کاری هوش مصنوعی را برای شرکت ها آسان می کند.

«همه در حال توسعه راه‌حل‌هایی با Nvidia هستند. آنها چاره ای ندارند.» دانش مرکز داده. «چندین فروشنده راه‌حل‌هایی را با سایر فروشندگان پردازنده‌های گرافیکی و شتاب‌دهنده توسعه می‌دهند، اما می‌گویند: «اگر به سراغ مشتری برویم و انویدیا را در مقابل او قرار ندهیم، آن‌ها کنار خواهند رفت». این تصور در میان کاربران نهایی در بازار وجود دارد که هوش مصنوعی برابر با انویدیا است.

بازار داغ برای سخت افزار مرکز داده هوش مصنوعی

فروشندگان سخت افزار در حال رقابت در بازار در حال رشد برای سخت افزار مرکز داده بهینه شده با هوش مصنوعی هستند، زیرا شرکت ها به دنبال کار خود هستند. هوش مصنوعی مولد ابتکاراتی برای بهبود گردش کار و عملیات کسب و کار، افزایش خدمات مشتری و بهبود بهره وری کارگران. شرکت ها به دلیل نیازهای محاسباتی فشرده هوش مصنوعی به سخت افزار بهینه سازی شده با هوش مصنوعی نیاز دارند.

ملانی پوزی، مدیر تحقیقات تحول خدمات ابری و مدیریت شده در S&P Global Market Intelligence، گفت هوش مصنوعی نشان‌دهنده تکامل بعدی زیرساخت‌های فناوری اطلاعات است، زیرا هوش مصنوعی دارای سیستم، داده و نیازهای حریم خصوصی متفاوتی نسبت به بارهای کاری موجود است.

او می‌گوید: «فرصت‌های زیادی در بخش زیرساخت برای همه وجود دارد، زیرا سازمان‌ها لزوماً در حال حاضر زیرساختی در مراکز داده خود ندارند که از موارد استفاده از هوش مصنوعی پشتیبانی می‌کنند».

در حالی که شرکت‌ها می‌توانند از ابر عمومی برای هوش مصنوعی استفاده کنند، بسیاری از شرکت‌ها به همان دلایلی که هنوز زیرساخت‌های داخلی دارند، می‌خواهند هوش مصنوعی مولد را مستقر کنند: آنها داده‌های اختصاصی یا حساس زیادی دارند که در خانه ذخیره می‌شوند. پوسی گفت، نگرانی هایی در مورد حفظ حریم خصوصی داده ها یا رعایت مقررات قانونی دارند و نگران هزینه اجرای برنامه های هوش مصنوعی مولد در ابر عمومی هستند.

او گفت: «همه دلایلی که آنها هنوز زیرساخت‌های داخلی دارند، وقتی شروع به صحبت در مورد هوش مصنوعی می‌کنید، بزرگ‌تر می‌شوند.

Nvidia Computing توسط HPE

HPE Private Cloud AI پیشنهاد کلیدی در مجموعه جدیدی از محصولات است که HPE با همکاری Nvidia توسعه داده است، که این شرکت ها آن را “Nvidia AI Computing by HPE” می نامند.

به گفته این شرکت، هوش مصنوعی Cloud خصوصی که پاییز امسال به عنوان یک راه حل کاملا مدیریت شده یا خود مدیریت در دسترس خواهد بود، یک پشته زیرساخت کاملاً یکپارچه است که شامل سرورهای HPE ProLiant، HPE GreenLake برای ذخیره فایل و شبکه اترنت انویدیا Spectrum-X است.

این راه حل برای استنباط AI و بازیابی تولید افزوده (RAG) طراحی شده است، که به شرکت ها اجازه می دهد از داده های اختصاصی خود برای برنامه های کاربردی هوش مصنوعی مولد استفاده کنند. روسو، که همچنین به عنوان معاون و مدیر کل واحد تجاری ابر ترکیبی HPE فعالیت می کند، گفت: این همچنین سازمان ها را قادر می سازد تا آموزش مدل های زبان بزرگ را تنظیم کنند.

HPE Private Cloud AI در چهار پیکربندی برای پشتیبانی از حجم کاری هوش مصنوعی در همه اندازه‌ها، از سیستم‌های گرافیکی کوچک Nvidia L40S گرفته تا سیستم‌های بزرگ‌تر با پردازنده‌های گرافیکی H100 NVL Tensor Core و Nvidia GH200 NVL2 Grace Hopper Superchips ارائه می‌شود.

روسو گفت: “هر یک ماژولار است و به شما امکان می دهد در طول زمان ظرفیت خود را افزایش داده یا اضافه کنید و تجربه مدیریت ابری سازگار با ابر HPE GreenLake را حفظ کنید.”

در بخش نرم‌افزار، HPE Private Cloud AI دارای Nvidia AI Enterprise است که شامل میکروسرویس‌های NIM است، ویژگی که استقرار هوش مصنوعی مولد را ساده می‌کند. روسو گفت، همچنین دارای HPE AI Essentials، مجموعه‌ای از ابزارهای هوش مصنوعی و داده، و یک خانه داده‌های جاسازی شده است که شرکت‌ها را قادر می‌سازد تا به راحتی به فروشگاه‌های داده ساختاریافته و بدون ساختار در محل یا در فضای ابری عمومی دسترسی داشته باشند.

ابر GreenLake یک صفحه کنترل ابر خصوصی را فراهم می کند، یک لایه مدیریت متمرکز که به شرکت ها اجازه می دهد محیط ابر خصوصی خود را راه اندازی و مدیریت کنند. داشبوردهایی را برای نظارت و قابلیت مشاهدهاین شرکت گفت، و به سازمان ها اجازه می دهد تا حجم کاری، نقاط پایانی و داده های خود را در محیط های ترکیبی تهیه و مدیریت کنند.

آیا HPE می تواند با هوش مصنوعی ابری خصوصی موفق شود؟ تحلیلگران وزن می دهند

Rutten از IDC گفت که سایر فروشندگان سخت افزار نیز راه حل های مرکز داده هوش مصنوعی را توسعه داده اند. او گفت که هوش مصنوعی ابری خصوصی جدید HPE در بازار رقابتی خواهد بود و برای شرکت ها – به ویژه آنهایی که کاربران پیشرفته و پیشرفته ای دارند که آماده استقرار برنامه های هوش مصنوعی مولد هستند – جذاب خواهد بود، زیرا این یک راه حل جامع است.

او گفت که این راه حل شامل امنیت، اعلان های پایداری، تجزیه و تحلیل مصرف، مدیریت کاربر حساب، مدیریت دارایی، داشبورد سلامت، AIOps و حتی قابلیت مجازی سازی خود HPE است.

روتن درباره HPE گفت: «من فکر می‌کنم بازار برای کسی آماده است که همه این جنبه‌های مختلف توسعه و استقرار هوش مصنوعی را در یک پلتفرم ترکیب کند – و این به آنها در فروش این امر کمک می‌کند.

اندی تورای، معاون و تحلیلگر اصلی Constellation Research، گفت که اکثر شرکت‌های امروزی هنوز در حال آزمایش هوش مصنوعی هستند، بنابراین کشش اولیه برای HPE Private Cloud AI ممکن است عالی نباشد. اما وقتی شرکت‌ها برنامه‌های هوش مصنوعی خود را بالغ می‌کنند و به دنبال یک راه‌حل مرکز داده بهینه و مقرون‌به‌صرفه هستند که بهترین هزینه کل مالکیت را برای بار کاری هوش مصنوعی آنها ارائه می‌دهد، HPE می‌تواند در بازار به خوبی عمل کند.

Thurai گفت: «HPE پتانسیل خوبی برای موفقیت در آن فضا در زمان رسیدن دارد دانش مرکز داده.

سرورهای جدید HPE با هوش مصنوعی بهینه شده است

HPE امروز همچنین سه سرور جدید بهینه شده با هوش مصنوعی را معرفی کرد:

  • HPE ProLiant Compute DL384 Gen12که دارای سوپرتراشه Nvidia GH200 NVL2 خواهد بود. این برای بارهای کاری هوش مصنوعی با حافظه فشرده، مانند تنظیم دقیق LLM یا استقرار RAG، هدف قرار گرفته است.

  • HPE ProLiant Compute DL380a نسل 12، دارای حداکثر هشت پردازنده گرافیکی Nvidia H200 NVL. این برای کاربران LLM طراحی شده است که به انعطاف‌پذیری برای مقیاس‌بندی حجم کاری هوش مصنوعی مولد نیاز دارند.

  • HPE Cray XD670که دارای هشت پردازنده گرافیکی Nvidia H200 Tensor Core خواهد بود. این برنامه سازندگان LLM و ارائه دهندگان خدمات هوش مصنوعی را هدف قرار داده است که برای آموزش و تنظیم مدل های بزرگ هوش مصنوعی به عملکرد بالا نیاز دارند.

سیستم Cray تابستان امسال در دسترس خواهد بود، در حالی که دو سیستم ProLiant پاییز امسال در دسترس خواهند بود. HPE همچنین در آینده از پردازنده گرافیکی Nvidia GB200 Grace Blackwell Superchip و Nvidia Blackwell پشتیبانی خواهد کرد. این شرکت گفت که مدل‌های منتخب دارای خنک‌کننده مستقیم مایع خواهند بود.

HPE همچنین اعلام کرد که HPE GreenLake برای ذخیره‌سازی فایل، گواهینامه Nvidia DGX BasePOD و اعتبار سنجی ذخیره سازی Nvidia OVX را دریافت کرده است، و به شرکت‌ها راه‌حل ذخیره‌سازی فایلی را که برای حجم‌های کاری فشرده با هوش مصنوعی و GPU نیاز دارند، ارائه می‌کند.


Source link