AMD انویدیا را با پردازنده گرافیکی جدید برای هوش مصنوعی می پذیرد | دانش مرکز داده

AMD امروز در دسترس بودن AMD Instinct MI300X، یک پردازنده گرافیکی قدرتمند مرکز داده جدید را اعلام کرد که این شرکت امیدوار است بتواند سهم بازار را از Nvidia در بازار پر سود تراشه های هوش مصنوعی بگیرد.

پردازنده گرافیکی MI300X که برای ارائه دهندگان و شرکت‌های ابری طراحی شده است، برای برنامه‌های هوش مصنوعی تولیدی ساخته شده است و در دو معیار کلیدی از GPU H100 انویدیا بهتر عمل می‌کند: ظرفیت حافظه و پهنای باند حافظه، که AMD را قادر می‌سازد تا عملکرد آموزش هوش مصنوعی قابل مقایسه و عملکرد استنباط هوش مصنوعی بالاتری را ارائه دهد. مدیران گفتند.

لیزا سو، مدیر عامل AMD در رویداد “Advancing AI” این شرکت در سن خوزه، کالیفرنیا، گفت: “این بالاترین شتاب دهنده عملکرد در جهان برای هوش مصنوعی مولد است.”

AMD امروز همچنین در دسترس بودن AMD Instinct MI300A، یک تراشه CPU و GPU یکپارچه که این شرکت آن را واحد پردازش شتاب (APU) می نامد، اعلام کرد. این شرکت گفت که برای محاسبات با کارایی بالا (HPC) و بارهای کاری هوش مصنوعی طراحی شده است و برای عملکرد و کارایی انرژی بهینه شده است.

تحلیلگران می گویند که AMD تراشه های هوش مصنوعی رقابتی را معرفی کرده است و پتانسیل خوبی برای نفوذ به بازار دارد، به ویژه در شرایطی که انویدیا به دلیل محدودیت های زنجیره تامین در تلاش برای پاسخگویی به تقاضای عظیم برای GPU محبوب H100 خود است. به گفته شرکت تحلیلی Omdia، انویدیا در حال حاضر با بیش از 70 درصد از بازار تراشه های هوش مصنوعی تسلط دارد.

مت کیمبال، معاون و تحلیلگر اصلی Moor Insights & Strategy می‌گوید: «AMD از ناتوانی انویدیا در برآوردن کامل نیازهای بازار استفاده می‌کند. انویدیا نمی تواند آنها را به اندازه کافی سریع بسازد. آنها به معنای واقعی کلمه معوقه هایی دارند که حدود یک چهارم مشتریانی که H100 می خواهند را شامل می شود. AMD می آید و می گوید، “حدس بزنید چیست؟ ما یک محصول رقابتی داریم. و AMD این کار را از طریق عملکرد بهتر و آنچه من معتقدم قیمت/عملکرد بهتر خواهد بود انجام می دهد.

AMD قیمت MI300X را اعلام نکرده است. اما H100 اغلب بیش از 30000 دلار قیمت دارد.

کیمبال انتظار دارد که AMD با پردازنده های جدید سری MI300 شاهد موفقیت باشد – و همینطور AMD که انتظار فروش بالایی دارد. در طی تماس سه ماهه سوم AMD در 31 اکتبر، سو گفت که درآمد GPU مرکز داده در سال 2024 از 2 میلیارد دلار فراتر خواهد رفت و خط MI300 سریعترین محصول با فروش یک میلیارد دلاری در تاریخ AMD خواهد بود.

کیمبال گفت که شکی ندارد که AMD به این هدف فروش خواهد رسید «زیرا اشتیاقی برای پردازنده‌های گرافیکی برای هوش مصنوعی وجود دارد».

او گفت: «دو عامل وجود دارد: مردم نمی‌خواهند منتظر Nvidia باشند و صنعت نمی‌خواهد در Nvidia قفل شود. بنابراین هر دوی این عوامل پذیرش MI300 را در میان مقیاس‌کننده‌ها و شرکت‌ها تسریع می‌کنند.

هوش مصنوعی: تحول آفرین، اما به سرمایه گذاری زیرساختی نیاز دارد

سو در طی سخنرانی امروز خود گفت هوش مصنوعی تنها فناوری تحول‌پذیر در 50 سال گذشته است. او گفت: «شاید تنها چیزی که نزدیک به آن بوده است، معرفی اینترنت باشد، اما چیزی که در مورد هوش مصنوعی متفاوت است این است که نرخ پذیرش بسیار بسیار سریعتر است.

سال گذشته، AMD تخمین زد که بازار شتاب دهنده هوش مصنوعی مرکز داده طی چند سال آینده 50 درصد رشد خواهد کرد، از 30 میلیارد دلار در سال 2023 به 150 میلیارد دلار در سال 2027. امروز، او این پیش بینی را به روز کرد و گفت که بازار شتاب دهنده های مرکز داده بیش از رشد خواهد کرد. 70 درصد سالانه طی چهار سال آینده و رسیدن به بیش از 400 میلیارد دلار در سال 2027.

سو گفت: «کلید همه اینها هوش مصنوعی مولد است. این امر مستلزم سرمایه‌گذاری قابل توجهی در زیرساخت‌های جدید است. و این برای فعال کردن آموزش و همه استنتاج‌های مورد نیاز است. و این بازار بسیار بزرگ است.»

جزئیات بیشتر در مورد MI300X و MI300A

پردازنده‌های سری MI300، که AMD آن‌ها را «شتاب‌دهنده» می‌نامد، برای اولین بار تقریباً شش ماه پیش معرفی شد که سو استراتژی سازنده تراشه برای محاسبات هوش مصنوعی در مرکز داده را توضیح داد.

AMD از آن زمان به بعد رشد کرده است. اعلام امروز مبنی بر ارسال و تولید MI300X و MI300A با پشتیبانی گسترده صنعت از شرکت‌های ابری بزرگ مانند Meta، Microsoft Azure و Oracle Cloud و سازندگان سخت‌افزار مانند Dell، Hewlett-Packard Enterprise، Lenovo و Supermicro همراه است.

پردازنده گرافیکی AMD Instinct MI300X با معماری جدید AMD CDNA 3، 192 گیگابایت ظرفیت حافظه HBM3 را ارائه می دهد که 2.4 برابر بیشتر از ظرفیت حافظه 80 گیگابایتی HBM3 H100 Nvidia است. M1300X به حداکثر پهنای باند حافظه 5.3 ترابایت بر ثانیه می رسد که 1.6 برابر بیشتر از 3.3 ترابایت بر ثانیه H100 انویدیا است.

در یک نشست خبری قبل از رویداد امروز AMD، Brad McCredie، معاون شرکت AMD در بخش GPU مرکز داده، گفت که پردازنده گرافیکی MI300X همچنان پهنای باند حافظه و ظرفیت حافظه بیشتری نسبت به نسل بعدی پردازنده گرافیکی H200 انویدیا خواهد داشت که انتظار می رود سال آینده باشد.

زمانی که انویدیا برنامه های H200 را در ماه نوامبر اعلام کرد، اعلام کرد که H200 دارای 141 گیگابایت حافظه HBM3 و 4.8 ترابایت بر ثانیه پهنای باند حافظه خواهد بود.

در حرکت رو به جلو، McCredie انتظار دارد رقابت شدیدی بین این دو شرکت در زمینه GPU وجود داشته باشد.

ما انتظار نداریم (انویدیا) ثابت بماند. ما هم بلدیم سریع برویم.» انویدیا اخیراً یک بار نقشه راه خود را تسریع کرده است. ما کاملاً از آنها انتظار داریم که به شدت به تلاش خود ادامه دهند. ما به سختی تلاش می کنیم، بنابراین کاملاً انتظار داریم که جلوتر بمانیم. آنها ممکن است جهش کنند. ما به عقب برمی گردیم.»

APU AMD Instinct MI300A که با هسته‌های گرافیکی AMD CDNA 3 و جدیدترین هسته‌های CPU مبتنی بر AMD Zen 4 x86 ساخته شده است، 128 گیگابایت حافظه HBM3 ارائه می‌کند. به گفته این شرکت، در مقایسه با نسل قبلی پردازنده M250X، MI300A 1.9 برابر عملکرد بیشتری در هر وات در بارهای کاری HPC و AI ارائه می دهد.

فارست نورود، معاون اجرایی و مدیر کل گروه تجاری راه حل های مرکز داده AMD، در جریان رویداد امروز AMD گفت: «در سطح گره، MI300A دو برابر عملکرد HPC در هر وات نزدیکترین رقیب دارد. بنابراین مشتریان می‌توانند گره‌های بیشتری را در بودجه کلی نیروگاه خود جای دهند و از اهداف پایداری خود بهتر حمایت کنند.

آزمایشگاه ملی لاورنس لیورمور وزارت انرژی از APU های MI300A برای ساخت ابررایانه ال کاپیتان خود استفاده می کند که از سرعت بیش از 2 اگزافلاپس در ثانیه فراتر می رود و در سال 2024 به سومین ابررایانه اگزا مقیاس کشور تبدیل می شود.

AMD اکوسیستم نرم افزاری را تقویت می کند

برای افزایش پذیرش تراشه های جدید سری MI300، AMD امروز پیشرفت هایی را در اکوسیستم نرم افزاری خود اعلام کرد. این شرکت ROCm 6، آخرین نسخه پشته نرم افزار منبع باز خود را معرفی کرد. ROCm 6 – که لایه‌ای از نرم‌افزار برای GPUها برای پشتیبانی از بارهای کاری محاسباتی است – برای هوش مصنوعی مولد، به‌ویژه مدل‌های زبان بزرگ (LLM) بهینه‌سازی شده است.

این شرکت گفت که نرم‌افزار ROCm 6، همراه با شتاب‌دهنده‌های سری MI300، در مقایسه با ROCm 5 و نسل قبلی شتاب‌دهنده MI250، عملکرد هشت برابری را بهبود می‌بخشد.

پشتیبانی از Cloud and Hardware Maker

در طول رویداد AMD، مدیران شرکت هایپراسکلینگ و فروشندگان سخت افزار برنامه هایی را برای گنجاندن شتاب دهنده های سری MI300 در محصولات خود اعلام کردند.

به عنوان مثال، مایکروسافت امروز اعلام کرد که ماشین مجازی جدید Azure خود با MI300X در پیش نمایش امروز در دسترس است. Oracle Cloud Infrastructure قصد دارد نمونه‌های فلزی خالی مبتنی بر MI300X را برای هوش مصنوعی ارائه دهد. و متا گفت که MI300X را به مراکز داده خود اضافه می کند تا بار کاری استنتاج هوش مصنوعی را تقویت کند.

در بخش سخت افزاری، Dell از سرور Dell PowerEdge XE9680 با هشت شتاب دهنده سری MI300 رونمایی کرد. HPE، Lenovo و Supermicro همچنین اعلام کردند که از شتاب دهنده های سری MI300 در سبد محصولات خود پشتیبانی خواهند کرد.

سئو PBN | خبر های جدید سئو و هک و سرور