چگونه AMD می تواند در مسابقه تراشه های هوش مصنوعی به انویدیا برسد | دانش مرکز داده

این مقاله در اصل در AI Business منتشر شده است.

انویدیا در حال حاضر در رقابت تراشه‌های هوش مصنوعی پیشتاز است، اما AMD در حال برداشتن گام‌هایی برای کاهش فاصله است.

کوین اسکات، مدیر ارشد فناوری مایکروسافت، اخیراً در یک کنفرانس گفت که AMD در حال ارائه «پیشنهادات گرافیکی جذاب‌تر» است که می‌تواند رقیب انویدیا باشد. با این حال، کارشناسان صنعت می گویند AMD با چالش سختی در زمینه رو به رشد پردازنده های هوش مصنوعی مواجه است.

بنجامین لی، استاد دپارتمان مهندسی برق و سیستم ها و دپارتمان علوم کامپیوتر و اطلاعات در دانشگاه پنسیلوانیا، گفت: اولین و اصلی ترین مزیت انویدیا از نرم افزاری ناشی می شود که برای اجرا بر روی تراشه های هوش مصنوعی آن بسیار بهینه شده است. در یک مصاحبه

مسابقه برای چیپس

از زمانی که OpenAI ChatGPT را در سال گذشته معرفی کرد، علاقه به مدل‌های زبان بزرگ (LLM) که به منابع محاسباتی عظیمی نیاز دارند، افزایش یافته است. به گفته شرکت تحقیقاتی Omdia، اگرچه شرکت‌هایی مانند گوگل، آمازون، متا و آی‌بی‌ام تراشه‌های هوش مصنوعی توسعه داده‌اند، انویدیا در حال حاضر با بیش از 70 درصد فروش تراشه‌های هوش مصنوعی تسلط دارد.

یکی از رازهای موفقیت انویدیا نرم افزار آن است. لی گفت که این شرکت برنامه CUDA خود را برای انجام انواع محاسبات کلی بر روی پردازنده های گرافیکی خود توسعه داده است. کتابخانه های نرم افزار Nvidia CUDA به خوبی با محبوب ترین زبان های برنامه نویسی برای یادگیری ماشین مانند PyTorch یکپارچه شده اند. یکی دیگر از مزایای انویدیا، شبکه های پرسرعت و معماری سیستم است که چندین GPU را به هم متصل می کند.

او افزود: «این شبکه‌ها اجازه هماهنگی سریع و کارآمد را زمانی می‌دهند که یک مدل برای اجرا بر روی یک GPU خیلی بزرگ است و امکان ساخت ابررایانه‌های بزرگتر و سریع‌تر هوش مصنوعی را فراهم می‌کند.»

پردازنده گرافیکی جدید انویدیا، H100، که برای کاربردهای هوش مصنوعی طراحی شده و عرضه آن در ماه سپتامبر آغاز شد، شاهد افزایش تقاضا بوده است. شرکت‌ها در هر اندازه‌ای برای ایمن کردن این تراشه‌ها تلاش می‌کنند، که از طریق یک تکنیک ساخت پیشرفته تولید می‌شوند و به بسته‌بندی پیچیده‌ای نیاز دارند که GPU را با تراشه‌های حافظه خاص جفت می‌کند.

رهبران صنعت پیش‌بینی می‌کنند که کمبود H100 تا سال 2024 ادامه یابد. کمبود عرضه چالش‌هایی را برای استارت‌آپ‌های هوش مصنوعی و خدمات ابری با هدف بازاریابی خدمات محاسباتی با استفاده از این GPUهای جدید ایجاد می‌کند.

در همین حال، سایر شرکت ها در تلاش هستند تا از کمبود H100 استفاده کنند. SambaNova Systems یک تراشه جدید به نام SN40L که برای LLM طراحی شده است، عرضه کرده است. ظاهراً SN40L می‌تواند مدل 5 تریلیون پارامتری را مدیریت کند و بیش از 256 هزار طول توالی را پشتیبانی کند، همه در یک سیستم برای کیفیت مدل بهتر و نتایج سریع‌تر با قیمت پایین‌تر از پیشنهادات انویدیا. SambaNova ادعا می کند که حافظه گسترده تراشه آن می تواند چندین کار مانند جستجو، تجزیه و تحلیل و تولید داده را انجام دهد و آن را برای برنامه های مختلف هوش مصنوعی همه کاره می کند.

چگونه AMD می تواند عقب نشینی کند

علیرغم شروع آهسته AMD، ناظران می گویند هنوز امیدی وجود دارد که این شرکت بتواند با انویدیا پیشی بگیرد. در ماه ژوئن، AMD برنامه هایی را برای شروع آزمایش تراشه MI300X خود با مشتریان در سه ماهه سوم به اشتراک گذاشت، یک GPU که به صراحت برای محاسبات هوش مصنوعی ساخته شده است.

AMD هنوز قیمت یا تراشه جدید را به اشتراک نگذاشته است، اما این اقدام می تواند انویدیا را مجبور کند تا هزینه پردازنده های گرافیکی خود را کاهش دهد، مانند H100، که می تواند گران باشد و اغلب بیش از 30000 دلار است. پردازنده‌های گرافیکی ارزان‌تر می‌توانند اجرای برنامه‌های هوش مصنوعی مولد را مقرون به صرفه‌تر کنند.

MI300X می تواند مدل های هوش مصنوعی بزرگتر را نسبت به سایر تراشه ها مدیریت کند زیرا می تواند تا 192 گیگابایت حافظه استفاده کند. برای مقایسه، H100 انویدیا تنها از 120 گیگابایت حافظه پشتیبانی می کند.

مدل های بزرگ هوش مصنوعی به حافظه زیادی نیاز دارند زیرا محاسبات زیادی را انجام می دهند. AMD MI300X را با مدل فالکون با 40 میلیارد پارامتر به نمایش گذاشت. در مقایسه، مدل GPT-3 OpenAI دارای 175 میلیارد پارامتر است.

با این حال، سخت افزار به تنهایی ممکن است برای AMD کافی نباشد تا بتواند سهم بیشتری از بازار را به دست آورد. Subutai Ahmad، مدیرعامل Numenta در مصاحبه ای گفت: با اعمال اصول علوم اعصاب در هوش مصنوعی، اکنون می توان LLM ها را بر روی CPU ها برای عملکرد بهتر، بهبود مصرف انرژی و توان و صرفه جویی در هزینه ها اجرا کرد.

او افزود: “AMD باید این تکنیک ها را در پشته نرم افزاری خود بگنجاند تا با انویدیا رقابت کند.”

یکی از مزیت‌های AMD این است که پشته نرم‌افزار منبع باز ROCm به یادگیری ماشینی اجازه می‌دهد تا به طور مؤثرتری روی تراشه‌هایش اجرا شود. لی خاطرنشان کرد، اما این چارچوب بسیار کمتر از CUDA محبوب است. او گفت که پشتیبانی از نرم افزار مهم ترین عامل تعیین کننده عملکرد یادگیری ماشین است.

او افزود: «هیچ شرکت دیگری در صنعت، (به عنوان مثال) پردازنده‌های گرافیکی AMD، واحد پردازش تانسور گوگل، دارای اکوسیستم نرم‌افزاری بهینه و بالغ نیست.

شرکت های دیگر هنوز ایستاده نیستند. لی گفت که واحد پردازش تنسور (TPU) گوگل یک طراحی تراشه قابل توجه است، در حالی که Cerebras تراشه های بزرگتر را با حافظه افزایش یافته طراحی می کند تا عملکرد سخت افزار را افزایش دهد.

او افزود: «اما همه این جایگزین‌ها از چالش‌های نرم‌افزاری مشابه یا سخت‌تر مانند AMD رنج می‌برند. TPU ها برای یادگیری ماشینی از نظر انرژی کارآمدتر هستند و Cerebras عملکرد بالایی را برای کاربردهای علمی نشان داده است. اما بدون یک پشته نرم افزاری بالغ، توسعه دهندگان نمی توانند به راحتی آخرین مدل های یادگیری ماشینی منبع باز مانند مدل های Hugging Face را دانلود و اجرا کنند. عملکرد رقابتی.”

ممکن است در برخی مواقع، هوش مصنوعی مولد دیگر نیازی به تکیه بر پردازنده‌های گرافیکی نداشته باشد. احمد پیش‌بینی کرد که شرکت‌ها روزی به پردازنده‌های ارزان‌تری روی می‌آورند که حتی برای پیچیده‌ترین و پیچیده‌ترین برنامه‌های پردازش زبان طبیعی (NLP) کارایی بالا و نتایج با تأخیر پایین ارائه می‌کنند.

وی افزود: CPUها نسبت به GPUها نیز انعطاف پذیرتر هستند. CPU ها برای کارهای همه منظوره طراحی شده اند و برای عملکرد به دسته بندی تکیه نمی کنند. ماهیت سازگار و زیرساخت ساده تر آن ها را فوق العاده انعطاف پذیر، مقیاس پذیر و مقرون به صرفه کرده است.