این مقاله در اصل در AI Business منتشر شده است.
انویدیا در حال حاضر در رقابت تراشههای هوش مصنوعی پیشتاز است، اما AMD در حال برداشتن گامهایی برای کاهش فاصله است.
کوین اسکات، مدیر ارشد فناوری مایکروسافت، اخیراً در یک کنفرانس گفت که AMD در حال ارائه «پیشنهادات گرافیکی جذابتر» است که میتواند رقیب انویدیا باشد. با این حال، کارشناسان صنعت می گویند AMD با چالش سختی در زمینه رو به رشد پردازنده های هوش مصنوعی مواجه است.
بنجامین لی، استاد دپارتمان مهندسی برق و سیستم ها و دپارتمان علوم کامپیوتر و اطلاعات در دانشگاه پنسیلوانیا، گفت: اولین و اصلی ترین مزیت انویدیا از نرم افزاری ناشی می شود که برای اجرا بر روی تراشه های هوش مصنوعی آن بسیار بهینه شده است. در یک مصاحبه
مسابقه برای چیپس
از زمانی که OpenAI ChatGPT را در سال گذشته معرفی کرد، علاقه به مدلهای زبان بزرگ (LLM) که به منابع محاسباتی عظیمی نیاز دارند، افزایش یافته است. به گفته شرکت تحقیقاتی Omdia، اگرچه شرکتهایی مانند گوگل، آمازون، متا و آیبیام تراشههای هوش مصنوعی توسعه دادهاند، انویدیا در حال حاضر با بیش از 70 درصد فروش تراشههای هوش مصنوعی تسلط دارد.
یکی از رازهای موفقیت انویدیا نرم افزار آن است. لی گفت که این شرکت برنامه CUDA خود را برای انجام انواع محاسبات کلی بر روی پردازنده های گرافیکی خود توسعه داده است. کتابخانه های نرم افزار Nvidia CUDA به خوبی با محبوب ترین زبان های برنامه نویسی برای یادگیری ماشین مانند PyTorch یکپارچه شده اند. یکی دیگر از مزایای انویدیا، شبکه های پرسرعت و معماری سیستم است که چندین GPU را به هم متصل می کند.
او افزود: «این شبکهها اجازه هماهنگی سریع و کارآمد را زمانی میدهند که یک مدل برای اجرا بر روی یک GPU خیلی بزرگ است و امکان ساخت ابررایانههای بزرگتر و سریعتر هوش مصنوعی را فراهم میکند.»
پردازنده گرافیکی جدید انویدیا، H100، که برای کاربردهای هوش مصنوعی طراحی شده و عرضه آن در ماه سپتامبر آغاز شد، شاهد افزایش تقاضا بوده است. شرکتها در هر اندازهای برای ایمن کردن این تراشهها تلاش میکنند، که از طریق یک تکنیک ساخت پیشرفته تولید میشوند و به بستهبندی پیچیدهای نیاز دارند که GPU را با تراشههای حافظه خاص جفت میکند.
رهبران صنعت پیشبینی میکنند که کمبود H100 تا سال 2024 ادامه یابد. کمبود عرضه چالشهایی را برای استارتآپهای هوش مصنوعی و خدمات ابری با هدف بازاریابی خدمات محاسباتی با استفاده از این GPUهای جدید ایجاد میکند.
در همین حال، سایر شرکت ها در تلاش هستند تا از کمبود H100 استفاده کنند. SambaNova Systems یک تراشه جدید به نام SN40L که برای LLM طراحی شده است، عرضه کرده است. ظاهراً SN40L میتواند مدل 5 تریلیون پارامتری را مدیریت کند و بیش از 256 هزار طول توالی را پشتیبانی کند، همه در یک سیستم برای کیفیت مدل بهتر و نتایج سریعتر با قیمت پایینتر از پیشنهادات انویدیا. SambaNova ادعا می کند که حافظه گسترده تراشه آن می تواند چندین کار مانند جستجو، تجزیه و تحلیل و تولید داده را انجام دهد و آن را برای برنامه های مختلف هوش مصنوعی همه کاره می کند.
چگونه AMD می تواند عقب نشینی کند
علیرغم شروع آهسته AMD، ناظران می گویند هنوز امیدی وجود دارد که این شرکت بتواند با انویدیا پیشی بگیرد. در ماه ژوئن، AMD برنامه هایی را برای شروع آزمایش تراشه MI300X خود با مشتریان در سه ماهه سوم به اشتراک گذاشت، یک GPU که به صراحت برای محاسبات هوش مصنوعی ساخته شده است.
AMD هنوز قیمت یا تراشه جدید را به اشتراک نگذاشته است، اما این اقدام می تواند انویدیا را مجبور کند تا هزینه پردازنده های گرافیکی خود را کاهش دهد، مانند H100، که می تواند گران باشد و اغلب بیش از 30000 دلار است. پردازندههای گرافیکی ارزانتر میتوانند اجرای برنامههای هوش مصنوعی مولد را مقرون به صرفهتر کنند.
MI300X می تواند مدل های هوش مصنوعی بزرگتر را نسبت به سایر تراشه ها مدیریت کند زیرا می تواند تا 192 گیگابایت حافظه استفاده کند. برای مقایسه، H100 انویدیا تنها از 120 گیگابایت حافظه پشتیبانی می کند.
مدل های بزرگ هوش مصنوعی به حافظه زیادی نیاز دارند زیرا محاسبات زیادی را انجام می دهند. AMD MI300X را با مدل فالکون با 40 میلیارد پارامتر به نمایش گذاشت. در مقایسه، مدل GPT-3 OpenAI دارای 175 میلیارد پارامتر است.
با این حال، سخت افزار به تنهایی ممکن است برای AMD کافی نباشد تا بتواند سهم بیشتری از بازار را به دست آورد. Subutai Ahmad، مدیرعامل Numenta در مصاحبه ای گفت: با اعمال اصول علوم اعصاب در هوش مصنوعی، اکنون می توان LLM ها را بر روی CPU ها برای عملکرد بهتر، بهبود مصرف انرژی و توان و صرفه جویی در هزینه ها اجرا کرد.
او افزود: “AMD باید این تکنیک ها را در پشته نرم افزاری خود بگنجاند تا با انویدیا رقابت کند.”
یکی از مزیتهای AMD این است که پشته نرمافزار منبع باز ROCm به یادگیری ماشینی اجازه میدهد تا به طور مؤثرتری روی تراشههایش اجرا شود. لی خاطرنشان کرد، اما این چارچوب بسیار کمتر از CUDA محبوب است. او گفت که پشتیبانی از نرم افزار مهم ترین عامل تعیین کننده عملکرد یادگیری ماشین است.
او افزود: «هیچ شرکت دیگری در صنعت، (به عنوان مثال) پردازندههای گرافیکی AMD، واحد پردازش تانسور گوگل، دارای اکوسیستم نرمافزاری بهینه و بالغ نیست.
شرکت های دیگر هنوز ایستاده نیستند. لی گفت که واحد پردازش تنسور (TPU) گوگل یک طراحی تراشه قابل توجه است، در حالی که Cerebras تراشه های بزرگتر را با حافظه افزایش یافته طراحی می کند تا عملکرد سخت افزار را افزایش دهد.
او افزود: «اما همه این جایگزینها از چالشهای نرمافزاری مشابه یا سختتر مانند AMD رنج میبرند. TPU ها برای یادگیری ماشینی از نظر انرژی کارآمدتر هستند و Cerebras عملکرد بالایی را برای کاربردهای علمی نشان داده است. اما بدون یک پشته نرم افزاری بالغ، توسعه دهندگان نمی توانند به راحتی آخرین مدل های یادگیری ماشینی منبع باز مانند مدل های Hugging Face را دانلود و اجرا کنند. عملکرد رقابتی.”
ممکن است در برخی مواقع، هوش مصنوعی مولد دیگر نیازی به تکیه بر پردازندههای گرافیکی نداشته باشد. احمد پیشبینی کرد که شرکتها روزی به پردازندههای ارزانتری روی میآورند که حتی برای پیچیدهترین و پیچیدهترین برنامههای پردازش زبان طبیعی (NLP) کارایی بالا و نتایج با تأخیر پایین ارائه میکنند.
وی افزود: CPUها نسبت به GPUها نیز انعطاف پذیرتر هستند. CPU ها برای کارهای همه منظوره طراحی شده اند و برای عملکرد به دسته بندی تکیه نمی کنند. ماهیت سازگار و زیرساخت ساده تر آن ها را فوق العاده انعطاف پذیر، مقیاس پذیر و مقرون به صرفه کرده است.