AI Workloads Spur Competition در تراشه های شبکه | دانش مرکز داده

فروشندگان شبکه در یک بازار فشرده برای تولید تراشه های شبکه ای رقابت می کنند که می توانند بار کاری هوش مصنوعی (AI) و یادگیری ماشین (ML) را مدیریت کنند. اواخر ماه گذشته، سیسکو اعلام کرد Silicon One G200 و G202 ASIC آن، آن را در مقابل پیشنهادات Broadcom، NVIDIA و Marvell قرار می دهد.

اخیرا IDC پیش بینی نشان می دهد که چگونه شرکت ها قصد دارند بیشتر روی هوش مصنوعی هزینه کنند. این شرکت تحقیقاتی پیش‌بینی می‌کند که هزینه‌های جهانی برای هوش مصنوعی در سال 2023 به 154 میلیارد دلار و تا سال 2026 به حداقل 300 میلیارد دلار افزایش می‌یابد. علاوه بر این، تا سال 2027، تقریباً 1 از هر 5 پورت سوئیچ اترنت که مراکز داده خریداری می‌کنند به هوش مصنوعی / ML و تسریع خواهد رسید. محاسبات، با توجه به الف گزارش توسط شرکت تحقیقاتی 650 Group.

چگونه تراشه های شبکه سیسکو زمان بار کاری را بهبود می بخشد

سیسکو می گوید Silicon One G200 و G202 ASIC وظایف هوش مصنوعی و ML را با 40 درصد سوئیچ کمتر در 51.2 ترابیت بر ثانیه انجام می دهند. به گفته این شرکت، آن‌ها مشتریان را قادر می‌سازند تا یک خوشه AI/ML پردازنده گرافیکی 32K 400G را روی یک شبکه دو لایه با 50 درصد اپتیک کمتر و 33 درصد لایه‌های شبکه کمتر بسازند. G200 و G202 نسل چهارم تراشه های Silicon One این شرکت هستند که برای ارائه یکپارچه طراحی شده اند. مسیریابی و سوئیچینگ

راکش چوپرا، یکی از همکاران سیسکو، گفت: “سیسکو یک معماری همگرا ارائه می دهد که می تواند در مسیریابی، سوئیچینگ و شبکه های AI/ML استفاده شود.” محاسبات شبکه.

تأخیر بسیار کم، عملکرد بالا و متعادل‌سازی بار پیشرفته به تراشه‌های شبکه اجازه می‌دهد تا کار کنند AI/ML حجم کاربه گفته چوپرا. علاوه بر این، قابلیت های پیشرفته مبتنی بر اترنت نیز این بار کاری را ممکن می کند.

چوپرا گفت: «اترنت کاملاً برنامه‌ریزی‌شده و پیشرفته راه‌هایی برای بهبود عملکرد شبکه مبتنی بر اترنت و کاهش قابل توجه زمان تکمیل کار هستند». “با اترنت پیشرفته، مشتریان می توانند زمان تکمیل کار خود را 1.57 برابر کاهش دهند و کارهای AI/ML آنها را سریعتر و با قدرت کمتر تکمیل کنند.”

سیسکو می‌گوید G200 و G202 همچنین دارای متعادل‌سازی بار، ایزوله‌سازی بهتر خطا و یک بافر کاملا مشترک هستند که به شبکه اجازه می‌دهد از عملکرد نوری برای بارهای کاری AI/ML پشتیبانی کند.

تراشه سازان چگونه با هوش مصنوعی مقابله می کنند

به گفته Chopra، فروشندگان شبکه در حال عرضه تراشه های شبکه با پهنای باند و ریشه بالاتر هستند که تعداد دستگاه هایی است که می توانند به آنها متصل شوند تا بتوانند وظایف هوش مصنوعی را انجام دهند. او گفت که آنها همچنین GPU ها را قادر می سازند بدون تداخل با هم ارتباط برقرار کنند و گلوگاه های بار کاری AI/ML را از بین ببرند.

ادامه این مقاله را در مورد محاسبات شبکه بخوانید.

سئو PBN | خبر های جدید سئو و هک و سرور
مطالب پیشنهادی  تراشه های AMD 3rd Gen Epyc Milan با هدف Sweet Center Performance Data Center اجرا می شوند