فروشندگان شبکه در یک بازار فشرده برای تولید تراشه های شبکه ای رقابت می کنند که می توانند بار کاری هوش مصنوعی (AI) و یادگیری ماشین (ML) را مدیریت کنند. اواخر ماه گذشته، سیسکو اعلام کرد Silicon One G200 و G202 ASIC آن، آن را در مقابل پیشنهادات Broadcom، NVIDIA و Marvell قرار می دهد.
اخیرا IDC پیش بینی نشان می دهد که چگونه شرکت ها قصد دارند بیشتر روی هوش مصنوعی هزینه کنند. این شرکت تحقیقاتی پیشبینی میکند که هزینههای جهانی برای هوش مصنوعی در سال 2023 به 154 میلیارد دلار و تا سال 2026 به حداقل 300 میلیارد دلار افزایش مییابد. علاوه بر این، تا سال 2027، تقریباً 1 از هر 5 پورت سوئیچ اترنت که مراکز داده خریداری میکنند به هوش مصنوعی / ML و تسریع خواهد رسید. محاسبات، با توجه به الف گزارش توسط شرکت تحقیقاتی 650 Group.
چگونه تراشه های شبکه سیسکو زمان بار کاری را بهبود می بخشد
سیسکو می گوید Silicon One G200 و G202 ASIC وظایف هوش مصنوعی و ML را با 40 درصد سوئیچ کمتر در 51.2 ترابیت بر ثانیه انجام می دهند. به گفته این شرکت، آنها مشتریان را قادر میسازند تا یک خوشه AI/ML پردازنده گرافیکی 32K 400G را روی یک شبکه دو لایه با 50 درصد اپتیک کمتر و 33 درصد لایههای شبکه کمتر بسازند. G200 و G202 نسل چهارم تراشه های Silicon One این شرکت هستند که برای ارائه یکپارچه طراحی شده اند. مسیریابی و سوئیچینگ
راکش چوپرا، یکی از همکاران سیسکو، گفت: “سیسکو یک معماری همگرا ارائه می دهد که می تواند در مسیریابی، سوئیچینگ و شبکه های AI/ML استفاده شود.” محاسبات شبکه.
تأخیر بسیار کم، عملکرد بالا و متعادلسازی بار پیشرفته به تراشههای شبکه اجازه میدهد تا کار کنند AI/ML حجم کاربه گفته چوپرا. علاوه بر این، قابلیت های پیشرفته مبتنی بر اترنت نیز این بار کاری را ممکن می کند.
چوپرا گفت: «اترنت کاملاً برنامهریزیشده و پیشرفته راههایی برای بهبود عملکرد شبکه مبتنی بر اترنت و کاهش قابل توجه زمان تکمیل کار هستند». “با اترنت پیشرفته، مشتریان می توانند زمان تکمیل کار خود را 1.57 برابر کاهش دهند و کارهای AI/ML آنها را سریعتر و با قدرت کمتر تکمیل کنند.”
سیسکو میگوید G200 و G202 همچنین دارای متعادلسازی بار، ایزولهسازی بهتر خطا و یک بافر کاملا مشترک هستند که به شبکه اجازه میدهد از عملکرد نوری برای بارهای کاری AI/ML پشتیبانی کند.
تراشه سازان چگونه با هوش مصنوعی مقابله می کنند
به گفته Chopra، فروشندگان شبکه در حال عرضه تراشه های شبکه با پهنای باند و ریشه بالاتر هستند که تعداد دستگاه هایی است که می توانند به آنها متصل شوند تا بتوانند وظایف هوش مصنوعی را انجام دهند. او گفت که آنها همچنین GPU ها را قادر می سازند بدون تداخل با هم ارتباط برقرار کنند و گلوگاه های بار کاری AI/ML را از بین ببرند.
ادامه این مقاله را در مورد محاسبات شبکه بخوانید.