انویدیا در حال طراحی CPU Arm Data Center برای مدلهای AI Beyond-x86 است

او صریحاً آن را نگفته است ، اما مفهوم گفته های پارش خارایا روشن بود. روزی – به احتمال زیاد خیلی زود – مدل های AI آنقدر بزرگ می شوند که معماری سخت افزاری امروزی AI که پردازنده های x86 را با شتاب دهنده های GPU پایدار ترکیب می کند ، باید از ابتدا مورد بازنگری قرار گیرد ، Kharya ، مدیر ارشد مدیریت محصول انویدیا و بازاریابی ، هفته گذشته در یک کنفرانس ویدئویی به خبرنگاران گفت ، پیش نمایش تمام اعلامیه هایی که این شرکت در این هفته در رویداد Nvidia GTC برگزار کرد که روز دوشنبه آغاز شد.

با ادامه این تز ، این شرکت در زمینه بازنگری به خود شروع کرده است. بر اساس بیانیه شرکت ، روز دوشنبه آن را Grace ، پردازنده مرکز داده Nvidia آینده ، نتیجه “10 هزار سال مهندسی کار” ترکیبی اعلام کرد. Kharya گفت ، بر اساس معماری پردازنده Arm Neoverse آینده که هنوز مشخص نشده است ، برای اتصال بسیار محکم با پردازنده های گرافیکی Nvidia ، از بین بردن هرگونه “تنگنا” که در اتصال پردازنده های x86 امروزی و شتاب دهنده ها وجود دارد ، طراحی شده است.

انویدیا سال گذشته موافقت کرد که Arm را به مبلغ 40 میلیارد دلار خریداری کند ، اما این معامله روند خشن بین المللی تصویب مقررات را پشت سر می گذارد و به نظر می رسد بسته شدن موفقیت آمیز دور از قطعیت باشد.

وی گفت که پردازنده Nvidia Grace برای پرداختن به “اندازه در حال رشد و پیچیدگی مدل های هوش مصنوعی” طراحی شده است. فقط در دو سال گذشته ، مدل ها از 100 میلیون پارامتر به 175 میلیارد پارامتر رسیده اند. محققان Google Brain در اوایل سال جاری در مقاله ای ادعا کردند که با استفاده از پردازنده های TPU داخلی گوگل موفق به آموزش یک مدل پارامتر 1.6 تریلیون شده اند.

مطالب پیشنهادی  سیسکو از مهمترین گزینه های Endpoint ، Network and Cloud Security رونمایی می کند

با گریس ، انویدیا ، که هرگز CPU مرکز داده تولید نکرده است ، روزی است که مدل های تریلیون پارامتر به امری عادی تبدیل می شوند. پاریا گفت ، این زمانی است که معماری پیشرفته و مدرن آن را برش نخواهد داد. به گفته این شرکت ، یک سیستم مجهز به Grace یک مدل NLP با تریلیون پارامتر را 10 برابر سریعتر از رایانه های سریع Nvidia DGX امروزی ، که برای هوش مصنوعی طراحی شده اند و با پردازنده های x86 کار می کنند ، آموزش می دهد.

پاریا گفت ، تمرکز طراحان بر افزایش تعداد پردازنده های گرافیکی است که یک CPU می تواند با آن کار کند و بهبود CPU به حافظه GPU را بهبود می بخشد. وی گفت که این اساساً پردازنده را قادر می سازد تا حافظه GPU را به عنوان حافظه اختصاصی خود رفتار کند.

فعال کردن آن اتصال سریع CPU به GPU ، فناوری اتصال NVLink انویدیا است ، جایگزینی برای PCIe در معماری های مبتنی بر x86 ، که به گفته این شرکت ، اتصال 900 گیگابیت بر ثانیه بین این دو پردازنده فراهم می کند. یکی دیگر از فناوری های کلیدی در Grace ، زیر سیستم حافظه LPDDR5x است که طبق گفته انویدیا پهنای باند را که با حافظه DDR4 امکان پذیر است دو برابر می کند و بازدهی انرژی 10 برابر DDR4 را فراهم می کند.

انویدیا انتظار دارد اولین تراشه های Grace را در اوایل سال 2023 در دسترس قرار دهد. انتظار می رود که در آن سال دو ابر رایانه با پردازنده گرافیکی Grace و پردازنده گرافیکی Nvidia نیز آنلاین شوند. یکی در مرکز ابر رایانه ملی سوئیس و دیگری در آزمایشگاه ملی لس آلاموس وزارت انرژی ایالات متحده خواهد بود. انویدیا گفت ، هر دو سیستم توسط Hewlett Packard Enterprise ساخته خواهد شد.

مطالب پیشنهادی  این شرکت تازه وارد در حال ساخت یک تراشه برای ذخیره میکرو ثانیه حیاتی معامله گران است

سئو PBN | خبر های جدید سئو و هک و سرور