طراحی تراشه های جدید برای تقویت پردازش حجم کاری هوش مصنوعی | دانش مرکز داده

طراحی‌های جدید تراشه‌ها می‌توانند به زودی با استفاده از روش‌های نوآورانه برای مدیریت کارآمدتر بارهای کاری مولد، هوش مصنوعی را متحول کنند.

Siddharth Kotwal، مدیر بخش جهانی Nvidia Quantiphi در مصاحبه ای گفت: «زمانی که صحبت از یادگیری ماشینی می شود، رعایت الزامات بار کاری AI/ML، چه از نظر سخت افزاری و چه از نظر نرم افزار، بسیار مهم است. فرصت‌های سخت‌افزاری بالقوه حول محور توسعه شتاب‌دهنده‌ها/GPUهای هوش مصنوعی با حجم کاری خاص می‌چرخند تا نیازهای تخصصی شرکت‌ها را برآورده کنند.

بن لی، استاد مهندسی پن دانشگاه پنسیلوانیا در مصاحبه ای خاطرنشان کرد: ریزپردازنده های همه منظوره مانند ریزپردازنده های اینتل و AMD عملکرد بالایی را برای طیف گسترده ای از کاربردها ارائه می دهند. با این حال، او گفت که تراشه‌های سفارشی‌سازی شده برای حوزه‌های کاربردی خاص، مانند هوش مصنوعی، می‌توانند عملکرد و کارایی انرژی بسیار بیشتری ارائه دهند.

او افزود: «اول، آنها حرکت داده ها را به داخل و درون پردازنده بهینه می کنند و تعداد انتقال داده های انرژی بر را کاهش می دهند. دوم، آنها دستورالعمل‌های سفارشی بزرگی را ایجاد می‌کنند که کار بسیار بیشتری را در هر فراخوانی انجام می‌دهند، که به تراشه اجازه می‌دهد تا هزینه‌های انرژی تامین داده‌ها را برای آن دستورالعمل‌ها کاهش دهد. مهندسان کامپیوتر اغلب از یک قانون سرانگشتی استفاده می‌کنند: تراشه‌های سفارشی که برای یک دامنه کاربردی طراحی شده‌اند، می‌توانند عملکرد و کارایی انرژی را با دو مرتبه بزرگی، یعنی ۱۰۰ برابر، بهبود بخشند.

لی گفت، یکی از زمینه های امیدوارکننده پژوهش، پردازش در حافظه (PIM) است که فناوری های حافظه در حال ظهور را با محاسبات آنالوگ جفت می کند. فناوری حافظه شامل یک مقاومت قابل برنامه ریزی است که می تواند برای نمایش پارامترها یا وزن های یک مدل یادگیری ماشینی استفاده شود.

او افزود: «از آنجایی که جریان از طریق این مقاومت‌های برنامه‌ریزی‌شده جریان می‌یابد، حافظه می‌تواند ضرب‌ها و اضافات را اجرا کند که مبنای بسیاری از محاسبات یادگیری ماشینی است. PIM کارایی بسیار بیشتری را ارائه می دهد زیرا محاسبات در داده ها تعبیه شده است و نیاز به انتقال حجم زیادی از داده ها در فواصل طولانی به پردازنده را از بین می برد.

کوتوال گفت که احتمالاً تقاضای فزاینده‌ای برای پردازنده‌های گرافیکی Edge، به‌ویژه برای استنتاج لبه وجود دارد، که نیاز به پردازنده‌های گرافیکی از سوی شرکت‌هایی مانند Nvidia، Arm، Qualcomm و سایرین در SoC یا دامنه‌های تلفن همراه دارد.

به حداقل رساندن تداخل

محققان دانشگاه کالیفرنیای جنوبی اخیراً روشی را توسعه داده‌اند که به دستگاه‌ها اجازه می‌دهد تداخل را برای وظایف هوش مصنوعی به حداقل برسانند. ظاهراً این نوآوری دارای تراکم اطلاعات بی‌سابقه‌ای است که 11 بیت در هر جزء را ذخیره می‌کند و آن را به فشرده‌ترین فناوری حافظه تا به امروز تبدیل می‌کند. این تراشه‌های کوچک و در عین حال قدرتمند می‌توانند بازی را تغییر دهند و در دستگاه‌های تلفن همراه ما جای بگیرند و قابلیت‌های آن‌ها را به‌طور قابل‌توجهی افزایش دهند.

رابرت دایگل، مدیر جهانی هوش مصنوعی لنوو در مصاحبه ای گفت: NPU ها، ASIC ها و FPGA های جدید طراحی شده برای بارهای کاری هوش مصنوعی می توانند بسیار کارآمدتر و مقرون به صرفه باشند. او پیش‌بینی کرد که شتاب‌دهنده‌های هوش مصنوعی برای موارد استفاده خاص تخصصی‌تر می‌شوند – برای مثال، شتاب‌دهنده‌های جدید به‌طور خاص برای استنتاج بینایی رایانه، استنتاج هوش مصنوعی تولیدی و آموزش طراحی شده‌اند.

دایگل گفت که جدیدترین طرح‌های تراشه قابلیت‌هایی را برای کار در محیط‌های خنک‌شده با مایع ادغام می‌کنند که نشان‌دهنده تغییر به سمت شیوه‌های انرژی پایدارتر است. یک اولویت کلیدی طراحی، به حداقل رساندن مصرف انرژی و افزایش پراکندگی گرما است.

دایگل خاطرنشان کرد: تکامل شتاب‌دهنده‌های هوش مصنوعی به دو مسیر مجزا منشعب می‌شود: شتاب‌دهنده‌های گسسته و هدفمند و هسته‌های هوش مصنوعی که در CPU‌های چند منظوره سیلیکونی ادغام شده‌اند. این همگرایی سیلیکون پیشرفته، کارآمد، تکنیک‌های خنک‌کننده مایع ابتکاری، و کد هوش مصنوعی ساده در چارچوب‌های قوی، پتانسیل مدل‌ها و راه‌حل‌های جدید هوش مصنوعی را تقویت می‌کند.

او افزود: «به زودی، تراشه‌ها به پیشروی در تلاش‌های پایداری کمک می‌کنند تا نتایج عملکرد هوش مصنوعی را به حداکثر برسانند و در عین حال مصرف انرژی را کاهش دهند و دوباره از آن استفاده کنند.» هوش مصنوعی به پیشرفت خود ادامه خواهد داد و پیچیده تر خواهد شد. پیشرفت طراحی تراشه به پیشروی در این فرآیند تکاملی کمک خواهد کرد. می توان انتظار داشت که شاهد کاهش قابل توجه مصرف برق، بهبودهای صوتی و صرفه جویی در هزینه باشیم.

هوش مصنوعی در بینایی کامپیوتر

یکی از نوآوری های اخیر توسط محققان دانشگاه Tsinghua در چین انجام شده است. آنها گفتند که یک تراشه فوتوالکتریک کاملا آنالوگ ایجاد کرده‌اند که محاسبات نوری و الکترونیکی را برای پردازش بینایی رایانه‌ای سریع و کم مصرف ادغام می‌کند.

سیگنال های آنالوگ و دیجیتال دو راه برای انتقال اطلاعات هستند. سیگنال های آنالوگ، مانند نوری که یک تصویر را تشکیل می دهد، به طور مداوم تغییر می کنند، در حالی که سیگنال های دیجیتال، مانند اعداد باینری، پیوسته نیستند.

در کارهایی مانند تشخیص تصویر و تشخیص اشیا در بینایی کامپیوتر، اغلب با سیگنال های آنالوگ از محیط شروع می شود. برای پردازش آنها با شبکه های عصبی هوش مصنوعی، که برای یافتن الگوها در داده ها آموزش دیده اند، سیگنال های آنالوگ باید به سیگنال های دیجیتال تبدیل شوند. این تبدیل به زمان و انرژی نیاز دارد که می تواند سرعت شبکه عصبی را کند کند. محاسبات فوتونیک، با استفاده از سیگنال های نوری، یک راه حل امیدوارکننده است.

در مقاله خود که در Nature منتشر شده است، محققان یک پردازنده یکپارچه ایجاد کردند که مزایای نور و الکتریسیته را به روشی تمام آنالوگ ترکیب می کند. آنها آن را ACCEL می نامند که مخفف عبارت «تراشه تمام آنالوگ ترکیبی از محاسبات الکترونیکی و نوری است».

فانگ لو، محققی از تیم Tsinghua در خبری گفت: ما مزایای نور و الکتریسیته را تحت سیگنال‌های تمام آنالوگ به حداکثر رساندیم، از معایب تبدیل آنالوگ به دیجیتال جلوگیری کردیم و گلوگاه مصرف انرژی و سرعت را شکستیم. رهایی.

سئو PBN | خبر های جدید سئو و هک و سرور