طراحیهای جدید تراشهها میتوانند به زودی با استفاده از روشهای نوآورانه برای مدیریت کارآمدتر بارهای کاری مولد، هوش مصنوعی را متحول کنند.
Siddharth Kotwal، مدیر بخش جهانی Nvidia Quantiphi در مصاحبه ای گفت: «زمانی که صحبت از یادگیری ماشینی می شود، رعایت الزامات بار کاری AI/ML، چه از نظر سخت افزاری و چه از نظر نرم افزار، بسیار مهم است. فرصتهای سختافزاری بالقوه حول محور توسعه شتابدهندهها/GPUهای هوش مصنوعی با حجم کاری خاص میچرخند تا نیازهای تخصصی شرکتها را برآورده کنند.
بن لی، استاد مهندسی پن دانشگاه پنسیلوانیا در مصاحبه ای خاطرنشان کرد: ریزپردازنده های همه منظوره مانند ریزپردازنده های اینتل و AMD عملکرد بالایی را برای طیف گسترده ای از کاربردها ارائه می دهند. با این حال، او گفت که تراشههای سفارشیسازی شده برای حوزههای کاربردی خاص، مانند هوش مصنوعی، میتوانند عملکرد و کارایی انرژی بسیار بیشتری ارائه دهند.
او افزود: «اول، آنها حرکت داده ها را به داخل و درون پردازنده بهینه می کنند و تعداد انتقال داده های انرژی بر را کاهش می دهند. دوم، آنها دستورالعملهای سفارشی بزرگی را ایجاد میکنند که کار بسیار بیشتری را در هر فراخوانی انجام میدهند، که به تراشه اجازه میدهد تا هزینههای انرژی تامین دادهها را برای آن دستورالعملها کاهش دهد. مهندسان کامپیوتر اغلب از یک قانون سرانگشتی استفاده میکنند: تراشههای سفارشی که برای یک دامنه کاربردی طراحی شدهاند، میتوانند عملکرد و کارایی انرژی را با دو مرتبه بزرگی، یعنی ۱۰۰ برابر، بهبود بخشند.
لی گفت، یکی از زمینه های امیدوارکننده پژوهش، پردازش در حافظه (PIM) است که فناوری های حافظه در حال ظهور را با محاسبات آنالوگ جفت می کند. فناوری حافظه شامل یک مقاومت قابل برنامه ریزی است که می تواند برای نمایش پارامترها یا وزن های یک مدل یادگیری ماشینی استفاده شود.
او افزود: «از آنجایی که جریان از طریق این مقاومتهای برنامهریزیشده جریان مییابد، حافظه میتواند ضربها و اضافات را اجرا کند که مبنای بسیاری از محاسبات یادگیری ماشینی است. PIM کارایی بسیار بیشتری را ارائه می دهد زیرا محاسبات در داده ها تعبیه شده است و نیاز به انتقال حجم زیادی از داده ها در فواصل طولانی به پردازنده را از بین می برد.
کوتوال گفت که احتمالاً تقاضای فزایندهای برای پردازندههای گرافیکی Edge، بهویژه برای استنتاج لبه وجود دارد، که نیاز به پردازندههای گرافیکی از سوی شرکتهایی مانند Nvidia، Arm، Qualcomm و سایرین در SoC یا دامنههای تلفن همراه دارد.
به حداقل رساندن تداخل
محققان دانشگاه کالیفرنیای جنوبی اخیراً روشی را توسعه دادهاند که به دستگاهها اجازه میدهد تداخل را برای وظایف هوش مصنوعی به حداقل برسانند. ظاهراً این نوآوری دارای تراکم اطلاعات بیسابقهای است که 11 بیت در هر جزء را ذخیره میکند و آن را به فشردهترین فناوری حافظه تا به امروز تبدیل میکند. این تراشههای کوچک و در عین حال قدرتمند میتوانند بازی را تغییر دهند و در دستگاههای تلفن همراه ما جای بگیرند و قابلیتهای آنها را بهطور قابلتوجهی افزایش دهند.
رابرت دایگل، مدیر جهانی هوش مصنوعی لنوو در مصاحبه ای گفت: NPU ها، ASIC ها و FPGA های جدید طراحی شده برای بارهای کاری هوش مصنوعی می توانند بسیار کارآمدتر و مقرون به صرفه باشند. او پیشبینی کرد که شتابدهندههای هوش مصنوعی برای موارد استفاده خاص تخصصیتر میشوند – برای مثال، شتابدهندههای جدید بهطور خاص برای استنتاج بینایی رایانه، استنتاج هوش مصنوعی تولیدی و آموزش طراحی شدهاند.
دایگل گفت که جدیدترین طرحهای تراشه قابلیتهایی را برای کار در محیطهای خنکشده با مایع ادغام میکنند که نشاندهنده تغییر به سمت شیوههای انرژی پایدارتر است. یک اولویت کلیدی طراحی، به حداقل رساندن مصرف انرژی و افزایش پراکندگی گرما است.
دایگل خاطرنشان کرد: تکامل شتابدهندههای هوش مصنوعی به دو مسیر مجزا منشعب میشود: شتابدهندههای گسسته و هدفمند و هستههای هوش مصنوعی که در CPUهای چند منظوره سیلیکونی ادغام شدهاند. این همگرایی سیلیکون پیشرفته، کارآمد، تکنیکهای خنککننده مایع ابتکاری، و کد هوش مصنوعی ساده در چارچوبهای قوی، پتانسیل مدلها و راهحلهای جدید هوش مصنوعی را تقویت میکند.
او افزود: «به زودی، تراشهها به پیشروی در تلاشهای پایداری کمک میکنند تا نتایج عملکرد هوش مصنوعی را به حداکثر برسانند و در عین حال مصرف انرژی را کاهش دهند و دوباره از آن استفاده کنند.» هوش مصنوعی به پیشرفت خود ادامه خواهد داد و پیچیده تر خواهد شد. پیشرفت طراحی تراشه به پیشروی در این فرآیند تکاملی کمک خواهد کرد. می توان انتظار داشت که شاهد کاهش قابل توجه مصرف برق، بهبودهای صوتی و صرفه جویی در هزینه باشیم.
هوش مصنوعی در بینایی کامپیوتر
یکی از نوآوری های اخیر توسط محققان دانشگاه Tsinghua در چین انجام شده است. آنها گفتند که یک تراشه فوتوالکتریک کاملا آنالوگ ایجاد کردهاند که محاسبات نوری و الکترونیکی را برای پردازش بینایی رایانهای سریع و کم مصرف ادغام میکند.
سیگنال های آنالوگ و دیجیتال دو راه برای انتقال اطلاعات هستند. سیگنال های آنالوگ، مانند نوری که یک تصویر را تشکیل می دهد، به طور مداوم تغییر می کنند، در حالی که سیگنال های دیجیتال، مانند اعداد باینری، پیوسته نیستند.
در کارهایی مانند تشخیص تصویر و تشخیص اشیا در بینایی کامپیوتر، اغلب با سیگنال های آنالوگ از محیط شروع می شود. برای پردازش آنها با شبکه های عصبی هوش مصنوعی، که برای یافتن الگوها در داده ها آموزش دیده اند، سیگنال های آنالوگ باید به سیگنال های دیجیتال تبدیل شوند. این تبدیل به زمان و انرژی نیاز دارد که می تواند سرعت شبکه عصبی را کند کند. محاسبات فوتونیک، با استفاده از سیگنال های نوری، یک راه حل امیدوارکننده است.
در مقاله خود که در Nature منتشر شده است، محققان یک پردازنده یکپارچه ایجاد کردند که مزایای نور و الکتریسیته را به روشی تمام آنالوگ ترکیب می کند. آنها آن را ACCEL می نامند که مخفف عبارت «تراشه تمام آنالوگ ترکیبی از محاسبات الکترونیکی و نوری است».
فانگ لو، محققی از تیم Tsinghua در خبری گفت: ما مزایای نور و الکتریسیته را تحت سیگنالهای تمام آنالوگ به حداکثر رساندیم، از معایب تبدیل آنالوگ به دیجیتال جلوگیری کردیم و گلوگاه مصرف انرژی و سرعت را شکستیم. رهایی.