آیا مراکز داده ایالات متحده در گزارش انرژی جدید به کنگره نمرات خوبی دریافت خواهند کرد؟ | دانش مرکز داده

قانون انرژی ایالات متحده در سال 2020 از وزارت انرژی خواسته است تا مطالعه آزمایشگاه ملی لارنس برکلی (LBNL) در سال 2016 را با عنوان “به روز کند.گزارش مصرف انرژی مرکز داده ایالات متحدهدر Data Center World 2024، برگزارکنندگان رویداد از نویسندگان گزارش دعوت کردند تا به‌روزرسانی‌هایی در مورد پیشرفت و همچنین یافته‌های اولیه ارائه کنند. پس از انتشار، این گزارش باید مقایسه جالبی با مطالعه سال 2016 ارائه کند.

آرمان شهابیدانشمند کارکنان سیاست انرژی/زیست محیطی در LBNL مفروضاتی را ارائه کرد که برای گردآوری آخرین گزارش بر اساس افزایش سخت افزارهای تخصصی، هوش مصنوعی و محاسبات لبه و همچنین تقاضای داده در حال رشد در دنیایی که به طور فزاینده ای به هم پیوسته است، استفاده می شود.

او دستاوردهای مراکز داده در بیست سال گذشته در مقایسه با چند سال اول هزاره را برجسته کرد. بین سال های 2000 تا 2005، مراکز داده مصرف برق خود را در ایالات متحده دو برابر کردند. بخش عمده ای از این مصرف از سرورهای حجمی و خنک کننده/توان مرکز داده تامین می شد.

شهابی گفت: “بیشتر پیش بینی ها در آن زمان انتظار داشتند که استفاده از برق مرکز داده به سرعت گسترش یابد.” ما معتقد بودیم که در نهایت قدرتمان تمام خواهد شد.»

خوشبختانه مصرف کاهش یافت. بین سال‌های 2010 تا 2018، علیرغم افزایش چشمگیر محاسبات و ذخیره‌سازی، مصرف برق در مراکز داده تنها 6 درصد در سطح جهان افزایش یافت.

شهابی گفت: «نمونه‌های محاسباتی 550 درصد افزایش یافتند، اما ما بسیار کارآمدتر شدیم.

مدل سازی مراکز داده در سال 2020 پیش بینی کرد که کار بیشتر در مورد بهره وری انرژی به طور بالقوه می تواند تقاضای محاسباتی را دو برابر کند. با این حال، این امر نتوانست دیوانگی هوش مصنوعی و عرضه پردازنده‌های گرافیکی پیشرفته را پیش‌بینی کند. محققان در حال حاضر این عوامل را در نظر می گیرند زیرا آنها برای تکمیل به روز رسانی اصلی گزارش امسال عجله دارند.

مطالعه ای جدید برای جهانی که به سرعت در حال تغییر است

شهابی از نزدیک با سارا اسمیت، انرژی و محیط زیست دانشمند تحقیقات سیاست در LBNL. او داده‌ها را جمع‌آوری کرده و فاکتورهای بیشتری را به تجزیه و تحلیل اضافه کرده است، از جمله کریپتو، مصرف کربن، مصرف آب و سایر پارامترها. اسمیت همچنین در حال پیچیده کردن قدرت طراحی حرارتی (TDP) و چگونگی آن است توان نامی و حداکثر توان ممکن است برای انواع مختلف سرور متفاوت باشد.

اسمیت در مرکز داده گفت: «ما فرض می‌کردیم که حداکثر قدرت عملیاتی سرورهای هوش مصنوعی برابر با TDP است، اما همچنین در نظر داریم که اگر حداکثر توان را 80 درصد TDP محاسبه کنیم، مدل‌های ما ممکن است دقیق‌تر باشند».

علاوه بر این، محققان در تلاش هستند تا متوسط ​​نرخ استفاده از سرور را در طول یک سال کامل تخمین بزنند – با در نظر گرفتن زمان خرابی. فرض فعلی استفاده 70% است، اما ضریب عدم قطعیت از 30% تا 80% متغیر است. کار بیشتری باید انجام شود تا این به درستی برای دقت مدل تعریف شود.

دنیای مرکز دادهآرمان شهابی (چپ) و سارا اسمیت (راست) در Data Center World

آرمان شهابی (چپ) و سارا اسمیت (راست) در Data Center World 2024.

شهابی گفت: میانگین میزان استفاده از سرور بر اساس نوع استفاده و نوع مرکز داده متفاوت است. ما در تلاش هستیم تا دامنه عدم قطعیت خود را محدود کنیم.»

هوش مصنوعی مدل‌سازی و پیش‌بینی را سخت‌تر می‌کند. اما صرف نظر از یک منطقه گسترده عدم قطعیت، همه موافقند که مصرف برق بین سال‌های 2024 تا 2030 افزایش خواهد یافت.

شهابی می‌گوید: «مصرف برق ذخیره‌سازی و شبکه نیز در حال رشد است، اما به نرخ‌های CPU و GPU نزدیک نیست.

مفروضات سیستم خنک کننده

گزارش 2024 تأثیر مایعات و سایر اشکال خنک کننده را در نظر می گیرد. این یکی دیگر از زمینه های عدم قطعیت برای محققان است.

شبابی گفت: هوش مصنوعی استفاده از خنک کننده مایع را هدایت می کند. اما نگرانی‌های کمبود آب و پایداری، مراکز داده بزرگ را از سیستم‌های آب چیلر به سمت سیستم‌های توسعه مستقیم دور می‌کند.

او از انجمن‌های صنعتی و مالکان درخواست کمک کرد تا دقیقاً مشخص کنند که همه مراکز داده در ایالات متحده کجا هستند، به‌ویژه مراکز داده‌های ابرمقیاس‌کننده‌ها و استخراج‌کنندگان سایپتو. علاوه بر این، تخمین‌هایی از اثربخشی مصرف انرژی (PUE) و اثربخشی مصرف آب (WUE) برای مراکز داده‌های هوش مصنوعی کوچک، متوسط، هایپراسکیلر و خنک‌شونده مایع انجام می‌شود.

علیرغم تمام زمینه هایی که هنوز باید به طور دقیق محاسبه و گردآوری شوند، تخمین های اولیه برق مرکز داده برای ایالات متحده همان طور است که انتظار می رود: افزایش شدید مصرف برق در سراسر جهان.

شهابی گفت: “ما هنوز نمی دانیم که هوش مصنوعی چقدر تقاضای برق را افزایش می دهد، اما می دانیم که به سرعت افزایش خواهد یافت.”

شکاف داده ها باقی می ماند

همانطور که در بالا ذکر شد، شکاف‌های داده‌ای زیادی وجود دارد که تحلیل را متوقف می‌کند. سایر زمینه‌هایی که تحت مطالعه قرار می‌گیرند عبارتند از اینکه مراکز داده از شبکه چه مقدار برق مصرف می‌کنند و چه مقدار از سایر منابع برق در محل استفاده می‌کنند.

با این حال، هیجان در مورد یافته های فاش شده در گزارش نهایی در حال افزایش است. ظهور هوش مصنوعی به این معنی است که برنامه‌ریزان می‌توانند ببینند که چگونه بر شبکه تأثیر می‌گذارد، چگونه شبکه واکنش نشان می‌دهد و با چه سرعتی کارایی و پیشرفت‌های فناوری می‌تواند با رشد همگام شود. این به محققان و مقامات بینشی در مورد چگونگی تأثیر فشار فعلی برای انتقال به وسایل برقی الکتریکی و برق‌رسانی ساختمان‌ها و سایر صنایع ارائه می‌دهد.

شهابی گفت: «در گذشته، شرکت‌ها اغلب نیاز به ظرفیت را بیش از حد برآورد می‌کردند. ما می‌خواهیم ببینیم که آیا این هنوز در مورد هوش مصنوعی وجود دارد یا خیر.

برخی بر این باورند که در ایالات متحده به اندازه کافی قدرت وجود دارد، چه در حال حاضر یا در حال توسعه، برای پوشش هرگونه افزایش ناشی از هوش مصنوعی. مشکل این است که قدرت در جایی که باید باشد نیست.

اسمیت گفت: “ما کمبود برق را بیشتر به عنوان یک مشکل محلی به جای یک مشکل ملی پیش بینی می کنیم.”

او به فرصتی برای مراکز داده در پاسخ به تقاضا اشاره کرد. بسیاری از مراکز داده دارای ژنراتورها و سایر اشکال برق پشتیبان هستند که به ندرت مورد استفاده قرار می گیرند. برخی از مناطق مایل به پرداخت هزینه ای به مراکز داده هستند تا منابع تولید پشتیبان خود را در حالت آماده به کار قرار دهند. اگر شبکه به برق بیشتری نیاز داشته باشد، به مرکز داده اطلاع می‌دهد تا به تولید پشتیبان تبدیل شود. مرکز داده در تمام طول سال برای سرویسی که ممکن است فقط برای چند ساعت اینجا و آنجا ارائه کند، پرداخت می شود.

ساده سازی هوش مصنوعی

چیزی که این گزارش ممکن است نتواند به آن توجه کند تأثیر نوآوری بر مصرف برق هوش مصنوعی است. نرم افزار برای کار بهتر با پردازنده های گرافیکی ساده شده است. زیرساخت‌های هوش مصنوعی و اتصالات یکپارچه‌تر در حال ایجاد هستند که هوش مصنوعی را بدون مصرف انرژی بسیار تسهیل می‌کنند.

مایکل آزوف، تحلیلگر ارشد در Omdia، خاطرنشان کرد که شرکت‌ها بیشتر به مدل‌های کوچک‌تر و متمرکز تمایل دارند تا اینکه غول‌های ChatGPT را توسعه دهند.

آزوف گفت: «در حالی که ChatGPT دارای 1.8 تریلیون نقطه داده است، مدل‌های کوچک‌تر از 2.5 میلیارد نقطه داده در حال ظهور هستند که می‌توانند نتایج خوبی برای شرکت‌ها فراهم کنند.» یک کسب‌وکار با موفقیت چنین مدلی را با استفاده از CPU ساخته است، نه پردازنده‌های گرافیکی که نیازهای پردازشی را تا حد زیادی کاهش می‌دهد.