بزرگترین داستان های مرکز داده هوش مصنوعی که در سال 2024 شکل گرفت

در چند سال گذشته هیچ پیش‌بینی در مورد اینکه چگونه هوش مصنوعی بر صنعت مرکز داده تأثیر می‌گذارد و چگونه مراکز داده به شکل‌گیری تکامل هوش مصنوعی کمک می‌کنند، کم نبوده است. برای مثال به ما گفته شده است که هوش مصنوعی منجر به a افزایش مصرف برق توسط مراکز داده و باعث ایجاد مرکز داده جدید بزرگ شود تلاش ها

در طول سال گذشته، مشخص شده است که کدام یک از این پیش‌بینی‌ها و پروژه‌ها اجرا خواهند شد. ما اکنون شواهدی داریم، به عنوان مثال، در مورد چگونگی هوش مصنوعی به سودآوری شرکت مرکز داده و همچنین برخی از چالش‌ها (مانند کمبود تراشه) که صنعت در استقرار بار کاری هوش مصنوعی در مقیاس بزرگ با آن مواجه است، کمک می‌کند.

با این حال، در همان زمان، پیش‌بینی‌ها و پیش‌بینی‌های هنوز اثبات‌نشده درباره تأثیر هوش مصنوعی بر صنعت مراکز داده در سال 2024 به وفور ادامه یافت. نظرات بسیاری درباره آنچه در آینده در آینده خواهد آمد – مانند معماری‌های جدید «هوش مصنوعی لبه» – و در روشی برای اثبات دقیق بودن آن نظرات.

برای جزئیات کامل در مورد این و سایر روندهای مرکز داده مربوط به هوش مصنوعی، در اینجا به تفکیک برترین ها آورده شده است دانش مرکز داده داستان هایی در این راستا از سال گذشته

الف گزارش ژوئیه 2024 از مودیز در مورد گسترش ظرفیت مراکز داده در پاسخ به رونق هوش مصنوعی قابل توجه بود نه به این دلیل که به ظاهر بدیهی را پیش بینی می کرد – اینکه شرکت ها مراکز داده بیشتری را برای قرار دادن بار کاری هوش مصنوعی در سال های آینده ایجاد خواهند کرد – بلکه به این دلیل که تأثیر پیش بینی شده این گسترش بر روی آن را تعیین کرد. عملیات مرکز داده مهم‌تر از همه، مودیز پیش‌بینی کرده است که هوش مصنوعی بین سال‌های 2023 تا 2028 به طور کلی 23 درصد افزایش مصرف انرژی مرکز داده را به همراه خواهد داشت و انرژی مصرف شده به طور خاص با حجم کاری هوش مصنوعی با نرخ سالانه 43 درصد در مدت مشابه رشد خواهد کرد.

مرتبط:بزرگترین داستان های ساخت مرکز داده در سال 2024: یک سال در مرور

این اعداد پیش بینی هستند و ممکن است اشتباه باشند. اما اگر می‌خواهید از نظر کمی دقیقاً بدانید که هوش مصنوعی چگونه می‌تواند بر عملیات مرکز داده تأثیر بگذارد، این منبع به خوبی هر منبع دیگری است.

گزارش دیگری که در سپتامبر توسط Dell’Oro Group منتشر شد، بینش کمی را در مورد معنای هوش مصنوعی برای مخارج مرکز داده ارائه کرد. این نشان داد که هزینه‌های سرمایه‌ای مرکز داده تنها در سه ماهه دوم سال 2024 تا 46 درصد افزایش یافته است – روندی که اگر ادامه پیدا کند، نشان می‌دهد که هوش مصنوعی در آینده نزدیک به افزایش چشمگیری در سرمایه‌گذاری و هزینه‌های مرکز داده دامن خواهد زد. این رشد نه تنها منعکس کننده خریدهای سخت افزاری هوش مصنوعی بلکه قدرت و خنک کننده سیستم های لازم برای پشتیبانی از دستگاه های هوش مصنوعی در مراکز داده

مرتبط:مراکز داده‌های هوش مصنوعی چالش‌های قانونی ایجاد می‌کنند، اهداف آب و هوایی را به خطر می‌اندازند – مطالعه

بلک راک همچنین در سال 2024 با پیش بینی تأثیر هوش مصنوعی بر رشد مرکز داده وارد عمل شد. اعداد آن کمتر دقیق بود، اما پیش‌بینی کرد که ظرفیت مراکز داده هوش مصنوعی طی چند سال آینده بین 60 تا 80 درصد در سال افزایش خواهد یافت.

در مجموع، شایان ذکر است که این شرکت دقیقاً تعریف نکرده است که “مرکز داده هوش مصنوعی” است یا میزانی که گسترش مراکز داده در این دسته به ظرفیت کلی مرکز داده کمک می کند. با این حال، به‌عنوان نظر شرکتی که کسب‌وکارش پیش‌بینی و سرمایه‌گذاری روی روندهای اقتصادی عمده است، پیش‌بینی‌های بلک راک در مورد نقش هوش مصنوعی در گسترش مرکز داده قابل توجه است.

در یک داده دیگر که حداقل به طور غیرمستقیم با نقش هوش مصنوعی در رشد مرکز داده مرتبط است، Equinix که مراکز داده را در سراسر جهان اداره می کند، افزایش 8 درصدی درآمد خود در سال جاری را تا حد زیادی به هوش مصنوعی نسبت داد. تصادفی نیست، این شرکت نیز به سرعت در میان است گسترش ردپای مرکز داده خود.

Equinix جزئیاتی در مورد اینکه چه میزان از رشد درآمد آن به طور خاص به دلیل حجم کاری هوش مصنوعی است ارائه نکرد و مدیر عامل آن هشدار داد که احساس کردن وزن کامل هوش مصنوعی به زمان نیاز دارد. با این حال، اگر مایل هستید که به طور جدی دست به کار شوید و فرض کنید که همبستگی تا حدودی دلالت بر علیت دارد، یک نتیجه معقول است که رونق هوش مصنوعی – که با موفقیت مالی امسال Equinix مرتبط است – حداقل شروع به پرداخت سود سهام کرده است. اپراتورهای مرکز داده

مرتبط:چگونه LLMs on the Edge می تواند به حل مشکل مرکز داده هوش مصنوعی کمک کند

یکی دیگر از نشانه های تاثیر هوش مصنوعی بر استراتژی های تجاری مرکز داده، چرخش اپراتورهای مرکز داده از امکاناتی بود که استخراج ارز دیجیتال نسبت به آنهایی که بر روی هوش مصنوعی متمرکز شده اند. این حرکتی است که آیریس انرژی به آن توضیح داد دانش مرکز داده امسال

با توجه به اینکه علاقه به ارزهای دیجیتال در سال‌های اخیر به طور کلی کاهش یافته است و همین نوع زیرساخت‌ها و دستگاه‌ها – مانند پردازنده‌های گرافیکی – که در استخراج رمزنگاری عالی هستند، به خوبی به عنوان سخت‌افزار هوش مصنوعی کار می‌کنند، این تغییر منطقی است. اما این روند به همان اندازه قابل توجه است زیرا نشان می دهد که حداقل تا حدی، ظرفیت مرکز داده توسعه یافته برای پشتیبانی از هوش مصنوعی به شکل امکانات استخراج رمزنگاری که برای هوش مصنوعی تغییر کاربری داده می شود، به جای مراکز داده کاملاً جدید، ارائه می شود. از این نظر، استفاده مجدد از مراکز داده ارزهای دیجیتال برای بار کاری هوش مصنوعی می‌تواند میزان سرمایه‌گذاری‌های جدید مرکز داده‌ای را که توسط رونق هوش مصنوعی تقویت می‌شود، کاهش دهد.

نظرات قابل توجه دیگری – البته نه دقیقاً عینی – در مورد نقش هوش مصنوعی در مراکز داده و فراتر از آن، امسال از سوی مدیران اجرایی Nvidia و Meta ظاهر شد. بر اساس اظهارات جنسن هوانگ، مدیرعامل انویدیا، مدیران اجرایی در سخنرانی تابستان امسال در SIGGRAPH، در میان موضوعات دیگر به نحوه استفاده شرکت‌هایشان از هوش مصنوعی در داخل – از جمله برای کمک به مدیریت عملیات مرکز داده برای Nvidia اشاره کردند.

این بحث جزییات فنی کمی ارائه کرد، بنابراین ارائه نکاتی چالش برانگیز در مورد اینکه استفاده از هوش مصنوعی در داخل مراکز داده توسط شرکت‌هایی مانند Nvidia و Meta واقعاً مستلزم چیست، یا اینکه چه چیزی ممکن است برای هوش مصنوعی باشد. تاثیر بر نحوه عملکرد مراکز داده. اما هنوز جالب است که این شرکت‌ها – که البته هر دو محصولات هوش مصنوعی را می‌فروشند، و بنابراین انگیزه‌ای برای پیشبرد روایت نقش محوری روزافزون هوش مصنوعی در کسب‌وکارهای مدرن دارند – باید در مورد استفاده داخلی از هوش مصنوعی صحبت کنند.

افزایش ظرفیت مراکز داده برای میزبانی بارهای کاری هوش مصنوعی یک چیز است. راه‌اندازی زیرساخت سرور واقعی که از این حجم‌های کاری پشتیبانی می‌کند راه دیگری است – و به دلیل کمبود تراشه‌های حافظه با پهنای باند بالا (HBM) که در سال جاری گزارش شد، این خطر وجود دارد که گسترش فضای مرکز داده سازگار با هوش مصنوعی از رشد پیشی بگیرد. سرورهای سازگار با هوش مصنوعی دلیل آن این است که تراشه‌های HBM برای تولید پردازنده‌های گرافیکی استفاده می‌شوند که اغلب برای آموزش هوش مصنوعی و استنتاج استفاده می‌شوند.

این نمونه‌ای از یکی از چالش‌هایی است که صنعت مرکز داده برای حفظ رشد مستمر در پاسخ به رونق هوش مصنوعی باید بر آن غلبه کند.

خنک نگه داشتن زیرساخت های هوش مصنوعی یکی دیگر از چالش های اساسی است که ممکن است مانع از گسترش مداوم مرکز داده شود. این امر به ویژه به دلیل افزایش فرکانس و شدت امواج گرما صادق است. تراشه های هوش مصنوعی تحت هر شرایطی گرمای زیادی تولید می کند، اما زمانی که دمای محیط اطراف مرکز داده به دلیل امواج گرما بالا می رود، دفع گرما سخت تر می شود.

این یک دلیل است فناوری های نوآورانه خنک کننده مرکز دادهکه می‌تواند گرما را به روش‌های کم‌مصرف انرژی دفع کند، احتمالاً به یک عنصر کلیدی در گسترش مداوم مرکز داده در عصر هوش مصنوعی تبدیل خواهد شد.

به اصطلاح Edge AI می تواند به استراتژی هایی برای بهبود پایداری مرکز داده در عصر هوش مصنوعی هوش مصنوعی لبه به این معنی است که حجم کاری هوش مصنوعی به جای اینکه در مراکز داده متمرکز، داده ها را در لبه شبکه پردازش کند. انجام این کار می تواند مصرف انرژی را کاهش دهد و با کاهش میزان انتقال داده مورد نیاز برای استقرار هوش مصنوعی، عملکرد را بهبود بخشد.

در مجموع، شایان ذکر است که فرآیندهای هوش مصنوعی مانند آموزش، صرف نظر از مکانی که انجام می‌شوند – چه در لبه یا در یک مرکز داده معمولی – به مقادیر زیادی انرژی نیاز دارند، بنابراین بعید است که هوش مصنوعی لبه مصرف انرژی را به شدت کاهش دهد. با این حال، به دلیل مزایایی مانند کاهش غلظت گرما (و در نتیجه، کاهش مصرف انرژی توسط سیستم‌های خنک‌کننده)، می‌تواند مزایای پایداری ملموسی داشته باشد، زیرا زیرساخت‌های هوش مصنوعی لبه‌ای تعداد زیادی از تراشه‌های هوش مصنوعی را در مجاورت یکدیگر قرار نمی‌دهند.

برای ارائه یک بررسی عمیق تر در مورد اینکه هوش مصنوعی لبه ای در عمل چگونه به نظر می رسد، دانش مرکز داده یک نوع کلیدی از موارد استفاده از هوش مصنوعی لبه را پوشش داد: مدل‌های زبان بزرگ (LLM) که در لبه مستقر شده‌اند. با استفاده از LLM بر روی دستگاه‌های لبه‌ای مانند تلفن‌های هوشمند، کسب‌وکارها می‌توانند انرژی را کاهش دهند و نیازهایی را که هوش مصنوعی در مراکز داده‌شان اعمال می‌کند، محاسبه کنند. در حال حاضر، استفاده از دستگاه‌های لبه برای این منظور چالش برانگیز است، زیرا اکثر سخت‌افزارهای لبه برای LLM‌ها بهینه‌سازی نشده‌اند، اما این موضوع می‌تواند تغییر کند زیرا سازندگان تراشه‌ها پردازنده‌های سازگار با هوش مصنوعی بیشتری را برای استفاده در دستگاه‌هایی مانند گوشی‌های هوشمند طراحی می‌کنند.


Source link