"); //-->
处理器和数据中心架构正在发生变化,以满足运行 AI 和大型语言模型 (LLM) 的服务器的更高电压需求。
曾经,服务器运行时耗电量只有几百瓦。但在过去几十年里,由于需要处理的数据量大幅增加,以及用户要求更快处理数据,情况发生了巨大变化。NVIDIA 的Grace Blackwell芯片消耗 5 到 6 千瓦,这大约是过去服务器功耗的 10 倍。
功率是电压乘以电流。“如果我需要 5 千瓦,我可以在 120 伏的标准电压下实现,” Rambus的杰出发明家 Steven Woo 说道。“但我需要 40 安培的电流,这是很大的电流。”
这类似于你在五金店购买的那种电线。“超大电流电线有很多不同的直径,而且非常粗,”Woo 说。“以前大家都认为服务器的功率可能是 1 或 2 千瓦,对于 120 伏电压,你只需提供 10 安培的电流。现在,由于功率需求高得多,如果我将电压保持在 120 伏,我必须提供四倍甚至更高的电流,但电线无法承受这么大的电流。它们会熔化。”
如果不能提高电流,那么另一个选择就是提高电压。“电流乘以电压必须等于 5 千瓦,”Woo 指出。“如今服务器的电压为 48 伏,而以前是 12 伏。现在 NVIDIA 正在讨论 48 伏,他们将电压提高了四倍,这使得他们能够在保持电流不变的情况下将功率提高四倍。”
这种变化反映在电源上。西门子 EDA 嵌入式电路板系统部市场开发经理 Rod Dudzinski 指出:“我们看到客户在构建大型数据中心时,寻求不同的途径来提供运行机架式系统所需的电力。一些数据中心公司正在借鉴高性能电源模块和相关电力电子产品的理念和概念来实现这一目标,例如高效的电源转换为热效率再到终身可靠性。到 2025 年,传统数据中心的功耗预计将增加 50%,因此,电路板级电源转换效率和功率密度对于系统架构师来说是首要考虑因素,应将其作为减少系统中每个 PCB 配电网络 (PDN) 损耗的手段。”
类似的变化也反映在 EDA 中。Movellus 战略营销副总裁 Lee Vick 表示,数据中心电源领域正在发生的事情与 EDA 领域正在发生的事情有相似之处。“在芯片设计领域,我们过去的情况是,通过 EDA 工具流程单独制作晶体管,但这些工具是一系列不同的工具——布局工具、时序工具、布线工具。最终,我们不得不转向一个集成这些工具、集成流程和集成数据的世界,以满足现代世界的性能需求。现在,即使是 EDA 公司也不会止步于设计,因为你必须管理芯片的生命周期,从设计到测试和制造,一直到现场,在那里他们会对设备进行检测并捕获遥测数据,以反馈到设计过程中并改进测试。这是一个完整的生命周期。这是一个完全集成的垂直流程(即使它在时间框架上是水平的),这是至关重要的。”
类似的趋势也适用于数据中心的电力。“以前,当你设计芯片时,你会有一个电力预算,”维克说。“或者,如果你是一名工程师,你被赋予一个模块来设计,你会有一个针对该特定模块的电力预算,你不敢超出这个预算。但这就是你需要关心的一切——输入和输出。现在情况已经不同了。在数据中心,我们看到需求已经远远超出了子集或芯片,扩展到主板、机架、数据中心层面。当你谈论对全球范围内有意义的能源需求时,是时候将所有这些都付诸实施了。”
这里的连锁反应很重要,而不仅仅是必须将功耗降至最低。“每个人都必须将功耗降至最低,”他说。“有限制,有需求,有变化正在发生,你必须能够对它们做出反应。另一个关键的事情是,我们已经远远超越了假设,超越了‘这是未来的事情’的夸张。在最近的 DAC 上,我们有一个小组,讨论的是管理千瓦功率预算。我们有来自 IC 设计、EDA、IP 和系统设计的行业专家。所有这些部分都发挥了作用。这不是 IP 提供商、芯片设计师或 EDA 公司可以单独解决的问题。这需要每个人共同努力。同样,在数据中心,我们必须改善分配和冷却,这只会在宏观层面增加能耗。但现代数据中心的芯片和芯片内部的大量芯片和计算元件的规模只会加剧这种情况。”
Ansys首席应用工程师 Ashutosh Srivastava认为,这种情况是双向的,因为芯片设计会导致功耗激增,因为最新的 AI 芯片(包括 GPU)在进行更大、更快的计算时会消耗更多能量。在某些情况下,每台服务器的功耗超过 2 千瓦。“与此同时,芯片架构师也在寻求设计一种芯片来优化功耗而不影响性能,因为它们的运行成本会更高——不仅是电力成本,还有冷却基础设施。”
此外,数据中心的上游配电也正在发生变化,以适应更大的电力需求,其中包括将机架中的分布式总线电压从旧的 12V 更改为 48V。Srivastava 表示:“通过将电压提高 4 倍,电流减少了 4 倍,传导损耗减少了 16 倍。机架中的每个转换器也经过重新设计,以提高效率。通过转换器的放置,可以优化与芯片直接供电相关的功率损耗。将芯片的电源直接堆叠在顶部有助于减少这种功率损耗。”
新数据中心考虑因素
数据中心设计的另一个重要考虑因素是其位置。“通常,这些数据中心位于城市地区,因此数据中心的能源效率不高——与人口的电力需求竞争可能会限制其容量,”Srivastava 说。“因此,一些地区禁止建造新的数据中心,如果情况紧急,数据中心将需要减少其电力负荷,以便为社区的其他重要区域供电。这意味着要么制造节能的计算硬件,要么寻找替代电源。这导致了另一种趋势,大型数据中心现在正在考虑建造自己的发电厂来提供所需的电力,尤其是来自可持续和可靠来源的电力。这可能采用传统的太阳能或风能与储能相结合的形式,甚至正在开发中的小型模块化核反应堆 (SMR)。”
数据中心的电源管理是一项不断发展的挑战。Cadence 产品工程总监 Mark Fenton 表示: “IT 负载在一天中可能会发生很大波动,受到各种应用程序需求的影响。” “机柜的功率是一组复杂的变化变量——其当前用电量、未来项目的预算容量以及最大设计限制。反过来,电力分配和容量可以在多个数据中心之间共享。”
例如,在共置环境中,用户不断调整对共享系统的需求,几乎不了解 IT 已安装或即将安装的内容。“新的 GPU 工作负载表现出不同的功率行为,通常会导致大量且几乎瞬时的功率峰值,”Fenton 说。“这些波动对数据中心电力基础设施构成了重大的故障风险,这是一个主要问题。为了优化效率并最大限度地利用可用功率,利用三相电源是有益的。但平衡相位以防止效率低下至关重要。”
电压转换中的功率损耗
数据中心的电压转换涉及多个转换和调节阶段,这可能导致严重的功率损耗。“如果我的服务器现在有 48 伏电压,那么问题在于芯片本身仍然需要在 12 伏或 5 伏,甚至 1 伏电压下运行,”Rambus 的 Woo 说道。“这意味着必须降低电压。但每次降低电压时,都会损失一些功率,因此效率会开始下降。这是因为转换电压水平需要功率,所以这是一个大问题。转换不同的电压会消耗大量功率。”
这意味着数据中心基础设施必须将建筑公用设施电源转换为机架级的单相或三相电源。“电压可能会从 13.8 kV(中压)降至 480 V 或 208 V(低压),随后降至 240 V 或 120 V,”Fenton 说。“部分负载下的效率往往更高,而且由于大多数电源采用 2N 冗余供电,因此系统的很大一部分在这些部分负载条件下运行。”
Ansys 高级应用工程师 Steve Chwirka 指出,损耗始于将公用电源从 480V 交流电降压的大型变压器。“这种新的较低交流电压通过多种类型的电缆和 PDU(配电单元)进行分配,这些 PDU 基本上是非常大的母线。所有这些都会导致系统中的传导损耗。有几种电源转换级别也与功率损耗有关。其中包括不间断电源 (UPS),它在故障条件下为机架供电,时间刚好够备用发电机启动。主要的转换发生在机架上,交流电压转换为高压直流,然后通过电源单元 (PSU) 转换为较低的直流电压。这个直流电压现在要经过几个级别的转换,才能到达实际的芯片。”
在每个级别,功率损耗量都不同。从公用设施输入到芯片,Chwirka 对功率损耗进行了一些估算。“电力变压器是非常高效的机器,损耗仅为 1% 到 2%。UPS 系统的效率会根据其设计和负载条件而有所不同。提供最高级别保护的在线 UPS 系统的效率通常为 90% 到 95% 之间。因此,它们会损耗 5% 到 10% 的电力。PDU 也有一些固有损耗。这些损耗会导致大约 1% 到 2% 的额外损耗。现代 PSU 的效率通常为 80% 到 95% 之间。这意味着在从交流转换为直流的过程中可能会损耗 5% 到 20% 的功率。额外的转换器(有时称为中间总线转换器 (IBS))将机架的 48 V DC 转换为 8 到 12 V DC,效率可高达 98% 左右。由于尺寸限制,芯片所需的低电压的最终转换效率比IBC略低。”
关于电力输送你需要知道什么
在设计数据中心环境时需要考虑很多因素,其中最重要的事情之一就是高电压周围的基础设施。“如果高电压进入系统,你需要知道如何将电压降低到你需要的水平,”Woo 指出。“可能是一些外部电路在进行降压。有一些片上方法可以在小范围的电压上进行电压管理。最重要的是真正了解你的芯片将消耗多少电量,并了解这些电量来自哪里。这通常是一个系统级问题。还有关于老化的问题,因为有时芯片升温时会发生膨胀。制造芯片的不同材料的膨胀速率都不同,如果进行热循环(即在高温和低温之间频繁切换),这可能会导致开裂和其他可靠性问题。”
架构也有影响。Ansys 研究员 Norman Chang 解释说,随着 3D-IC 芯片组越来越大,芯片架构师需要考虑将电源垂直分配到芯片组,例如 Tesla D1 Dojo 芯片中的电源系统设计。“架构师还需要考虑热分布,因为通过系统技术协同优化,3D-IC 中放置了数十个芯片,”他说。“3D-IC 中的模拟/混合信号设计需要放置在对峰值计算工作负载产生的热/应力变化不太敏感的位置。
最终,数据中心电力输送方面的挑战将落入芯片和系统架构师的视野。Movellus 的 Vick 表示:“作为一名计算机架构师,我非常注重数字化和处理器。后来我开始为硬 IP 公司工作,他们会问‘你们的供电有多少个脉冲?’我会说‘我不知道。电源就在那里。它总是干净的,你不必担心。’但实施和集成等因素很重要——你的电源有多干净,以及你如何布线。我们在架构层面看到的一件事是,当你集成电路的模拟部分时,无论是电源调节、传感器还是时钟,你必须将模拟电压运行到传统数字区域这一简单事实可能会严重破坏你的设计。假设我有一大块消耗大量能源的数字逻辑。我想看看电网上发生了什么。我想看看是否出现了信号下降。但你却想让我把一个模拟传感器塞进所有这些数字门海的中间。这很难做到。”
将模拟设计迁移到数字设计可以让你更自由地进行更多仪表操作并了解正在发生的事情。“这是超出模块功能范围的一个例子,”维克说。“哦,当然,这与实施有很大关系,所以我们正在从深奥的东西转向现实世界,现实世界的实施很重要。这不是我是否可以设计这个东西,或者我是否可以获得最佳的 TOPS/watt 数字。我可以在实际设计中实际实现它吗?我能处理嘈杂的电源吗?我能否处理不再设计得足够坚固以承受我扔给它的任何东西的电网,因为如果你设计那样,你将失去竞争力。所需的裕度和过度设计量表明我再也无法承受那样的设计,这意味着现在我的电网本身受到与我的逻辑相同的设计约束。它正行驶在那条崎岖的边缘,有时它会出现偏移,会出现挣扎,我必须从硬件和软件的角度来考虑这个问题,而不是假设有无限的清洁能源。”
来源:半导体行业观察
--End--
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。