。考虑作者 :是数据德科技 。高档副总裁Marie Hattar。中心
人工智能(AI)对核算资源的架构贪婪需求推进了基础设备的革新,业界正着力处理怎么满意AI在功率、推动可扩展性以及功率等方面的模化需求。这促进很多出资涌入,落地旨在从头配置数据中心架构,考虑以更好应对上述及其他技能要求。数据问题的中心中心在于,智能性的架构构建需求巨大的算力支撑 。跟着AI杂乱度以每年一个数量级的推动速度递加,数据中心有必要快速扩展 。模化一个直观的落地参照可以阐明这一需求增加的速度 :到2027年,AI作业负载的考虑动力消耗将超越阿根廷的年用电量。
。没有全能之法 。
AI正在从头界说各类数据中心的架构 ,包含超大规划数据中心、现场数据中心 、主机保管数据中心和边际数据中心。迄今为止 ,咱们的注意力首要会集在超大规划数据中心的竞赛上 。指数级增加的核算资源需求正在催生站点容量超越1GW的AI集群。麦肯锡猜测,到2030年,欧洲和美国60%以上的AI作业负载将保管在超大规划基础设备上 。
。从超大规划。数据中心 。到边际 :架构。的演进。
数据中心有必要可以支撑像大型言语模型(LLM)练习这样的AI作业负载。这就需求对设备的规划和架构进行全面晋级。每个机架的功率有必要增加到200-300kW,以支撑密布型核算,并装备增强冷却处理方案以满意这种密布性需求 。GPU和TPU等专用硬件有必要与扩展的存储体系相集成 ,以应对海量数据的办理需求 。为完结硬件的独立办理和扩展,别离架构正被广泛布置,支撑不同作业负载高效运用资源 。为了习惯AI的流量形式,网络架构也需求进行更新,不然AI集群可能会堕入“数字交通堵塞”——强壮的数据处理才能因数据瓶颈而无法发挥其应有的效能。
除了超大规划设备外 ,AI正在推进对去中心化基础设备的需求,以支撑本地数据处理 。这需求专为边际作业负载规划的数据中心——在较小的物理空间和较低能耗下完结高功能。到2030年,跟着越来越多的处理使命向边际搬运,该商场估计将超越1600亿美元 。
该增加源于自动驾驶等运用中,关于愈加靠近终端用户的实时处理才能的火急需求 。在这些运用中 ,更快的决议计划速度至关重要。该办法可以下降推迟,更好地支撑这个由物联网和5G技能驱动的超衔接国际。
跟着AI运用的日益老练,推理作业负载的增加快度现已远超模型练习。基础设备也需求习惯这种从练习到推理的改动——DeepSeek R1和OpenAI v3的成功有赖于此 。这类推理体系运用经过练习的模型来评价实时数据 ,然后高效地做出决议计划或完结使命 。
边际衔接设备将产生很多的数据。因而,数据中心需求到达必定规划