科华数据 · 液冷技术 11月7日,在ChatGPT推出近一年后,美国人工智能公司OpenAI举行了首届开发者大会。大会上,OpenAI的首席执行官宣布了GPT-4、ChatGPT的重磅更新:ChatGPT的周活用户数达到1亿人,已经有200万开发者正在使用OpenAI的API(应用程序接口),92%的财富500强公司正在使用OpenAI的产品搭建服务。 AI大模型飞速增长,带来的是算力的高需求,人工智能训练任务中使用的算力正呈着指数级增长,GPU单颗芯片功耗逐渐增大,如NVIDIA 2023年Q1发布的HGX Grace Hopper Superchip Platform,其TDP高达1000W,以单台机8卡计算,一台服务器或将达到10KW左右,解决GPU散热问题迫在眉睫。 硬件算力的提升一直是人工智能快速发展的重要因素。如果按照现在AI大模型的发展趋势,以此为据进行推算,就会发现一个棘手的问题,我们要满足超高算力需求,就需要用全新的系统以及技术来保障高算力行业的健康发展。 数据中心作为算力的承载者,体积愈发庞大,大型数据中心成为未来的发展趋势,伴随着大型数据中心增长,新技术的涌现也尤为火热。液冷数据中心面对高算力需求,从容不迫,带来更佳解决方案,让类似AI大模型此类高算力行业得以施展拳脚。 液冷作为一种高效的冷却技术,可以解决高功率、高热流密度、高计算密度的芯片和系统散热问题。液冷技术利用液体高比热容/蒸发潜热优势,实现对发热元器件精准散热,完美解决高功率密度机柜散热问题,经过几十年发展,已被广泛认为是解决散热挑战最行之有效的方法。 科华液冷技术利用液冷散热优势,推出了液冷数据中心全生命周期服务,其液冷解决方案帮助数据中心高密服务器解决散热问题,冷板式和浸没式液冷解决方案,通过液冷机柜、内部循环模组、换热冷却、内外控制等设备,直接为服务器关键发热元件进行热交换。 科华板式液冷微模块数据中心可实现15kW/柜以上的高功率密度散热需求,各功能部件预安装及预调试,进场即用,交付速度提升50%,模块化设计,可灵活配置,满足快速扩容需要,实时监测相关动环设备,各设备关键信息一目了然。 液冷技术大幅提升了算力输出能力,使服务器可以在相对的低温环境中满载运行。避免设备局部热点的同时,甚至可以超频运行,其可靠性得到大幅提升,由此高算力的输出,有了稳定可靠的保障。 算力作为核心生产力,推动着各行各业的发展,如何让算力绿色稳定,支持高算力行业快速发展,也是科华人一直在思考的问题,液冷技术作为数据中心高新技术,解决数据中心散热痛点,科华数据将继续利用其数据中心全生命周期服务优势,强力打造大型液冷数据中心项目落地,推动高算力行业绿色健康发展。