OpenAI训练GPT4算力的落地利用率大概是35%。 这是业内普遍的水平,对于许多企业而言,精度提升算力利用率就像中彩票一样难得。盲盒 AI训练面临的难题能解是算效彩票,AI推理落地面临着精度盲盒问题。全局 AI想要在垂直场景落地,智算模型的落地精度要达到95%以上,但因为各种因素的效彩影响,实际落地时的票和精度就像是开盲盒一样。 “大模型发展落地过程中,面临的难题能解万卡时代的算效彩票,深入行业的全局精度盲盒,以及高效调用的服务瓶颈,愈发需要系统性AI计算方案提供全方位、全周期支持。”宁畅总裁秦晓宁在2024年度战略发布会上宣布了全局智算的战略及新品。 宁畅总裁秦晓宁 秦晓宁介绍,宁畅的全局智算具备六大全特性,涵盖软硬件全体系及全液冷产品,提供从咨询到运维的全流程服务,满足全行业用户大模型开发、适配、部署的全场景需求,并按用户发展阶段,定制专业且性价比高的AI计算方案。 如今的全局智算战略,离不开宁畅成立之初义无反顾地研发当时不火的AI服务器。 从买更多服务器的百模大战,到需要软硬一体方案的商业化落地 去年最疯狂的时候,国内每隔一天就会有一个AI大模型出现。 在这个百模大战的时期,大模型公司的第一要务是购买更多更快更强的算力,也就是买更多GPU服务器。 当服务器集群数量达到万卡甚至十万卡,算力的净增长和服务器数量的增加不再是线性关系,需要从软件、算法以及整体的优化解决低算力利用率的问题。 “2024年,大模型从参数的竞赛走向了商业化、产业化的落地阶段。”秦晓宁说,“这个阶段不仅要提供算力硬件,大需要在算力、算法、数据三个维度来提供更需要更强的支撑。” 大模型的落地需要考虑的因素更加复杂,包括安全性、部署速度,稳定性等。 安全性关乎所有AI落地的场景,因为数据涉及到内部信息、客户数据等,这些数据高度敏感,需要考虑数据的安全合规性,只有做好高质量数据的治理、清洗、标注等一些列工作,才能让大模型在具体场景中落地时不是开盲盒。 保证安全的前提下,部署时间也非常关键。调查数据显示,超过64%的企业部署AI应用的时间周期是90天甚至更长。想要加速AI的落地,需要解决训练和推理之间团硬件数据无缝实时对接的问题,还需解决部署阶段的冗余等问题。 实际应用的阶段,稳定性非常关键,这要求有一个稳定的运行环境,同时对健康能耗状态全面的监管。 显然,应对大模型对算力的需求既不是简单的硬件堆叠,也不是单纯的硬件能力就能解决,需要的是软硬件的全栈能力。 所以宁畅推出全局智算战略。 “原来我们更多的精力是放在基础硬件架构上,是在某一个点上加深专业度,现在我们下定决心,要把所有东西整合在一起,这对宁畅的要求更高。”秦晓宁说,“但是我们可能给客户、最终行业带来的改变更大。” 全局智计算如何提升AI的算效和精度? 宁畅最新推出的全局智算战略,包含了六个层面。 最底层的硬件资源层,有通用的服务器、GPU、整机柜、存储、网络多种形态的产品。 “硬件层上面的集群设计层,不是将海量硬件简单连接堆叠就能服务客户的场景。宁畅会分析整个业务运行的特征和系统的量化需求,提供从微架构、网络、存储、AI模型特征等一系列的方案化的设计。”秦晓宁介绍。 再上一层是算子优化层,宁畅提供了AI算子自由化能力,目的是为了减少模型执行时间,降低资源消耗。 算子优化层之上是AI中台层,全面支持NVIDIA AI Enterprise(NVAIE),也有宁畅自己的中台NAIOM,可以提供基于AI算力系统深度整合的工作栈。 在AI中台层之上就是业务层和场景层。 宁畅CTO赵雷介绍,“我们的全局智算,包含的是硬实力(硬件)、软动力(软件)、服务力(服务)三部分,剩下的三部分是通过这三个能力实现。” 硬件一直以来都是宁畅擅长并且专业的部分,也是全局智算的硬实力,具体体现在可实现多种交付形态灵活组合。 其中,宁畅B8000液冷整机柜服务器作为AI算力栈最具亮点的交付形态,采用电、液、网三路全盲插设计,部署周期相较传统方式提升30倍。 在全局智算的软件层面,基于系统工程及算法模型,以AI算子全栈优化能力,为AI业务提供并行加速、性能分析、模型开发优化等服务支持,构建出从算力资源定制,到模型适配优化,再到高效部署落地的大模型算力服务闭环,帮助用户极速推进AI应用开发及管理。 “与以往不同,我们为什么要做软件?”赵雷分享,“我们需要计算能力分析,找到算力的缺口;也需要找到网络拥堵的地方升级网络;还需要根据AI应用,让机器的负载时最好的选择。这些都需要软件才能进一步提升AI的运算能力和产品使用率。” |