主办方:合作
官方网站:
科技日报记者 操秀英
8月8日,2024开放计算中国峰会在北京举行,开放计算如何加速人工智能发展成为大会焦点话题。会上,“开放算力模组(OCM)”规范项目正式启动。
开放算力模组规范首批成员包括中国电子技术标准化研究院、百度、浪潮信息、英特尔、AMD、小红书、联想、超聚变等,希望建立基于处理器的标准化算力模组单元,统一不同处理器算力单元对外高速互连、管理协议、供电接口等,实现不同架构处理器芯片兼容,推动算力产业高质量快速发展。该规范预计将于今年年底出台。
浪潮信息服务器产品线总经理赵帅认为,开放计算的本质是通过建立开放标准,倡导自由竞争,让领先的技术成果实现更快速、更广泛的应用落地。“它的核心价值在于降低技术获取成本,推动创新技术普及,虽然大家对开源利弊的讨论一直存在,但我认为,推动开放计算一定是利大于弊。”
全球化的开放合作正在推动人工智能的发展。在大模型领域,开源算法被众多公司的大模型平台所引用,2/3的大型语言模型都选择了开源。Meta最新发布的Llama3.1模型的参数规模达到403B,是目前参数规模最大的开源模型。作为一款开源模型,Llama模型性能与闭源模型不相上下,甚至在许多方面超越了闭源模型,业界认为这是开源取得的重大胜利。
在算力领域,开放计算也在推动AI的快速发展。开放加速规范(OAM)已成为全球最多高端AI加速芯片遵循的统一设计标准,全球20多家芯片企业支持开放加速规范标准,为AI芯片企业节省研发时间6个月以上,为产业节省数十亿元研发投入,极大降低了AI算力产业创新的难度。
当前,生成式AI快速发展,AI算力正在快速渗透至金融、通信、公共事业等更多企业应用。“为了支撑千行百业最广泛的场景,让AI大模型应用与云、大数据、数据库等通用场景实现更为紧密高效的融合。”赵帅说,未来AI将与企业计算、云计算融合,一切计算皆AI,通用算力也要具有AI计算的能力。
CPU是AI计算不可或缺的一部分。浪潮信息服务器产品部产品规划经理罗剑分析,目前,CPU处理器有10多种,不同CPU处理器的接口和管理协议都不同,每款处理器都要经历从芯片到服务器的12个月左右的产品研发,CPU处理器的研发亟须实现标准化。
在CPU多元化发展的趋势下,如何快速完成CPU到计算系统的创新,使其能够适用于AI推理负载,已经成为缓解当前AI算力稀缺、推动人工智能发展的关键环节。因此,建设开放算力模组 (OCM)规范被提上日程。据介绍,该项目规范将兼容x86、ARM等多架构芯片的多代处理器,方便用户根据应用场景灵活、快速组合。“OCM这一产业内部开放规范的制定,能够为用户提供更多通用性强、绿色高效、安全可靠的算力选择。”赵帅说。
(图片由受访者提供)