通往AGI路上,DPU将如何构建生成式AI时代的坚实算力基石?

发布于:2024-04-28 ⋅ 阅读:(22) ⋅ 点赞:(0)

4月19日,在以“重构世界 奔赴未来”为主题的2024中国生成式AI大会上,中科驭数作为DPU新型算力基础设施代表,受邀出席了中国智算中心创新论坛,发表了题为《以网络为中心的AI算力底座构建之路》主题演讲,勾勒出在通往AGI之路上,DPU技术赋能下一代AI算力基础设施中的关键作用。

015d7cc3db50680e6489655de1e137da.jpeg

▲中科驭数产品运营部副总经理曹辉受邀发表主题演讲

算力是当前人工智能领域发展的关键,是AI时代的“面包”。要训练百万亿参数超大预训练模型,算力基础设施架构优化是提升算力的首要步骤。当前,DPU算力基础已经发展迭代了4到5年,算力领域对DPU的期望和需求已经涵盖计算、网络、存储、安全等多个领域。

中科驭数旨在通过DPU将计算加速、存储加速、网络加速、安全加速及云原生加速等基础设施层深度整合,构建高性能、高集成的AI服务基础架构。公司已基于此打造出涵盖云原生DPU软硬一体加速、RDMA/RoCE AI计算网络、NVMe-oF高性能存储、灵活存算分离架构、DPU硬件级安全隔离以及数据中心资源池化与统一调度的丰富产品矩阵与解决方案,不仅仅能够助力AI算力底座的整体性能提升,也为用户提供了更高效更完整的基础设施解决方案,有力支撑各类AI应用的快速发展。

以中科驭数自研FLEXFLOW®-2100R RDMA加速DPU卡为例,该加速卡产品能够将高性能、稳定性、便捷性和通用性融为一体,提供2x100GbE网口的连接能力,支持RoCEv2的硬件卸载能力以及无损网络能力,为国产化业务场景提供微秒级时延和百G带宽的RDMA网络环境,为用户提供灵活和高性能的网络解决方案。同时,适配市面上所有主流支持无损网络的交换机,以及国内外主流服务器和操作系统,可以快速接入现有RDMA网络环境。经实测,KPU FLEXFLOW®-2100R在4K以下小文件send、read、write测试场景中,时延数据均在5us以下,最低可达3us,优于国内外主流RDMA智能网卡性能水准。

e15a127ea48cad60768c94c9a162bd03.jpeg

▲ FLEXFLOW®-2100R RDMA加速DPU卡

需要看到的是,随着AI向更多领域渗透,对基础设施的需求将更加多元化、智能化。同样,DPU的成功落地和使用需要经过精心设计和打磨,以满足整个基础设施领域的多样需求。中科驭数将继续秉持着技术创新和开放合作的理念,欢迎服务器厂商、CPU/GPU厂商、操作系统厂商等上下游合作伙伴加入驭数DPU生态,共同推动AI算力底座的发展。