首页   

DeepSeek大模型风靡云平台,百度智能云何以助力AI降本增效?

中国证券报  · 证券  · 6 小时前

正文


DeepSeek热度持续上升,其系列模型已在国内外多家主流云平台完成上架部署。


百度智能云近日宣布,DeepSeek-R1及DeepSeek-V3两款大模型已上架至千帆ModelBuilder平台,价格仅为DeepSeek-V3官方刊例价的3折、DeepSeek-R1官方刊例价的5折,并提供限时的免费服务。


有“AI界拼多多”之称的DeepSeek掀起大模型新一轮价格战,不少云厂商都给出低于DeepSeek官方刊例价的折扣。对比目前已经宣布上架DeepSeek的云厂商以及官方刊例调用价格,百度智能云所提供的价格具有较大优势。


丰富大模型应用生态


DeepSeek以强能力、低成本的特点著称,其陆续开源大语言模型V3、推理模型R1等,允许商业用途和模型二次开发,极大激发开发者的创新潜力。随着越来越多云厂商接入,模型调用价格的下降,围绕大模型应用的生态有望进一步普及和成熟,AI应用全面落地可期。

开源范式下技术创新进步和应用推广的速度将大大加快。云厂商们可以在各自平台提供与DeepSeek-R1及DeepSeek-V3相适配的服务,简化开发流程,更好地满足用户需求。

百度智能云介绍,通过千帆ModelBuilder平台,企业用户可以调用DeepSeek-R1和DeepSeek-V3模型,快速构建符合自身需求的智能化应用。同时,此次模型接入千帆推理链路,支持百度独家内容安全算子,可以实现模型安全增强。支持企业级高可用和稳定性保障,同时支持完善的BLS日志分析和BCM告警,企业级运维服务完善,用户可更轻松更安心构建智能化应用。

目前,百度智能云千帆大模型平台已帮助客户精调3.3万个模型、开发77万个企业应用。这些应用涵盖金融、政务、汽车、互联网泛科技等多个领域,为企业客户提供便捷、高效、经济的大模型使用和开发体验。


强大算力支撑降低模型成本


模型调用价格降低,离不开背后强大且高效运行的算力支持。

过去一年中,整个行业都致力于降低大模型使用的算力成本。百度通过自研芯片和大规模集群的建设,不仅解决了自身算力供应的问题,还为整个行业提供新的思路和方向。

近日,百度智能云宣布成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。百度智能云表示将进一步点亮3万卡集群。

纵观国内外AI大模型厂商的算力配置,单集群万卡已成为“标配”。

从算力上看,超大规模并行计算能力可实现训练效率跃升,万卡集群可将千亿参数模型的训练周期大幅降低,满足AI原生应用快速迭代的需求。同时也能支持更大模型与复杂任务和多模态数据,支撑Sora类应用的开发。此外,万卡集群能够支持多任务并发能力,通过动态资源切分,单集群可同时训练多个轻量化模型,通过通信优化与容错机制减少算力浪费,实现训练成本指数级下降。

但高效管理和运行万卡集群并不容易。事实上,百度昆仑芯万卡集群以及未来3万卡集群的建设和管理,从硬件到软件,技术挑战是全方位的。

百度智能云事业群总裁沈抖强调,构建算力资源,并不是简单地买来GPU,把GPU连接上就好了,而是需要很多技术。比如,GPU芯片的型号更多样,管理更复杂;GPU需要执行大量并行计算;数据的传输量变大、对速度的要求更高。

万卡集群已从单纯的算力供给逐渐向“有效”算力供给过渡,要实现“集群效能最大化”,需要通过模型优化、有效训练率提升、动态资源分配等手段,智能调度任务,将训练、微调、推理任务混合部署,从而最大化提升集群综合利用率,降低单位算力成本,从而真正发挥算力效能。

2024年9月升级的百度百舸AI异构计算平台4.0便致力于应对这些挑战,在万卡集群建设中发挥了至关重要的作用。例如,在多芯混训方面,百舸平台展现了强大的资源整合能力。它能够将不同地点、不同规模的异构算力进行统一管理,构建起多芯资源池。当业务提交工作负载时,百舸可自动进行芯片选型,依据集群剩余的芯片资源,选择性价比最高的芯片来运行任务,从而最大化地利用集群的剩余资源。

接下来的一年有望成为AI原生应用爆发的黄金时期,对大模型训练和推理成本持续下降的预期也会越来越高。作为支撑的算力基础设施如何进一步创新升级底层服务能力,产业界拭目以待。



推荐阅读


突变!罕见跌停

603282,收到警示函

稳!

涨停!“迪王”归位

© 2024 精读
删除内容请联系邮箱 2879853325@qq.com