文章主要介绍了腾讯在AI算力平台调研中的各项工作进展,包括AI领域的产品和服务、市场竞争格局、技术进展以及内部运营效率提升计划等。文章还涉及腾讯AI产品的客户布局、市场竞争态势、国产GPU的应用情况等内容。
腾讯在AI领域的布局主要围绕自研混元大模型展开,通过该模型赋能内部业务,如腾讯会议、腾讯游戏等。同时,腾讯也关注客户需求,积极应对市场竞争,不断提升产品和服务的质量。
在AI领域,市场竞争激烈,各大云厂商纷纷推出自有模型以降低跨域调用延迟,吸引客户。DeepSeek的出现使得模型差异化减弱,竞争焦点转向拼算力成本和服务能力。腾讯在市场竞争中积极应对,通过扩大算力资源、优化运营效率等措施提升竞争力。
腾讯的AI产品已广泛应用于多个领域,如金融、教育、交通等,为客户提供高效、便捷的服务。同时,腾讯也关注客户需求,积极与客户合作,提供定制化解决方案,提升客户满意度。
随着国产化趋势的加强,国产GPU在AI算力领域的应用逐渐增多。腾讯也积极采用国产GPU,但在实际应用中面临兼容性和性能等挑战。未来,随着技术的进步和市场的成熟,国产GPU在AI算力领域的应用将越来越广泛。
腾讯计划在2025年大幅优化运营效率,通过组织优化、岗位调整等措施提升效率。同时,腾讯也将继续投入研发,推动技术创新,为客户提供更优质的服务。
AI算力平台调研:市场竞争,算力储备及国产GPU测试进展,产品落地方向和客户布局
要点:
1.AI领域核心产品及市场份额
2.客户服务模式和新客户的增长
3.市场竞争格局和DeepSeek的影响
4.产品落地方向和合作项目
5.GPU供应问题和国产GPU测试
腾讯在AI领域的整体布局是如何展开的?目前有哪些核心产品和应用场景?
腾讯的AI布局主要围绕自研混元大模型展开,并通过该模型赋能内部业务。混元大模型已广泛应用于腾讯会议、腾讯游戏等B端业务场景,同时也支持多模态模型的开发,并集成至腾讯云进行商业化销售。截至2024年底,混元大模型的日均调用量已超过3亿次。此外,春节期间DeepSeek对腾讯产生了显著影响,目前所有云端B端客户基本上都通过腾讯接入DeepSeek。为了应对需求,腾讯开放了DeepSeek R1和V3版本API供用户调用,并在云算力平台上部署了671B参数规模的满血版DeepSeek模型。截至2025年春节后,DeepSeek API在腾讯云上的日均调用量已达到5,000万次。这一流量增长迅速,对系统稳定性提出了较高要求。
腾讯与同行相比,在AI产品调用次数或市场份额方面表现如何?
根据内部情报,火山引擎的大模型API日均调用量约为2亿次,高于目前腾讯云上5,000万次的水平。但需要注意的是,这些数据可能存在一定误差。此外,由于DeepSeek本身是开源模型,其官方API服务现已停止,因此无法获取其自有平台的数据。
混元与DeepSeek两者在使用比例及应用场景上的差异是什么?
混元大模型目前仍是主要使用对象,其应用范围包括企业内部业务(如微信搜索、智能客服)以及外部产品(如游戏、会议)。相比之下,DeepSeek更多地被用于满足企业客户对私有化部署和定制化服务的需求,例如中国银行通过购买专属算力实现内部知识库构建及业务流优化,截至2025年春节后,这部分业务的销售额已突破千万。目前混元的占比更高,但两者具体比例尚需进一步统计。
腾讯针对企业客户提供哪些具体服务?这些服务如何推动AI技术落地?
腾讯为企业客户提供多种形式的大模型服务,包括公有云免费开放API,以及私有化部署模式。例如,中国银行通过购买专属算力实现了语音客服、智能客服等功能升级,同时支持向量数据库构建。针对不同需求,腾讯推出了一键部署DeepSeek 2.0功能,大幅提升了企业接入效率。这些措施不仅推动了AI技术在金融等行业中的落地,也显著提升了相关云产品销售额。
IMA产品与其他AI项目之间关系如何?其背后的技术支持来源是什么?
IMA并非由腾讯云发起,而是由微信团队主导开发,但底层能力依托于Tencent Cloud所提供的深度学习框架及计算资源。IMA项目基于深度集成后的能力实现,与微信生态紧密结合,为C端用户带来更直观体验。目前,该项目刚刚启动,还未形成完整的数据报表以评估其市场表现。
当前阶段中,是否存在资源分配或硬件瓶颈问题?未来计划有哪些调整方向?
在硬件资源方面,目前卡片储备充足,但to B销售环节仍面临一定挑战。目前公司正在测试国产GPU卡片。在软件层面,由于早期混元质量问题较多,其主要用于企业内部场景,而随着新一代开源大模型(如DeepSeek)的引入,公司正逐步优化资源分配策略,以更好满足C端和B端用户需求。
在尚未使用AI技术的企业中,是否需要通过外包公司进行内部IT系统改造以支持AI应用?贵公司在这一过程中扮演何种角色?
是的,这些企业通常需要借助外部IT服务提供商(如京北方、长亮科技或宇信科技等)进行内部系统的工程化改造,以便能够支持AI技术的应用。腾讯的角色主要集中在提供云计算和底层算力支持,而不涉及定制化开发或外包服务,专注于通用型原子能力的输出,不直接参与客户业务流中的深度定制化工作。
DeepSeek R1推出后,是否观察到政企客户对AI相关IT平台需求的显著增长?具体表现如何?
是的,自DeepSeek R1上线以来,腾讯观察到政企客户对基于AI技术的平台需求出现了显著增长。目前,智能化客服和知识问答类产品占据了70%的云服务采购比例。这些产品相对搭建较为简单,但如果客户希望更深度地应用AI,则需要依赖传统IT外包公司完成业务流改造。腾讯并不直接参与这些定制化开发工作。
DeepSeek R1上线后,对贵公司算力销售额产生了怎样的影响?是否有具体数据可以说明?
DeepSeek R1自春节后上线仅两周时间,其带动算力销售额突破千万人民币。这一成绩远超预期,也促使腾讯重新评估年度OKR目标。2024年公司的总收入约为1,600亿元,2025年的目标是突破2000亿元。从目前趋势看,DeepSeek R1已成为推动算力销售的重要驱动力。
当前市场上其他云厂商也在推出类似DeepSeek R1的解决方案,与其相比贵公司的优势体现在哪些方面?
腾讯的核心优势包括较低的算力成本以及长期积累的大量行业核心用户(如交通、教育、金融及泛互联网领域)。此外,与市场上的其他厂商相比,腾讯更注重通过免费开放API让客户体验产品性能,从而提升用户粘性。然而,目前整个行业面临的问题是各家云部署版本稳定性不足,包括腾讯自身也存在扩展集群速度较慢的问题。
为应对当前显卡供应紧张问题,公司采取了哪些措施?未来是否会调整硬件采购策略?
目前腾讯的主要硬件依赖NVIDIA H100和H200显卡,但由于供应紧张,腾讯正在积极联系国内显卡厂商(如华为和沐曦)进行测试,并计划临时拨付新的预算用于补充采购国产显卡。不过具体预算金额尚未确定。此外,一台八卡H200服务器可支持约100个并发请求,这种配置基本满足单个企业独立模型运行需求。
贵公司现有H100、H200等高性能GPU资源规模如何?能否提供一个大致数量范围?
腾讯现有GPU资源总量达到万级别,但具体数量暂无法确认。目前整体资源仍处于高度紧张状态,以满足不断增长的大模型推理需求。
H200的并发能力如何定义?其与QPS(Queries Per Second)之间的关系是什么?
并发能力与QPS是两个不同的概念。并发指的是同时处理请求的能力,而QPS则是每秒查询次数。在某些情况下,20个并发可能会产生100个QPS。H200支持100个并发的意思是其能够同时处理100个请求,但具体到实际应用场景中,需要根据模型调用频率和负载情况进一步评估。
针对高日活用户场景(如微信)的算力需求,腾讯内部是否有相关预估或准备?
针对高日活用户场景,目前腾讯内部尚未有明确的调用量预估数据。现阶段部署的集群在应对大规模调用时可能会出现推理延迟,还会报出500错误。为此,通过限制每位用户可用tokens数量来控制TPS(Token Per Second),但这也导致部分用户无法正常使用服务。目前性能指标尚未达到稳定状态,因为相关系统刚刚上线。
腾讯云近期测试了哪些国产GPU卡?测试结果如何?
腾讯云近期测试了包括华为、沐曦和寒武纪在内的多款国产GPU卡。其中,沐曦C500卡在混合训练和推理方面表现良好,通过了初步验证;而华为卡在混训或混合推理时存在问题,可能是兼容性问题,目前主要考虑沐曦C500卡。
沐曦C500 GPU卡采购计划及成本情况如何?
沐曦C500 GPU卡预计将在2025年第一季度进行大规模采购,数量在十万级。这一采购得到了政府补贴支持,可覆盖20%-30%的成本。然而,该型号GPU耗电较高,相较于NVIDIA产品能耗表现不佳,这可能增加机房改造及运营成本。
国产GPU供应链是否存在产能波动风险?腾讯对此有何看法?
国产GPU供应链确实存在一定产能波动风险。例如,部分厂商可能仅能提供有限批次产能,这对于长期算力部署而言具有不确定性。不过,据了解,目前慕希已囤积约10万张库存,因此短期内供应相对充足。
腾讯云针对to B业务客户使用国产GPU时面临哪些挑战?有哪些解决方案?
在to B业务场景中,如果客户已有NVIDIA算力基础,再新增国产GPU进行混训容易出现兼容性问题,例如报错等技术障碍。如果单独建立集群用于特定任务(如推理),则难以满足灵活扩展需求。因此,对于公有云服务而言,这种模式不太适用。但对于闭源系统或内部部署,如DeepSeek模型通过API方式提供服务,则可以更好地利用国产硬件资源。此外,大模型应用更多是为了拉动其他产品销售,而非依赖token销售盈利,因此硬件选择需综合考虑整体生态效益。
腾讯云目前基于大模型推出了哪些具体产品?这些产品如何影响营收结构?
基于现有的大模型,包括DeepSeek和混元模型,腾讯推出了一系列产品,如编程助手、ChatBI以及客服解决方案。这些应用主要用于提升客户体验,并推动云计算平台P1、TR Matrix等相关产品销售。由于token销售利润接近零,大模型更多是作为生态驱动力,以带动其他业务增长,而非直接盈利工具。
2025年腾讯云Capex预算是多少?近期是否有所调整?
2025年的具体Capex预算尚未完全披露,但可以确认的是,在最近两周内已追加超过10亿元人民币用于算力采购。这一预算调整仍需提交至总办会审批,并非由腾讯云单独决定。
2025年的资本支出计划数据是否已经明确?
当前尚未掌握2025年资本支出的具体数据。
腾讯未来是否会推出新的AI产品?
现阶段主要是将现有产品接入混元模型。例如,腾讯地图正在接入混元模型,通过整合用户历史兴趣点(POI)和行为习惯数据,优化目的地推荐和路径规划。此外,还计划推出一个终极版的模型(混元pro而非turbo),该版本对算力需求较低,更适用于游戏场景中的多模态应用,例如NPC对话功能和3D生成模型等。第三是世纪恒通正在部署DeepSeek产品,并结合多模态混元大模型,用于车联网服务、内容审核及营销等业务。其中,DeepSeek主要为世纪恒通提供车机系统支持,以满足主机厂商需求。此外,多模态会员大模型显著提升了内容审核效率,例如将原需100人的审核工作缩减至30人完成。
DeepSeek与传统大语言模型相比有哪些差异?其成本如何影响实际应用场景?
DeepSeek并未用于内容审核,而是针对车联网服务采用R1版本。相比之下,大语言模型更适合高效处理复杂逻辑链条,但其高成本限制了部分实际应用场景。审核方面主要还是混元的模型。
混元大模型在车机业务中的具体应用是什么?
混元大模型主要用于车机系统中,与驾驶员交互,包括客服、售后支持以及司机与车机系统之间的交互。
腾讯总办今年(2025年)推动的大型项目有哪些新进展?
总办正在推进一个基于大模型生成内容(AIGC)的鉴权项目,用于检测生成内容与已有作品之间的相似度,并追溯知识来源。该项目涵盖小说、图像及视频等多种类型,目前尚未上线,但已立项实施。这一溯源技术将为网信办提供监管支持,并协助制定行业标准。该项目不仅服务于监管机构,也面向其他APP集成使用。一旦行业标准确立,各类平台需调用此服务以满足合规要求,从而带来收益增长。
腾讯云扩展算力时,上游供应链哪些环节可能受益?
当前扩展算力需求主要集中于GPU卡采购。例如,从沐曦采购10万张卡,以及从浪潮渠道新增云服务器资源。此外,IDC资源目前仍有余量,但基础算力扩容仍是关键瓶颈。
当前基础算力和基础应用服务器的上架率及使用情况如何?
根据访谈内容,2024年的目标是实现85%的上架率,但实际未能达成。然而,现有算力资源基本处于满负荷运行状态,尤其是AI算力部分(如GPU)。
如果扩展GPU算力资源,是否需要新增IDC?目前在建IDC的情况如何?
扩展GPU算力需要新增IDC。目前公司正在建设两个联合运营的IDC,一个位于贵州,一个位于银川,这些地区电价较低。合作方主要为运营商,包括中国电信和中国移动。
最近AI相关IDC租赁价格是否发生变化?
由于访谈对象未直接参与相关项目,因此无法确认近期价格变化。但提到当前市场对AI算力需求紧张。
关于公司内部AI算力资源的分布、采购计划以及国产化适配情况,有哪些具体数据可以分享?
访谈对象表示需进一步核实后提供详细数据,包括以下几个方面:1)现有英伟达卡(如H100、H200等)的数量及分布;2)春节前后加单量级变化;3)国产卡(如华为、寒武纪、沐曦等)的评测效果及采购计划。
AI技术落地对公有云市场格局产生了哪些影响?
AI技术落地后,各大云厂商纷纷推出自有模型以降低跨域调用延迟,从而吸引客户使用其模型与服务器。DeepSeek出现后使得模型差异化减弱,这种趋势导致竞争焦点从模型能力转向拼算力成本和服务能力,各厂商重新回归价格战阶段。例如,火山引擎通过补贴策略,将其云基础服务平台成本压至低于行业主流水平,对市场形成较大冲击。
火山引擎为何能够在云基础服务领域实现低成本竞争优势,其策略是什么?
火山引擎通过补贴抢占市场,其核心目标是吸引客户将业务迁移至其平台。一旦客户迁移,其计算资源及其他收入也会随之转移。
DeepSeek开源对小型公有云或独立IDC运营商造成了什么影响?
小型公有云或独立IDC运营商在当前竞争环境中难以获得显著市场份额,除非具备强大的关系网络,而这样的厂商更可能转型为代理商或服务提供商。同时,由于DeepSeek开源带来的价格战加剧,这些小型企业面临更大的利润压力。
2025年云服务行业的价格战趋势如何,与2024年相比有哪些变化?
预计2025年的价格战将比2024年更加激烈。例如,在2024年华为曾将折扣压至2.2折,而火山引擎已签约客户达到1.6折,并通过销售和经销商的双算,赔钱销售扩大市场份额。这种激烈竞争给整个行业带来巨大压力,同时也可能进一步压缩利润空间。
小型云服务提供商是否能够在当前市场环境中通过定制化解决方案获益?
小型云服务提供商在当前市场环境中较难直接获益,尤其是在标准化产品为主的业务模式下。然而,通过与生态合作伙伴的协作,提供定制化解决方案可能存在一定机会。例如,腾讯和字节跳动已推出合作伙伴计划,通过整合生态合作伙伴为B端客户提供定制化服务。此类模式下,平台方通常从标准化产品中盈利,而对定制化部分抽佣比例极低甚至不抽佣,并通过签订三方协议来实现业务分工。
私有化部署在央国企和四大行等领域的发展趋势如何?
私有化部署预计将在2025年迎来爆发式增长。这一趋势主要由央国企和四大行等机构推动,这些机构通常不愿意将敏感数据托管于公有云平台。腾讯目前可私有化部署的产品包括T1平台和T1 Matrix,用于训练,以及智能体相关的平台。这些产品可以集成到算力设备中,由生态合作伙伴完成具体的私有化部署工作。爆发主要是主机的销售。
私有化部署需求增长背后的驱动因素是什么?
需求增长主要来自央国企对数据安全性和独立性的强烈要求。例如,一些企业要求模型必须完全私有化并部署在其自建机房内,以确保数据隔离。此外,政府部门涉及居民信息、医院涉及患者病例等敏感数据,也进一步推动了这一需求。过去可能仅100家机构采用此类模式,而未来可能扩展至500家以上。
在私有云领域,与深信服等公司相比腾讯有哪些差异?
深信服与腾讯在某种程度上既是竞争关系,也是合作关系。深信服具备更强的本地渠道资源及资质背景,在为央国企客户进行私有云部署方面具有优势。而腾讯则专注于提供标准化AI算力平台(如P1)及混源模型训练能力,同时依赖生态伙伴完成工程实施及硬件供应。
浪潮集团在私有云市场中的角色是什么,其与腾讯的合作模式如何?
浪潮集团作为一家具有国资背景的企业,在政府及企业市场拥有广泛覆盖能力,其业务涵盖服务器销售、定制开发以及ERP等软件服务。在与腾讯的合作中,浪潮负责提供平台,而腾讯则出售标准化产品和微调服务。此外,两家公司还存在互为买卖方的关系。
针对特定行业(如医疗)的项目实施过程中,各方职责如何划分?
以山东省某医院项目为例,该项目由联通、浪潮和腾讯共同参与。其中联通负责机房资源,浪潮负责硬件设备供应及工程实施,而腾讯则提供机器学习训练平台、混源模型等。存储部分通常采用本地存储方式,由客户自行管理或由浪潮支持。
在基于AI技术构建知识库系统时,各参与方分别承担哪些任务?
知识库系统建设需要软硬件结合。硬件层面由浪潮负责,包括服务器搭建;软件层面由腾讯提供机器学习训练平台,并支持图像识别、OCR等功能模块。同时,知识库系统中的workflow开发工作通常基于腾讯的平台,由浪潮完成具体实现。这种分工模式确保了各自发挥核心优势,实现高效协作。关于数据流向问题,腾讯为客户部署的是独立运行的图像识别和文字处理引擎,这些引擎基于开源技术并进行单独部署,因此数据不会流向腾讯的云端。这种模式类似于前几年私有云的发展逻辑。
国央企客户在2025年对私有化AI解决方案需求激增的原因是什么?DeepSeek产品在其中扮演了什么角色?
先前,大模型技术此前因生成内容质量不佳(如匹配度不足)而受到质疑,但DeepSeek产品推出后,其性能显著提升,获得了国央企高层管理者的认可,并符合国家政策导向,从而推动了自上而下的应用决策。
私有化部署趋势下,国产GPU卡是否更具优势?其面临哪些实际挑战?
私有化部署趋势确实使国产GPU卡受益,因为国央企倾向于使用国产设备以响应政策要求。例如,2024年国家曾指令囤积大量国产卡,但当时未能充分利用。而在2025年的私有化场景中,这些设备开始发挥作用。然而,在实际应用中仍存在兼容性与性能问题,例如部分型号无法满足运行需求,而与CUDA兼容性较好的沐曦等国产卡则表现相对较优。
腾讯内部运营效率提升计划有哪些具体措施?涉及哪些岗位调整?
根据内部传闻,腾讯计划在2025年大幅优化运营效率,其中运营岗和客服岗预计减员到30%。此外,与数据分析相关的数分岗也将大幅缩减,而产品岗和研发岗虽然也会调整,但减员可能相对较低,大概削减30%-40%。这些措施旨在通过组织优化实现提效,同时借助内部开发的大模型工具进一步减少重复性工作岗位。
大模型技术目前有哪些典型应用场景?是否已成为直接创收手段?
大模型技术目前尚未成为直接创收手段,其主要价值体现在提高企业内部效率。例如,公司开发了一款chatBI产品,通过大模型自动生成SQL语句并执行查询,将结果绘制成分析图表。这一工具不仅取代了传统BI系统,还减少了BI分析师等岗位需求。然而,大模型更多地用于优化现有人类工作的重复环节,而非单独创造收入来源。
微信近期内测DeepSeek功能,其服务器规模及调用量情况如何?
关于微信内测DeepSeek功能,目前尚无明确的数据披露,包括服务器规模及每秒查询次数。相关信息需进一步核实,例如通过其DPI看板获取具体报表。此外,还需关注微信搜索模块以及IMA系统调用量的数据更新情况。
![图片]()