首页   

黑客利用暴露的云凭证,仅19分钟劫持AI大模型

看雪学苑  · 互联网安全  · 昨天

正文

最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为LLMjacking,主要针对非人类身份(NHIs),如API密钥、服务账户和机器凭证,以绕过传统安全控制并利用被盗的生成式AI访问权限进行非法牟利。


攻击模式
安全公司Entro Labs的研究发现,攻击者利用自动化的机器人扫描公共代码库和论坛,使用Python脚本检测有效凭证。一旦凭证被暴露,攻击者在9至17分钟内进行初步的API调用,如GetCostAndUsage,以评估账户价值,同时避免使用可预测的调用如GetCallerIdentity来逃避检测。


在模型枚举阶段,入侵者通过AWS Bedrock执行GetFoundationModelAvailability请求,以编目可访问的大型语言模型(LLM),包括Anthropic的Claude和Amazon Titan。最后,在利用阶段,攻击者自动尝试InvokeModel,针对受 compromise的端点进行攻击,研究人员观察到每小时有1200多次未经授权的推理尝试。

实际案例
Storm-2139网络犯罪集团最近利用这种方法针对Microsoft Azure AI客户,窃取API密钥以生成暗网内容。微软在2025年第一季度的泄露事件中,威胁行为者使用被盗的Azure OpenAI密钥生成了14,000多张深度伪造图像。

风险与影响
LLMjacking带来的风险包括成本利用、数据泄露和声誉损害。一个被compromise的NHI账户每天可能产生高达46,000美元的未授权推理费用。在22%的观察事件中,攻击者还泄露了模型配置和训练数据元数据。微软的泄露事件中,威胁行为者生成了大量深度伪造图像,对公司的声誉造成了严重影响。

缓解策略
为了应对这种威胁,企业需要采取一系列措施,包括实时检测和监控NHIs、实施自动密钥轮换、执行最小权限原则、监控异常API活动以及教育开发人员安全地管理NHIs。在攻击者能够在不到20分钟内利用泄露的情况下,实时密钥扫描和自动轮换不再是可选的安全措施,而是确保企业在LLM时代生存的关键机制。


资讯来源:cybersecuritynews
转载请注明出处和本文链接






球分享

球点赞

球在看


点击阅读原文查看更多

推荐文章
© 2024 精读
删除内容请联系邮箱 2879853325@qq.com