一、漏洞详情
vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。
近日,监测到vLLM在模型初始化阶段存在的一项远程代码执行漏洞。该漏洞源于vLLM在解析模型配置时,无条件加载Hugging Face模型中的auto_map动态模块,且未对trust_remote_code选项进行有效校验。攻击者一旦能够控制模型仓库路径(本地目录或远程仓库),即可在模型加载过程中注入并执行任意Python代码。
建议受影响用户做好资产自查以及预防工作,以免遭受黑客攻击。
二、影响范围
0.10.1 <= vLLM < 0.14.0
三、修复建议
官方已发布修复版本,建议用户升级
vLLM > 0.14.0





