一、漏洞详情
vllm是一个专为大型语言模型(LLM)推理设计的高性能开源库,支持连续批处理、PagedAttention 等优化技术。
近日,监测到官方修复vllm代码执行漏洞(CVE-2025-66448),该漏洞是由于Nemotron_Nano_VL_Config类在解析vision_config时,若发现auto_map字段,会直接调用get_class_from_dynamic_module完成动态解析并立即实例化。该路径未校验trust_remote_code 开关,也未检查auto_map指向的仓库是否与当前模型同源,导致可拉取任意远端Python文件并执行。
建议受影响用户做好资产自查以及预防工作,以免遭受黑客攻击。
二、影响范围
vllm < 0.11.1
三、修复建议
官方已发布安全补丁,请及时更新至最新版本:
vllm >= 0.11.1





