北京赛克艾威科技有限公司 2025-03-20
vLLM是一个快速、易用的大模型推理服务引擎。其旧版Mooncake组件存在pickle反序列化漏洞,当vLLM配置使用了Mooncake作为分布式kvcache并将端口开放在外时,未经授权的远程攻击者可向Mooncake发送恶意的序列化数据,实现远程代码执行,导致服务器失陷。
升级至最新版本。
https://github.com/vllm-project/vllm/commit/288ca110f68d23909728627d3100e5a8db820aa2
https://github.com/vllm-project/vllm/pull/14228
https://github.com/vllm-project/vllm/security/advisories/GHSA-x3m8-f7g5-qhm7