vLLM

一种高吞吐量且内存高效的推理与服务引擎,专为大型语言模型(LLMs)设计。「A high-throughput and memory-efficient inference and serving engine for LLMs」

主要指标

概览

名称与所有者vllm-project/vllm
主编程语言Python
编程语言 (语言数: 8)
平台
许可证Apache License 2.0
发布数75
最新版本名称v0.10.1.1 (发布于 )
第一版名称submission (发布于 )
创建于2023-02-09 11:23:20
推送于2025-08-22 10:07:24
最后一次提交
星数56020
关注者数430
派生数9572
提交数8803
已启用问题?
问题数10336
打开的问题数1804
拉请求数8723
打开的拉请求数1011
关闭的拉请求数2717
已启用Wiki?
已存档?
是复刻?
已锁定?
是镜像?
是私有?
去到顶部