安装#
Xinference 在 Linux, Windows, MacOS 上都可以通过 pip
来安装。如果需要使用 Xinference 进行模型推理,可以根据不同的模型指定不同的引擎。
如果你希望能够推理所有支持的模型,可以用以下命令安装所有需要的依赖:
pip install "xinference[all]"
备注
如果你想使用 GGUF 格式的模型,建议根据当前使用的硬件手动安装所需要的依赖,以充分利用硬件的加速能力。更多细节可以参考 Llama.cpp 引擎 这一章节。
如果你只想安装必要的依赖,接下来是如何操作的详细步骤。
Transformers 引擎#
PyTorch(transformers) 引擎支持几乎有所的最新模型,这是 Pytorch 模型默认使用的引擎:
pip install "xinference[transformers]"
vLLM 引擎#
vLLM 是一个支持高并发的高性能大模型推理引擎。当满足以下条件时,Xinference 会自动选择 vllm 作为引擎来达到更高的吞吐量:
模型格式为
pytorch
,gptq
或者awq
。当模型格式为
pytorch
时,量化选项需为none
。当模型格式为
awq
时,量化选项需为Int4
。当模型格式为
gptq
时,量化选项需为Int3
、Int4
或者Int8
。操作系统为 Linux 并且至少有一个支持 CUDA 的设备
自定义模型的
model_family
字段和内置模型的model_name
字段在 vLLM 的支持列表中。
目前,支持的模型包括:
llama-2
,llama-3
,llama-3.1
,llama-2-chat
,llama-3-instruct
,llama-3.1-instruct
mistral-v0.1
,mistral-instruct-v0.1
,mistral-instruct-v0.2
,mistral-instruct-v0.3
,mistral-nemo-instruct
,mistral-large-instruct
codestral-v0.1
Yi
,Yi-1.5
,Yi-chat
,Yi-1.5-chat
,Yi-1.5-chat-16k
code-llama
,code-llama-python
,code-llama-instruct
deepseek
,deepseek-coder
,deepseek-chat
,deepseek-coder-instruct
,deepseek-v2-chat
,deepseek-v2-chat-0628
,deepseek-v2.5
yi-coder
,yi-coder-chat
codeqwen1.5
,codeqwen1.5-chat
baichuan-2-chat
internlm2-chat
internlm2.5-chat
,internlm2.5-chat-1m
qwen-chat
mixtral-instruct-v0.1
,mixtral-8x22B-instruct-v0.1
chatglm3
,chatglm3-32k
,chatglm3-128k
glm4-chat
,glm4-chat-1m
codegeex4
qwen1.5-chat
,qwen1.5-moe-chat
qwen2-instruct
,qwen2-moe-instruct
qwen2.5-instruct
gemma-it
,gemma-2-it
orion-chat
,orion-chat-rag
c4ai-command-r-v01
安装 xinference 和 vLLM:
pip install "xinference[vllm]"
# FlashInfer is optional but required for specific functionalities such as sliding window attention with Gemma 2.
# For CUDA 12.4 & torch 2.4 to support sliding window attention for gemma 2 and llama 3.1 style rope
pip install flashinfer -i https://flashinfer.ai/whl/cu124/torch2.4
# For other CUDA & torch versions, please check https://docs.flashinfer.ai/installation.html
Llama.cpp 引擎#
Xinference 通过 llama-cpp-python
支持 gguf
格式的模型。建议根据当前使用的硬件手动安装依赖,从而获得最佳的加速效果。
初始步骤:
pip install xinference
不同硬件的安装方式:
Apple M系列
CMAKE_ARGS="-DLLAMA_METAL=on" pip install llama-cpp-python
英伟达显卡:
CMAKE_ARGS="-DLLAMA_CUBLAS=on" pip install llama-cpp-python
AMD 显卡:
CMAKE_ARGS="-DLLAMA_HIPBLAS=on" pip install llama-cpp-python
SGLang 引擎#
SGLang 具有基于 RadixAttention 的高性能推理运行时。它通过在多个调用之间自动重用KV缓存,显著加速了复杂 LLM 程序的执行。它还支持其他常见推理技术,如连续批处理和张量并行处理。
初始步骤:
pip install "xinference[sglang]"
# For CUDA 12.4 & torch 2.4 to support sliding window attention for gemma 2 and llama 3.1 style rope
pip install flashinfer -i https://flashinfer.ai/whl/cu124/torch2.4
# For other CUDA & torch versions, please check https://docs.flashinfer.ai/installation.html
MLX 引擎#
MLX-lm 用来在苹果 silicon 芯片上提供高效的 LLM 推理。
初始步骤:
pip install "xinference[mlx]"