视频(实验性质)#
学习如何使用 Xinference 生成视频
介绍#
Video API 提供了和视频交互的方式:
Text-to-video 端点将一段文本提示词从头开始创建视频
API 端点 |
OpenAI 兼容端点 |
---|---|
Text-to-Video API |
/v1/video/generations |
支持的模型列表#
Text-to-video API 在 Xinference 中支持以下模型:
CogVideoX-2b
快速入门#
文生视频#
可以通过 cURL 或 Xinference 的方式尝试使用 Text-to-video API
curl -X 'POST' \
'http://<XINFERENCE_HOST>:<XINFERENCE_PORT>/v1/video/generations' \
-H 'accept: application/json' \
-H 'Content-Type: application/json' \
-d '{
"model": "<MODEL_UID>",
"prompt": "<your prompt>"
}'
from xinference.client import Client
client = Client("http://<XINFERENCE_HOST>:<XINFERENCE_PORT>")
model = client.get_model("<MODEL_UID>")
input_text = "an apple"
model.text_to_video(input_text)
在小于 24GB 显存的 GPU 上运行贴士#
Text-to-video 会占用大量显存,举例来说,运行 CogVideoX 可能会使用到约 35 GB 的显存,当在小于 24 GB 的 GPU 上运行时,推荐添加 --cpu_offload True
来加载模型。
xinference launch --model-name CogVideoX-2b --model-type video --cpu_offload True