视频(实验性质)#

学习如何使用 Xinference 生成视频

介绍#

Video API 提供了和视频交互的方式:

  • Text-to-video 端点将一段文本提示词从头开始创建视频

API 端点

OpenAI 兼容端点

Text-to-Video API

/v1/video/generations

支持的模型列表#

Text-to-video API 在 Xinference 中支持以下模型:

  • CogVideoX-2b

快速入门#

文生视频#

可以通过 cURL 或 Xinference 的方式尝试使用 Text-to-video API

curl -X 'POST' \
  'http://<XINFERENCE_HOST>:<XINFERENCE_PORT>/v1/video/generations' \
  -H 'accept: application/json' \
  -H 'Content-Type: application/json' \
  -d '{
    "model": "<MODEL_UID>",
    "prompt": "<your prompt>"
  }'

在小于 24GB 显存的 GPU 上运行贴士#

Text-to-video 会占用大量显存,举例来说,运行 CogVideoX 可能会使用到约 35 GB 的显存,当在小于 24 GB 的 GPU 上运行时,推荐添加 --cpu_offload True 来加载模型。

xinference launch --model-name CogVideoX-2b --model-type video --cpu_offload True