OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  技能包  ›  eachlabs-video-generation: 使用 AI 模型从文本或图像生成视频

eachlabs-video-generation: 使用 AI 模型从文本或图像生成视频

 
  logging ·  2026-02-02 22:33:55 · 3 次点击  · 0 条评论  

名称: eachlabs-video-generation
描述: 使用 EachLabs AI 模型,根据文本提示、图像或参考输入生成新视频。支持文生视频、图生视频、转场、动作控制、说话头像和虚拟形象生成。适用于用户需要创建新视频内容的场景。如需编辑现有视频(如超分、唇形同步、延长、字幕),请使用 eachlabs-video-edit 技能。
元数据:
author: eachlabs
version: "1.0"


EachLabs 视频生成

通过 EachLabs Predictions API,使用 165+ 个 AI 模型,根据文本提示、图像或参考输入生成新视频。如需编辑现有视频(如超分辨率、唇形同步、延长、字幕),请使用 eachlabs-video-edit 技能。

身份验证

请求头: X-API-Key: <你的API密钥>

设置 EACHLABS_API_KEY 环境变量或直接传递密钥。请前往 eachlabs.ai 获取密钥。

快速开始

1. 创建预测任务

curl -X POST https://api.eachlabs.ai/v1/prediction \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $EACHLABS_API_KEY" \
  -d '{
    "model": "pixverse-v5-6-text-to-video",
    "version": "0.0.1",
    "input": {
      "prompt": "日落时分,一只金毛寻回犬在草地上奔跑,电影感慢镜头",
      "resolution": "720p",
      "duration": "5",
      "aspect_ratio": "16:9"
    }
  }'

2. 轮询获取结果

curl https://api.eachlabs.ai/v1/prediction/{prediction_id} \
  -H "X-API-Key: $EACHLABS_API_KEY"

轮询直到 status 变为 "success""failed"。输出视频的 URL 将在响应中返回。

模型选择指南

文生视频

模型 标识符 最佳用途
Pixverse v5.6 pixverse-v5-6-text-to-video 通用场景,音频生成
XAI Grok Imagine xai-grok-imagine-text-to-video 快速创意生成
Kandinsky 5 Pro kandinsky5-pro-text-to-video 艺术风格,高质量
Seedance v1.5 Pro seedance-v1-5-pro-text-to-video 电影级质量
Wan v2.6 wan-v2-6-text-to-video 长篇/叙事内容
Kling v2.6 Pro kling-v2-6-pro-text-to-video 动作控制
Pika v2.2 pika-v2-2-text-to-video 风格化,特效
Minimax Hailuo V2.3 Pro minimax-hailuo-v2-3-pro-text-to-video 高保真度
Sora 2 Pro sora-2-text-to-video-pro 顶级质量
Veo 3 veo-3 谷歌最佳质量
Veo 3.1 veo3-1-text-to-video 谷歌最新模型
LTX v2 Fast ltx-v-2-text-to-video-fast 最快生成速度
Moonvalley Marey moonvalley-marey-text-to-video 电影风格
Ovi ovi-text-to-video 通用场景

图生视频

模型 标识符 最佳用途
Pixverse v5.6 pixverse-v5-6-image-to-video 通用场景
XAI Grok Imagine xai-grok-imagine-image-to-video 创意编辑
Wan v2.6 Flash wan-v2-6-image-to-video-flash 最快速度
Wan v2.6 wan-v2-6-image-to-video 高质量
Seedance v1.5 Pro seedance-v1-5-pro-image-to-video 电影级
Kandinsky 5 Pro kandinsky5-pro-image-to-video 艺术风格
Kling v2.6 Pro I2V kling-v2-6-pro-image-to-video Kling 最佳质量
Kling O1 kling-o1-image-to-video Kling 最新模型
Pika v2.2 I2V pika-v2-2-image-to-video 特效,PikaScenes
Minimax Hailuo V2.3 Pro minimax-hailuo-v2-3-pro-image-to-video 高保真度
Sora 2 I2V sora-2-image-to-video 顶级质量
Veo 3.1 I2V veo3-1-image-to-video 谷歌最新模型
Runway Gen4 Turbo gen4-turbo 快速,电影质量
Veed Fabric 1.0 veed-fabric-1-0 社交媒体

转场与特效

模型 标识符 最佳用途
Pixverse v5.6 Transition pixverse-v5-6-transition 平滑转场
Pika v2.2 PikaScenes pika-v2-2-pikascenes 场景特效
Pixverse v4.5 Effect pixverse-v4-5-effect 视频特效
Veo 3.1 First Last Frame veo3-1-first-last-frame-to-video 帧插值

动作控制与动画

模型 标识符 最佳用途
Kling v2.6 Pro Motion kling-v2-6-pro-motion-control 专业动作控制
Kling v2.6 Standard Motion kling-v2-6-standard-motion-control 标准动作控制
Motion Fast motion-fast 快速动作迁移
Motion Video 14B motion-video-14b 高质量动作
Wan v2.6 R2V wan-v2-6-reference-to-video 基于参考视频
Kling O1 Reference I2V kling-o1-reference-image-to-video 基于参考图像

说话头像与唇形同步

模型 标识符 最佳用途
Bytedance Omnihuman v1.5 bytedance-omnihuman-v1-5 全身动画
Creatify Aurora creatify-aurora 音频驱动虚拟形象
Infinitalk I2V infinitalk-image-to-video 图像转说话头像
Infinitalk V2V infinitalk-video-to-video 视频转说话头像
Sync Lipsync v2 Pro sync-lipsync-v2-pro 唇形同步
Kling Avatar v2 Pro kling-avatar-v2-pro 专业虚拟形象
Kling Avatar v2 Standard kling-avatar-v2-standard 标准虚拟形象
Echomimic V3 echomimic-v3 面部动画
Stable Avatar stable-avatar 稳定的说话头像

预测任务流程

  1. 检查模型 GET https://api.eachlabs.ai/v1/model?slug=<slug> — 验证模型是否存在,并返回包含精确输入参数的 request_schema。在创建预测任务前务必执行此步骤,以确保输入正确。
  2. POST https://api.eachlabs.ai/v1/prediction,附带模型标识符、版本 "0.0.1" 以及符合 schema 的输入参数。
  3. 轮询 GET https://api.eachlabs.ai/v1/prediction/{id},直到状态变为 "success""failed"
  4. 提取 响应中的输出视频 URL。

示例

使用 Wan v2.6 Flash 进行图生视频

curl -X POST https://api.eachlabs.ai/v1/prediction \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $EACHLABS_API_KEY" \
  -d '{
    "model": "wan-v2-6-image-to-video-flash",
    "version": "0.0.1",
    "input": {
      "image_url": "https://example.com/photo.jpg",
      "prompt": "人物转身面向镜头并微笑",
      "duration": "5",
      "resolution": "1080p"
    }
  }'

使用 Pixverse 进行视频转场

curl -X POST https://api.eachlabs.ai/v1/prediction \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $EACHLABS_API_KEY" \
  -d '{
    "model": "pixverse-v5-6-transition",
    "version": "0.0.1",
    "input": {
      "prompt": "两张图像之间平滑的变形转场",
      "first_image_url": "https://example.com/start.jpg",
      "end_image_url": "https://example.com/end.jpg",
      "duration": "5",
      "resolution": "720p"
    }
  }'

使用 Kling v2.6 进行动作控制

curl -X POST https://api.eachlabs.ai/v1/prediction \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $EACHLABS_API_KEY" \
  -d '{
    "model": "kling-v2-6-pro-motion-control",
    "version": "0.0.1",
    "input": {
      "image_url": "https://example.com/character.jpg",
      "video_url": "https://example.com/dance-reference.mp4",
      "character_orientation": "video"
    }
  }'

使用 Omnihuman 生成说话头像

curl -X POST https://api.eachlabs.ai/v1/prediction \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $EACHLABS_API_KEY" \
  -d '{
    "model": "bytedance-omnihuman-v1-5",
    "version": "0.0.1",
    "input": {
      "image_url": "https://example.com/portrait.jpg",
      "audio_url": "https://example.com/speech.mp3",
      "resolution": "1080p"
    }
  }'

提示词技巧

  • 动作描述要具体:使用“摄像机缓慢向左平移”而非“漂亮的摄像机运动”。
  • 包含风格关键词:如“电影感”、“动漫风格”、“3D动画”、“赛博朋克”。
  • 描述时间节奏:如“慢动作”、“延时摄影”、“快节奏”。
  • 对于图生视频:描述静态图像中应该发生什么变化。
  • 使用负面提示(在支持的模型中)以避免不需要的元素。

参数参考

各模型的完整参数详情,请参阅 references/MODELS.md

3 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor