Replicate API
Replicate API
Replicate API 是开源 ML 模型托管平台:一行命令调用 Stable Diffusion、Llama、FLUX 等开源模型,按使用量付费。
开源模型应有尽有(HuggingFace + 独家)
延迟比 OpenAI/Anthropic 高(启动 GPU 几秒)
replicate.com 注册拿 API token。Python: import replicate; replicate.run("stability-ai/sdxl", input={"prompt": "..."})
可用率 · 30 天窗口
关于这个 API
Replicate 是 2019 年创办的开源 ML 模型托管平台,定位是「让开发者不用自己跑 GPU 就能用开源 AI 模型」。背景:HuggingFace 上有几十万开源模型,但开发者要用就得自己租 GPU + 配 inference server,门槛高且贵。Replicate 把模型都托管好,REST API 一调用就跑。覆盖范围特别广:Stable Diffusion(图像)、FLUX(最新 image SOTA)、Llama 系列(开源 LLM)、Whisper(语音)、ControlNet、LoRA、视频生成模型、各种 niche 模型。差异化卖点:用 Python 直接 import replicate 就能调,比 HuggingFace Inference Endpoint 简单很多;按秒计费而不是 monthly subscription。常见用户:AI 创业公司 MVP 阶段、独立开发者做 AI 绘图 SaaS、内容平台集成 AI 功能。
你可以做什么
- 1用 Stable Diffusion / FLUX 做 AI 绘图应用
- 2调用开源 Llama 模型避免 OpenAI 锁定
- 3测试新开源模型不用自己部署 GPU
- 4微调自己模型托管在 Replicate
优劣对比
优点
- 开源模型应有尽有(HuggingFace + 独家)
- 无 cold start 烦恼
- 按秒计费,不用时不付
- 可一键 fine-tune
注意事项
- 延迟比 OpenAI/Anthropic 高(启动 GPU 几秒)
- 价格不算便宜(GPU 时间不便宜)
- 某些大模型(Llama 3.1 405B)非常贵
示例请求
curl https://replicate.com/<endpoint> \
-H "Authorization: Bearer $API_KEY"
# Some providers use X-Api-Key instead — verify in the docs.快速开始
replicate.com 注册拿 API token。Python: import replicate; replicate.run("stability-ai/sdxl", input={"prompt": "..."})
常见问题
Replicate vs HuggingFace Inference?+
Replicate 模型 catalog 更精选(很多独家社区优化版本),调用更简单;HF 模型库更大且开源。
能 fine-tune 自己的模型吗?+
可以。Replicate 提供 SDXL、Llama 等模型的 LoRA fine-tune 接口,几分钟训练自己的版本。
技术细节
- 认证方式
- api_key
- 计费
- paid
- 速率限制
- 按 GPU 秒计费,无 RPM 限制
- 协议
- REST
- SDK
- python, javascript, typescript
- 响应时间
- 533 ms
- 上次巡检
- 2026/5/12 07:38:12