Replicate API logo

Replicate API

Replicate API

Replicate API 是开源 ML 模型托管平台:一行命令调用 Stable Diffusion、Llama、FLUX 等开源模型,按使用量付费。

访问站点 ↗文档 ↗健康巡检 9 小时前
适合什么时候用

开源模型应有尽有(HuggingFace + 独家)

先注意什么

延迟比 OpenAI/Anthropic 高(启动 GPU 几秒)

第一步先查

replicate.com 注册拿 API token。Python: import replicate; replicate.run("stability-ai/sdxl", input={"prompt": "..."})

认证
api_key
CORS
?
HTTPS
注册
?
延迟
533 ms
协议
REST
计费
paid

可用率 · 30 天窗口

巡检: 1可用率: 100%平均延迟: 533ms
01

关于这个 API

Replicate 是 2019 年创办的开源 ML 模型托管平台,定位是「让开发者不用自己跑 GPU 就能用开源 AI 模型」。背景:HuggingFace 上有几十万开源模型,但开发者要用就得自己租 GPU + 配 inference server,门槛高且贵。Replicate 把模型都托管好,REST API 一调用就跑。覆盖范围特别广:Stable Diffusion(图像)、FLUX(最新 image SOTA)、Llama 系列(开源 LLM)、Whisper(语音)、ControlNet、LoRA、视频生成模型、各种 niche 模型。差异化卖点:用 Python 直接 import replicate 就能调,比 HuggingFace Inference Endpoint 简单很多;按秒计费而不是 monthly subscription。常见用户:AI 创业公司 MVP 阶段、独立开发者做 AI 绘图 SaaS、内容平台集成 AI 功能。

02

你可以做什么

  • 1用 Stable Diffusion / FLUX 做 AI 绘图应用
  • 2调用开源 Llama 模型避免 OpenAI 锁定
  • 3测试新开源模型不用自己部署 GPU
  • 4微调自己模型托管在 Replicate
03

优劣对比

优点

  • 开源模型应有尽有(HuggingFace + 独家)
  • 无 cold start 烦恼
  • 按秒计费,不用时不付
  • 可一键 fine-tune

注意事项

  • 延迟比 OpenAI/Anthropic 高(启动 GPU 几秒)
  • 价格不算便宜(GPU 时间不便宜)
  • 某些大模型(Llama 3.1 405B)非常贵
04

示例请求

通用模板 — 实际 endpoint 请查阅文档替换 <endpoint>。
curl https://replicate.com/<endpoint> \
  -H "Authorization: Bearer $API_KEY"
# Some providers use X-Api-Key instead — verify in the docs.
05

快速开始

replicate.com 注册拿 API token。Python: import replicate; replicate.run("stability-ai/sdxl", input={"prompt": "..."})

06

常见问题

Replicate vs HuggingFace Inference?+

Replicate 模型 catalog 更精选(很多独家社区优化版本),调用更简单;HF 模型库更大且开源。

能 fine-tune 自己的模型吗?+

可以。Replicate 提供 SDXL、Llama 等模型的 LoRA fine-tune 接口,几分钟训练自己的版本。

07

技术细节

CORS: ?HTTPS: Yes注册: ?开源: No
认证方式
api_key
计费
paid
速率限制
按 GPU 秒计费,无 RPM 限制
协议
REST
SDK
python, javascript, typescript
响应时间
533 ms
上次巡检
2026/5/12 07:38:12
08

标签