Ollama 公共 API 端点使用指南

Ollama API 使用文档

简介

Ollama 公共 API 端点是一个公共的 AI 模型服务接口,让您无需本地部署就能在 ChatBox AI 中使用 Ollama。所有公共端点均为免费使用,无需 API Key。

ChatBox AI 配置步骤

你也可以使用其他任意支持 Ollama 的客户端

注意:不要使用网页版 ChatBox AI 配置,会有跨域问题

ChatBox AI 下载地址:https://chatboxai.app/zh#download

  1. 在端点列表中选择一个可以访问的端点
  2. 打开 ChatBox AI 设置页面
  3. 在模型供应商中选择 "Ollama"
  4. 在 API 地址栏输入端点
  5. 选择一个模型
  6. 保存设置即可开始使用

使用建议

  1. 选择合适的端点
    • 建议测试多个端点的延迟,选择响应最快的
    • 如果某个端点不可用,可以切换到其他端点
  2. 选择合适的模型
    • 建议测试多个模型的延迟,选择响应最快的
    • 如果某个模型不可用,可以切换到其他模型
    • 不要使用太大的模型,否则会影响响应速度

常见问题

Q: 连接失败怎么办? A: 首先确认网络连接,然后尝试更换其他端点。

Q: 响应很慢怎么处理? A: 可以尝试使用其他延迟更低的端点,或在非高峰时段使用。

Q: 是否需要 API Key? A: 目前公共端点无需 API Key 即可使用。

免责声明

  • 公共 API 为免费服务,不保证服务可用性
  • 请勿用于商业用途
  • 使用本服务即表示同意相关使用条款