Ollama 公共 API 端点使用指南
Ollama API 使用文档
简介
Ollama 公共 API 端点是一个公共的 AI 模型服务接口,让您无需本地部署就能在 ChatBox AI 中使用 Ollama。所有公共端点均为免费使用,无需 API Key。
ChatBox AI 配置步骤
你也可以使用其他任意支持 Ollama 的客户端
注意:不要使用网页版 ChatBox AI 配置,会有跨域问题
ChatBox AI 下载地址:https://chatboxai.app/zh#download
- 在端点列表中选择一个可以访问的端点
- 打开 ChatBox AI 设置页面
- 在模型供应商中选择 "Ollama"
- 在 API 地址栏输入端点
- 选择一个模型
- 保存设置即可开始使用
使用建议
- 选择合适的端点
- 建议测试多个端点的延迟,选择响应最快的
- 如果某个端点不可用,可以切换到其他端点
- 选择合适的模型
- 建议测试多个模型的延迟,选择响应最快的
- 如果某个模型不可用,可以切换到其他模型
- 不要使用太大的模型,否则会影响响应速度
常见问题
Q: 连接失败怎么办? A: 首先确认网络连接,然后尝试更换其他端点。
Q: 响应很慢怎么处理? A: 可以尝试使用其他延迟更低的端点,或在非高峰时段使用。
Q: 是否需要 API Key? A: 目前公共端点无需 API Key 即可使用。
免责声明
- 公共 API 为免费服务,不保证服务可用性
- 请勿用于商业用途
- 使用本服务即表示同意相关使用条款