用户手册AI推理AI推理 提供 LLM 推理服务相关文档,包含 Ollama 的部署与使用说明。 Ollama 快速开始 推理模板 AI模型库 📄️ OllamaOllama 是轻量的本地 LLM 推理服务,需要 GPU,适用于快速验证与小规模推理场景。📄️ 推理模板推理模板用于为 AI 推理实例预设一组可复用的运行配置。创建实例时,选择模板即可一次性复用类型、镜像、CPU、内存、GPU、数据盘、挂载模型和端口映射等设置。📄️ 推理模型库推理模型库用于把推理实例要用到的模型数据,沉淀为平台内可复用、可挂载、可缓存的模型条目。当前本文先以 Ollama 场景为主线说明。它负责统一管理模型来源、版本、模型数据镜像和挂载关系,本身不直接提供推理接口。
📄️ 推理模型库推理模型库用于把推理实例要用到的模型数据,沉淀为平台内可复用、可挂载、可缓存的模型条目。当前本文先以 Ollama 场景为主线说明。它负责统一管理模型来源、版本、模型数据镜像和挂载关系,本身不直接提供推理接口。