模型配置
配置 AI 模型提供商:内置通道、OpenAI、Claude、Gemini、Ollama 等 8 种选择。
内置大模型通道
iShell Pro 提供内置大模型通道,注册登录后即可开箱即用,无需配置 API Key,无需关心模型选择和接口对接。
内置通道是最简单的使用方式——登录即可用。如果你有特殊的模型偏好或企业自建模型,再配置下方的第三方提供商。
支持的第三方提供商
除内置通道外,支持接入 8 种主流 AI 服务:
| 提供商 | 可用模型 | 特点 |
|---|---|---|
| OpenAI | GPT-4o、GPT-4o-mini、GPT-4 Turbo、o1、o1-mini | 综合能力最强 |
| Anthropic | Claude Sonnet 4、Claude 3.5 Sonnet/Haiku、Claude 3 Opus | 长文本理解出色 |
| Google Gemini | Gemini 2.5 Flash/Pro、2.0 Flash、1.5 Pro/Flash | 多模态能力强 |
| DeepSeek | DeepSeek-Chat、DeepSeek-Reasoner | 性价比高,推理能力强 |
| 阿里云通义千问 | Qwen-Max/Plus/Turbo/Long | 中文理解优秀 |
| 火山引擎 | 豆包系列、DeepSeek 系列 | 国内访问稳定 |
| Ollama | Llama3、Qwen2.5、DeepSeek-R1 等 | 完全离线,数据本地化 |
| 自定义 API | 任何兼容 OpenAI API 的服务 | 对接企业自建模型 |
配置步骤
- 打开设置进入 设置 → AI 助手 配置面板。
- 选择提供商在下拉列表中选择一个模型提供商。
- 填写凭据输入 API Key 和 API 地址。Ollama 填写本地服务地址(通常为
http://localhost:11434)。 - 选择模型从该提供商可用的模型列表中选择一个。
- 保存使用保存配置后即刻生效,可在 AI 面板中测试。
高级参数调节
| 参数 | 范围 | 说明 |
|---|---|---|
| Temperature | 0 ~ 2 | 控制回复随机性。0 最确定(适合命令生成),1.0+ 更创造性 |
| Max Tokens | 自定义 | 限制每次回复的最大长度 |
| 上下文长度 | 1 ~ 50 | 发送给模型的历史消息条数(默认 20) |
企业离线 AI 政企版
政企版用户可以通过 Ollama 在内网部署开源大模型(如 Llama3、Qwen2.5),实现完全离线的 AI 能力。所有推理数据不出内网边界,满足高安全场景需求。