模型配置

配置 AI 模型提供商:内置通道、OpenAI、Claude、Gemini、Ollama 等 8 种选择。

内置大模型通道

iShell Pro 提供内置大模型通道,注册登录后即可开箱即用,无需配置 API Key,无需关心模型选择和接口对接。

内置通道是最简单的使用方式——登录即可用。如果你有特殊的模型偏好或企业自建模型,再配置下方的第三方提供商。

支持的第三方提供商

除内置通道外,支持接入 8 种主流 AI 服务:

提供商可用模型特点
OpenAIGPT-4o、GPT-4o-mini、GPT-4 Turbo、o1、o1-mini综合能力最强
AnthropicClaude Sonnet 4、Claude 3.5 Sonnet/Haiku、Claude 3 Opus长文本理解出色
Google GeminiGemini 2.5 Flash/Pro、2.0 Flash、1.5 Pro/Flash多模态能力强
DeepSeekDeepSeek-Chat、DeepSeek-Reasoner性价比高,推理能力强
阿里云通义千问Qwen-Max/Plus/Turbo/Long中文理解优秀
火山引擎豆包系列、DeepSeek 系列国内访问稳定
OllamaLlama3、Qwen2.5、DeepSeek-R1 等完全离线,数据本地化
自定义 API任何兼容 OpenAI API 的服务对接企业自建模型

配置步骤

  1. 打开设置
    进入 设置 → AI 助手 配置面板。
  2. 选择提供商
    在下拉列表中选择一个模型提供商。
  3. 填写凭据
    输入 API Key 和 API 地址。Ollama 填写本地服务地址(通常为 http://localhost:11434)。
  4. 选择模型
    从该提供商可用的模型列表中选择一个。
  5. 保存使用
    保存配置后即刻生效,可在 AI 面板中测试。

高级参数调节

参数范围说明
Temperature0 ~ 2控制回复随机性。0 最确定(适合命令生成),1.0+ 更创造性
Max Tokens自定义限制每次回复的最大长度
上下文长度1 ~ 50发送给模型的历史消息条数(默认 20)

企业离线 AI 政企版

政企版用户可以通过 Ollama 在内网部署开源大模型(如 Llama3、Qwen2.5),实现完全离线的 AI 能力。所有推理数据不出内网边界,满足高安全场景需求。