🤖 模型配置
NeoWeb AI 支持 20+ 主流 AI 模型,包括国内模型、国际模型以及本地部署模型。本页介绍如何配置各类模型。
配置入口
在 NeoWeb AI 界面中,进入 设置(⚙️)→ 模型管理,点击「添加模型」即可开始配置。每个模型需要提供 API Key 和 API 端点(部分模型有默认端点)。
国内模型
通义千问(阿里云)
前往 阿里云百炼平台 获取 API Key。
| 参数 | 值 |
|---|---|
| Provider | qwen |
| API Key | 阿里云 DashScope API Key |
| 默认模型 | qwen-turbo / qwen-plus / qwen-max |
| 端点 | https://dashscope.aliyuncs.com/compatible-mode/v1 |
文心一言(百度)
前往 百度智能云千帆平台 获取 API Key。
| 参数 | 值 |
|---|---|
| Provider | wenxin |
| API Key | 千帆平台 API Key |
| 默认模型 | ernie-4.0-turbo-8k |
讯飞星火
前往 科大讯飞开放平台 获取 AppID 和 API Key。
| 参数 | 值 |
|---|---|
| Provider | spark |
| API Key | AppID:APIKey:APISecret |
| 默认模型 | spark-pro / spark-max |
GLM(智谱AI)
前往 智谱 AI 开放平台 获取 API Key。
{
"provider": "zhipu",
"apiKey": "your-zhipu-api-key",
"model": "glm-4",
"baseURL": "https://open.bigmodel.cn/api/paas/v4"
}
Kimi(月之暗面)
| 参数 | 值 |
|---|---|
| Provider | moonshot |
| API Key | 月之暗面开放平台 Key |
| 默认模型 | moonshot-v1-8k / moonshot-v1-32k |
| 端点 | https://api.moonshot.cn/v1 |
DeepSeek
| 参数 | 值 |
|---|---|
| Provider | deepseek |
| API Key | DeepSeek 平台 API Key |
| 默认模型 | deepseek-chat / deepseek-coder |
| 端点 | https://api.deepseek.com/v1 |
豆包(字节跳动)
| 参数 | 值 |
|---|---|
| Provider | doubao |
| API Key | 火山引擎 API Key |
| 端点 | https://ark.cn-beijing.volces.com/api/v3 |
其他国内模型
Minimax、阶跃星辰(Step)、零一万物(Yi)均支持 OpenAI 兼容接口,配置方式相同:填写对应平台的 API Key 和端点地址即可。
国际模型
Claude(Anthropic)
{
"provider": "anthropic",
"apiKey": "sk-ant-your-key",
"model": "claude-sonnet-4-5",
"baseURL": "https://api.anthropic.com/v1"
}
GPT-4(OpenAI)
{
"provider": "openai",
"apiKey": "sk-your-openai-key",
"model": "gpt-4o",
"baseURL": "https://api.openai.com/v1"
}
baseURL 即可。
Gemini(Google)
| 参数 | 值 |
|---|---|
| Provider | google |
| API Key | Google AI Studio API Key |
| 默认模型 | gemini-1.5-pro / gemini-1.5-flash |
Llama(Meta)/ Mistral / Cohere
这三个模型可通过 Groq、Together AI、Replicate 等云平台调用,填入对应的 API Key 和端点地址即可。
本地模型
EXO(分布式本地推理)
EXO 允许你使用多台 Mac 组成集群运行大型模型,支持 Qwen3-235B、GLM-4 等。
# 安装 EXO
pip install exo
# 启动 EXO 服务(默认端口 52415)
exo
在 NeoWeb AI 中配置:
{
"provider": "exo",
"baseURL": "http://localhost:52415/v1",
"model": "qwen3-235b"
}
Ollama
Ollama 是最常用的本地模型运行工具,支持 Llama、Qwen、Mistral 等众多模型。
# 安装 Ollama(macOS)
brew install ollama
# 拉取并运行模型
ollama pull llama3
ollama serve
在 NeoWeb AI 中配置:
{
"provider": "ollama",
"baseURL": "http://localhost:11434/v1",
"model": "llama3"
}
多模型切换
NeoWeb AI 支持同时配置多个模型,在对话界面顶部的模型选择器中可以随时切换。不同任务使用不同模型,灵活高效。
默认模型设置
在 设置 → 模型 中,将任意已配置的模型设为「默认」,新建对话将自动使用该模型。
🤖 Model Configuration
NeoWeb AI supports 20+ AI models, including Chinese domestic, international, and locally-deployed models.
How to Configure
In the NeoWeb AI interface, go to Settings (⚙️) → Model Management and click "Add Model". Each model requires an API Key and endpoint (some models have defaults).
Chinese Domestic Models
Qwen (Alibaba Cloud)
Get your API Key from Alibaba Cloud Bailian Platform.
| Parameter | Value |
|---|---|
| Provider | qwen |
| API Key | Alibaba Cloud DashScope API Key |
| Default models | qwen-turbo / qwen-plus / qwen-max |
| Endpoint | https://dashscope.aliyuncs.com/compatible-mode/v1 |
ERNIE (Baidu)
Get your API Key from Baidu Qianfan Platform.
| Parameter | Value |
|---|---|
| Provider | wenxin |
| API Key | Qianfan API Key |
| Default model | ernie-4.0-turbo-8k |
Spark (iFlytek)
| Parameter | Value |
|---|---|
| Provider | spark |
| API Key | AppID:APIKey:APISecret |
| Default model | spark-pro / spark-max |
GLM (ZhipuAI)
{
"provider": "zhipu",
"apiKey": "your-zhipu-api-key",
"model": "glm-4",
"baseURL": "https://open.bigmodel.cn/api/paas/v4"
}Kimi (Moonshot)
| Parameter | Value |
|---|---|
| Provider | moonshot |
| API Key | Moonshot Platform Key |
| Default model | moonshot-v1-8k / moonshot-v1-32k |
| Endpoint | https://api.moonshot.cn/v1 |
DeepSeek
| Parameter | Value |
|---|---|
| Provider | deepseek |
| API Key | DeepSeek API Key |
| Default model | deepseek-chat / deepseek-coder |
| Endpoint | https://api.deepseek.com/v1 |
Doubao (ByteDance)
| Parameter | Value |
|---|---|
| Provider | doubao |
| API Key | Volcengine API Key |
| Endpoint | https://ark.cn-beijing.volces.com/api/v3 |
Other Chinese Models
Minimax, Step AI, and Yi (01.AI) all support the OpenAI-compatible interface. Just fill in the corresponding API Key and endpoint URL.
International Models
Claude (Anthropic)
{
"provider": "anthropic",
"apiKey": "sk-ant-your-key",
"model": "claude-sonnet-4-5",
"baseURL": "https://api.anthropic.com/v1"
}GPT-4 (OpenAI)
{
"provider": "openai",
"apiKey": "sk-your-openai-key",
"model": "gpt-4o",
"baseURL": "https://api.openai.com/v1"
}baseURL.Gemini (Google)
| Parameter | Value |
|---|---|
| Provider | google |
| API Key | Google AI Studio API Key |
| Default model | gemini-1.5-pro / gemini-1.5-flash |
Llama / Mistral / Cohere
These models can be called via cloud platforms like Groq, Together AI, or Replicate. Just enter the corresponding API Key and endpoint.
Local Models
EXO (Distributed Local Inference)
EXO lets you use multiple Macs as a cluster to run large models like Qwen3-235B and GLM-4.
# Install EXO
pip install exo
# Start EXO service (default port 52415)
exo{
"provider": "exo",
"baseURL": "http://localhost:52415/v1",
"model": "qwen3-235b"
}Ollama
# Install Ollama (macOS)
brew install ollama
# Pull and run a model
ollama pull llama3
ollama serve{
"provider": "ollama",
"baseURL": "http://localhost:11434/v1",
"model": "llama3"
}Switching Models
NeoWeb AI supports multiple models simultaneously. Use the model selector at the top of the chat interface to switch at any time.
Setting a Default Model
In Settings → Models, set any configured model as "Default" — new conversations will automatically use it.