🤖 模型配置

NeoWeb AI 支持 20+ 主流 AI 模型,包括国内模型、国际模型以及本地部署模型。本页介绍如何配置各类模型。

配置入口

在 NeoWeb AI 界面中,进入 设置(⚙️)→ 模型管理,点击「添加模型」即可开始配置。每个模型需要提供 API Key 和 API 端点(部分模型有默认端点)。

国内模型

通义千问(阿里云)

前往 阿里云百炼平台 获取 API Key。

参数
Providerqwen
API Key阿里云 DashScope API Key
默认模型qwen-turbo / qwen-plus / qwen-max
端点https://dashscope.aliyuncs.com/compatible-mode/v1

文心一言(百度)

前往 百度智能云千帆平台 获取 API Key。

参数
Providerwenxin
API Key千帆平台 API Key
默认模型ernie-4.0-turbo-8k

讯飞星火

前往 科大讯飞开放平台 获取 AppID 和 API Key。

参数
Providerspark
API KeyAppID:APIKey:APISecret
默认模型spark-pro / spark-max

GLM(智谱AI)

前往 智谱 AI 开放平台 获取 API Key。

json
{
  "provider": "zhipu",
  "apiKey": "your-zhipu-api-key",
  "model": "glm-4",
  "baseURL": "https://open.bigmodel.cn/api/paas/v4"
}

Kimi(月之暗面)

参数
Providermoonshot
API Key月之暗面开放平台 Key
默认模型moonshot-v1-8k / moonshot-v1-32k
端点https://api.moonshot.cn/v1

DeepSeek

参数
Providerdeepseek
API KeyDeepSeek 平台 API Key
默认模型deepseek-chat / deepseek-coder
端点https://api.deepseek.com/v1

豆包(字节跳动)

参数
Providerdoubao
API Key火山引擎 API Key
端点https://ark.cn-beijing.volces.com/api/v3

其他国内模型

Minimax、阶跃星辰(Step)、零一万物(Yi)均支持 OpenAI 兼容接口,配置方式相同:填写对应平台的 API Key 和端点地址即可。

国际模型

Claude(Anthropic)

json
{
  "provider": "anthropic",
  "apiKey": "sk-ant-your-key",
  "model": "claude-sonnet-4-5",
  "baseURL": "https://api.anthropic.com/v1"
}

GPT-4(OpenAI)

json
{
  "provider": "openai",
  "apiKey": "sk-your-openai-key",
  "model": "gpt-4o",
  "baseURL": "https://api.openai.com/v1"
}
ℹ️ 支持兼容 OpenAI 接口的第三方代理。只需修改 baseURL 即可。

Gemini(Google)

参数
Providergoogle
API KeyGoogle AI Studio API Key
默认模型gemini-1.5-pro / gemini-1.5-flash

Llama(Meta)/ Mistral / Cohere

这三个模型可通过 Groq、Together AI、Replicate 等云平台调用,填入对应的 API Key 和端点地址即可。

本地模型

EXO(分布式本地推理)

EXO 允许你使用多台 Mac 组成集群运行大型模型,支持 Qwen3-235B、GLM-4 等。

bash
# 安装 EXO
pip install exo

# 启动 EXO 服务(默认端口 52415)
exo

在 NeoWeb AI 中配置:

json
{
  "provider": "exo",
  "baseURL": "http://localhost:52415/v1",
  "model": "qwen3-235b"
}

Ollama

Ollama 是最常用的本地模型运行工具,支持 Llama、Qwen、Mistral 等众多模型。

bash
# 安装 Ollama(macOS)
brew install ollama

# 拉取并运行模型
ollama pull llama3
ollama serve

在 NeoWeb AI 中配置:

json
{
  "provider": "ollama",
  "baseURL": "http://localhost:11434/v1",
  "model": "llama3"
}

多模型切换

NeoWeb AI 支持同时配置多个模型,在对话界面顶部的模型选择器中可以随时切换。不同任务使用不同模型,灵活高效。

默认模型设置

设置 → 模型 中,将任意已配置的模型设为「默认」,新建对话将自动使用该模型。

🤖 Model Configuration

NeoWeb AI supports 20+ AI models, including Chinese domestic, international, and locally-deployed models.

How to Configure

In the NeoWeb AI interface, go to Settings (⚙️) → Model Management and click "Add Model". Each model requires an API Key and endpoint (some models have defaults).

Chinese Domestic Models

Qwen (Alibaba Cloud)

Get your API Key from Alibaba Cloud Bailian Platform.

ParameterValue
Providerqwen
API KeyAlibaba Cloud DashScope API Key
Default modelsqwen-turbo / qwen-plus / qwen-max
Endpointhttps://dashscope.aliyuncs.com/compatible-mode/v1

ERNIE (Baidu)

Get your API Key from Baidu Qianfan Platform.

ParameterValue
Providerwenxin
API KeyQianfan API Key
Default modelernie-4.0-turbo-8k

Spark (iFlytek)

ParameterValue
Providerspark
API KeyAppID:APIKey:APISecret
Default modelspark-pro / spark-max

GLM (ZhipuAI)

json
{
  "provider": "zhipu",
  "apiKey": "your-zhipu-api-key",
  "model": "glm-4",
  "baseURL": "https://open.bigmodel.cn/api/paas/v4"
}

Kimi (Moonshot)

ParameterValue
Providermoonshot
API KeyMoonshot Platform Key
Default modelmoonshot-v1-8k / moonshot-v1-32k
Endpointhttps://api.moonshot.cn/v1

DeepSeek

ParameterValue
Providerdeepseek
API KeyDeepSeek API Key
Default modeldeepseek-chat / deepseek-coder
Endpointhttps://api.deepseek.com/v1

Doubao (ByteDance)

ParameterValue
Providerdoubao
API KeyVolcengine API Key
Endpointhttps://ark.cn-beijing.volces.com/api/v3

Other Chinese Models

Minimax, Step AI, and Yi (01.AI) all support the OpenAI-compatible interface. Just fill in the corresponding API Key and endpoint URL.

International Models

Claude (Anthropic)

json
{
  "provider": "anthropic",
  "apiKey": "sk-ant-your-key",
  "model": "claude-sonnet-4-5",
  "baseURL": "https://api.anthropic.com/v1"
}

GPT-4 (OpenAI)

json
{
  "provider": "openai",
  "apiKey": "sk-your-openai-key",
  "model": "gpt-4o",
  "baseURL": "https://api.openai.com/v1"
}
ℹ️ Supports OpenAI-compatible third-party proxies. Just change the baseURL.

Gemini (Google)

ParameterValue
Providergoogle
API KeyGoogle AI Studio API Key
Default modelgemini-1.5-pro / gemini-1.5-flash

Llama / Mistral / Cohere

These models can be called via cloud platforms like Groq, Together AI, or Replicate. Just enter the corresponding API Key and endpoint.

Local Models

EXO (Distributed Local Inference)

EXO lets you use multiple Macs as a cluster to run large models like Qwen3-235B and GLM-4.

bash
# Install EXO
pip install exo

# Start EXO service (default port 52415)
exo
json
{
  "provider": "exo",
  "baseURL": "http://localhost:52415/v1",
  "model": "qwen3-235b"
}

Ollama

bash
# Install Ollama (macOS)
brew install ollama

# Pull and run a model
ollama pull llama3
ollama serve
json
{
  "provider": "ollama",
  "baseURL": "http://localhost:11434/v1",
  "model": "llama3"
}

Switching Models

NeoWeb AI supports multiple models simultaneously. Use the model selector at the top of the chat interface to switch at any time.

Setting a Default Model

In Settings → Models, set any configured model as "Default" — new conversations will automatically use it.