Dedicated Token API Guide

专用Token
接入文档中心

一个页面集中说明 Dedicated Token 的网关地址、Token 使用方式、各类客户端与开发工具的安装配置方法。点击下方卡片即可弹出对应项目的详细接入指南。

🌐 API 网关:https://www.dedicatedtoken.com/🔐 Key:控制台生成的专用 Token⚡ OpenAI / Claude 兼容接入
Dedicated Token Logo
Must Read

接入前先看这 3 个参数

绝大多数工具只需要填写 Base URL、API Key、模型名。使用 Dedicated Token 时,请把同行文档中的旧域名统一替换为你的站点地址。

OpenAI Base URLhttps://www.dedicatedtoken.com/v1
适用于 OpenAI SDK、Cursor、Cherry Studio、OpenAI Compatible 工具。
Anthropic API URLhttps://www.dedicatedtoken.com/v1
适用于 OpenClaw、QClaw、Claude 兼容工具。路径报错时再尝试根域名。
API Keysk-your-dedicated-token
登录控制台,在「令牌管理」创建,填入 Bearer Token / API Key 位置。
重要:不要填写同行站点的 api.mytokenland.com。你的文档、客户端和代码示例都应使用 https://www.dedicatedtoken.com/
Install Guides

按项目查看安装配置

以下指南按常见项目与客户端拆分。每个弹窗都包含推荐协议、Base URL、模型名、配置步骤和常见问题。

👜

Hermes 爱马仕

Claude / Anthropic 兼容

适合需要 Claude 兼容协议的开发工具,填写 API URL、Token、模型名即可。

🦞

OpenClaw

Anthropic-compatible

参考同行文档的 OpenClaw 配置方式,重点填写 Base URL、协议和默认模型。

🐾

QClaw

Claude-compatible

适用于 QClaw 类 Claude 客户端,把 API 地址替换为 Dedicated Token 即可。

☁️

腾讯云 / 云函数

服务端转发

适合把 Token 放在服务端,避免前端泄露密钥,并统一封装业务接口。

🍒

Cherry Studio

OpenAI Compatible

在模型服务商里添加自定义 OpenAI,填写 Base URL 和 API Key。

Claude Code

终端编程助手

通过环境变量或配置文件接入 Dedicated Token 的 Claude 兼容接口。

CodeX

代码 Agent / CLI

按照 OpenAI Compatible 或 Claude Compatible 两种方式配置,按工具要求选择。

🎨

gpt-image-2 出图

图像生成接口

适合在支持 Images API 的工具里使用模型名 gpt-image-2 生成图片。

🤝

WorkBuddy

团队效率工具

在模型供应商设置里选择自定义 OpenAI 或 Anthropic,然后填入网关参数。

⌨️

OpenCode

终端 / IDE Coding

推荐使用 OpenAI Compatible 配置,也可按 Anthropic 兼容方式调用 Claude 类模型。

🐍

Python / Node SDK

代码项目接入

直接使用 OpenAI SDK 指定 base_url / baseURL,适合自研业务系统。

💰

计费与模型倍率

价格说明

说明 1 百万 Tokens 计费、模型倍率、缓存倍率与输出倍率的理解方式。

Pricing Snapshot

基础计费速览

采用按 1 百万 Tokens 为单位的倍率计费。一个 Key 可通用全模型,倍率用于映射不同模型的成本差异。

0.4 元1 倍率 / 100万输入 Tokens
0.8 元2 倍率 / 100万输入 Tokens
2 元5 倍率 / 100万输入 Tokens
4 元10 倍率 / 100万输入 Tokens
FAQ

常见问题

Base URL 填 /v1 还是根域名?

OpenAI Compatible 工具一般填 https://www.dedicatedtoken.com/v1。如果某个 Anthropic 工具自动拼接 /v1/messages 导致路径重复,再改成根域名。

Token 填在哪里?

在工具的 API Key、Bearer Token、Auth Token 位置填写控制台创建的专用 Token。

模型名从哪里看?

进入 Dedicated Token 控制台的模型广场或模型列表,复制实际可用模型名称。

401 / Unauthorized 怎么办?

检查 Token 是否复制完整,是否带多余空格,是否使用了 Bearer 格式,账号余额是否正常。

Hermes(爱马仕)配置指南

适用于需要 Anthropic / Claude 兼容协议的客户端。

推荐参数

  • 协议:AnthropicClaude-compatible
  • Base URL / API URL:https://www.dedicatedtoken.com/v1
  • API Key:控制台生成的专用 Token
  • 默认模型:建议先用 claude-sonnet-4-6 或后台可用的 Claude 类模型测试

配置步骤

01
打开 Hermes 设置进入模型服务商或 API Provider 设置页面,选择新增自定义服务。
02
选择协议优先选择 Anthropic / Claude-compatible;如果只有 OpenAI-compatible,则改用 OpenAI Base URL。
03
填写网关参数API URL 填 Dedicated Token 网关,Key 填你的专用 Token,模型名填控制台可用模型。
04
发送测试消息输入一句简单问题测试。如果报路径错误,尝试将 Base URL 从 /v1 改为根域名。

OpenClaw 使用指南

OpenClaw 通常按 Anthropic-compatible / Claude-compatible 方式配置。

关键参数

Base URL:https://www.dedicatedtoken.com/v1
协议:Anthropic
兼容格式:Anthropic-compatible / Claude-compatible
默认模型:claude-sonnet-4-6 或控制台可用模型

方法一:通过配置文件使用

在 OpenClaw 的 Provider / Model 配置文件中新增一个 Dedicated Token 供应商:

openclaw config 示例示意
{
  "providers": {
    "dedicated-token": {
      "type": "anthropic",
      "base_url": "https://www.dedicatedtoken.com/v1",
      "api_key": "sk-your-dedicated-token"
    }
  },
  "models": {
    "dt-sonnet": {
      "provider": "dedicated-token",
      "model": "claude-sonnet-4-6"
    }
  }
}

方法二:在界面里填写

  1. 打开 OpenClaw 设置。
  2. 选择 Anthropic / Claude-compatible。
  3. Base URL 填 https://www.dedicatedtoken.com/v1
  4. API Key 填专用 Token。
  5. Model 填模型名并保存。

如果工具提示 404 或路径重复,尝试把 Base URL 改为 https://www.dedicatedtoken.com 后再测试。

QClaw 使用指南

QClaw 与 OpenClaw 类似,核心是选择 Claude 兼容协议并填写 Dedicated Token 网关。

推荐填写

  • API 类型:Anthropic / Claude-compatible
  • API URL:https://www.dedicatedtoken.com/v1
  • API Key:sk-your-dedicated-token
  • Model:从控制台模型广场复制

配置步骤

  1. 进入 QClaw 的模型设置或供应商设置。
  2. 新增自定义供应商,命名为 Dedicated Token。
  3. 选择 Anthropic / Claude-compatible。
  4. 填写 API URL 与 API Key。
  5. 保存后新建会话,选择该模型测试。
测试请求思路Claude messages
API URL: https://www.dedicatedtoken.com/v1
Authorization: Bearer sk-your-dedicated-token
Model: claude-sonnet-4-6

腾讯云 / 云函数服务端转发

推荐把专用 Token 放在服务端,前端只访问你的业务接口,避免密钥暴露。

适用场景

  • 网站前端、H5、小程序不能直接暴露 API Key。
  • 需要统一做鉴权、限流、日志、费用统计。
  • 需要把 OpenAI 请求封装成自己的业务接口。

Node.js 云函数示例

serverless function示意
export async function main(event) {
  const body = JSON.parse(event.body || "{}");

  const resp = await fetch("https://www.dedicatedtoken.com/v1/chat/completions", {
    method: "POST",
    headers: {
      "Content-Type": "application/json",
      "Authorization": "Bearer " + process.env.DT_API_KEY
    },
    body: JSON.stringify({
      model: body.model || "gpt-4o-mini",
      messages: body.messages || []
    })
  });

  return {
    statusCode: resp.status,
    body: await resp.text()
  };
}

部署步骤

  1. 在腾讯云函数中新建 Node.js 函数。
  2. 添加环境变量 DT_API_KEY,值为你的专用 Token。
  3. 把网关请求地址写为 https://www.dedicatedtoken.com/v1/chat/completions
  4. 开启 HTTP 触发器,前端请求你的云函数地址。

生产环境请增加自己的登录校验、频率限制和日志记录,避免接口被刷。

Cherry Studio 配置指南

Cherry Studio 推荐使用 OpenAI Compatible 方式接入。

配置步骤

  1. 打开 Cherry Studio,进入「设置」→「模型服务」。
  2. 新增供应商,选择 OpenAI Compatible 或自定义 OpenAI。
  3. 名称填写 Dedicated Token
  4. API 地址填写 https://www.dedicatedtoken.com/v1
  5. API Key 填写控制台创建的专用 Token。
  6. 添加模型名称,例如 gpt-4o-minideepseek-v3.2claude-sonnet-4-6
  7. 保存后点击检查或直接对话测试。
Cherry Studio 字段推荐值
Provider: OpenAI Compatible
Name: Dedicated Token
API Host: https://www.dedicatedtoken.com/v1
API Key: sk-your-dedicated-token
Model: 从控制台模型广场复制

Claude Code 部署指南

通过环境变量让 Claude Code 请求 Dedicated Token 的 Claude 兼容网关。

方式一:临时环境变量

macOS / LinuxTerminal
export ANTHROPIC_AUTH_TOKEN="sk-your-dedicated-token"
export ANTHROPIC_BASE_URL="https://www.dedicatedtoken.com/v1"
export ANTHROPIC_MODEL="claude-sonnet-4-6"
claude

方式二:写入 shell 配置

~/.zshrc 或 ~/.bashrc持久化
export ANTHROPIC_AUTH_TOKEN="sk-your-dedicated-token"
export ANTHROPIC_BASE_URL="https://www.dedicatedtoken.com/v1"
export ANTHROPIC_MODEL="claude-sonnet-4-6"

Windows PowerShell

PowerShell当前窗口
$env:ANTHROPIC_AUTH_TOKEN="sk-your-dedicated-token"
$env:ANTHROPIC_BASE_URL="https://www.dedicatedtoken.com/v1"
$env:ANTHROPIC_MODEL="claude-sonnet-4-6"
claude

如出现路径重复或 404,将 ANTHROPIC_BASE_URL 改为 https://www.dedicatedtoken.com 后重试。不同版本 Claude Code 对 Base URL 拼接方式可能不同。

CodeX 部署指南

CodeX 类工具通常支持 OpenAI Compatible,自定义 Base URL 即可。

OpenAI Compatible 配置

环境变量推荐
OPENAI_API_KEY=sk-your-dedicated-token
OPENAI_BASE_URL=https://www.dedicatedtoken.com/v1
OPENAI_MODEL=gpt-4o-mini

配置文件示例

codex config示意
{
  "provider": "openai-compatible",
  "baseURL": "https://www.dedicatedtoken.com/v1",
  "apiKey": "sk-your-dedicated-token",
  "model": "gpt-4o-mini"
}

建议

  • 写代码场景建议先选择响应快、上下文足够的代码模型。
  • 如果 CodeX 支持 Claude 协议,也可以按 Claude-compatible 方式配置。
  • 不同项目尽量创建独立 Token,便于统计与限制额度。

gpt-image-2 图片生成指南

用于支持 Images API 的客户端或自定义代码调用。

curl 示例

Images API示意
curl https://www.dedicatedtoken.com/v1/images/generations \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-dedicated-token" \
  -d '{
    "model": "gpt-image-2",
    "prompt": "一个青绿色科技感的 API 网关 Logo 海报",
    "size": "1024x1024"
  }'

Python 示例

Pythonopenai sdk
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-dedicated-token",
    base_url="https://www.dedicatedtoken.com/v1"
)

image = client.images.generate(
    model="gpt-image-2",
    prompt="一个青绿色科技感的 API 网关 Logo 海报",
    size="1024x1024"
)

print(image.data[0].url)

图片模型可能按张或按任务计费,请以控制台实际模型倍率与日志为准。

WorkBuddy 配置指南

用于团队协作、办公助手、知识库或工作流工具。

配置方式

  1. 进入 WorkBuddy 的 AI 模型或 LLM Provider 设置。
  2. 选择 OpenAI Compatible,如有 Claude 模式也可选择 Anthropic Compatible
  3. Base URL 填 https://www.dedicatedtoken.com/v1
  4. API Key 填专用 Token。
  5. 模型名填控制台可用模型。

推荐模型用途

场景建议说明
日常办公低倍率通用模型用于总结、改写、翻译。
长文档分析高上下文模型优先选择上下文窗口更大的模型。
代码/Agent代码模型或 Claude 类模型适合工具调用、项目理解、自动修复。

OpenCode 配置指南

推荐使用 OpenAI Compatible,也可按 Claude-compatible 配置 Claude 类模型。

OpenAI 方式

环境变量推荐
export OPENAI_API_KEY="sk-your-dedicated-token"
export OPENAI_BASE_URL="https://www.dedicatedtoken.com/v1"
export OPENAI_MODEL="gpt-4o-mini"
opencode

配置文件方式

opencode.json示意
{
  "provider": "openai-compatible",
  "baseURL": "https://www.dedicatedtoken.com/v1",
  "apiKey": "sk-your-dedicated-token",
  "model": "gpt-4o-mini"
}

排查

  • 如果提示模型不存在,复制控制台模型广场里的准确名称。
  • 如果提示 401,检查 API Key 是否复制完整。
  • 如果输出很慢,换响应更快的模型测试。

Python / Node SDK 接入

适合自研网站、后端服务、Agent 应用、自动化脚本。

Python

PythonOpenAI SDK
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-dedicated-token",
    base_url="https://www.dedicatedtoken.com/v1"
)

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "system", "content": "你是一个有帮助的 AI 助手。"},
        {"role": "user", "content": "请介绍 Dedicated Token。"}
    ]
)

print(response.choices[0].message.content)

Node.js

Node.jsOpenAI SDK
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "sk-your-dedicated-token",
  baseURL: "https://www.dedicatedtoken.com/v1"
});

const response = await client.chat.completions.create({
  model: "gpt-4o-mini",
  messages: [
    { role: "user", content: "请介绍 Dedicated Token。" }
  ]
});

console.log(response.choices[0].message.content);

流式输出

streamPython 示例
stream = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "写一段文案"}],
    stream=True
)
for chunk in stream:
    delta = chunk.choices[0].delta.content
    if delta:
        print(delta, end="")

计费规则与模型倍率说明

按 1 百万 Tokens 为单位计费,一个 Key 通用全模型,倍率代表不同模型的成本差异。

基础计费标准

倍率1 百万输入 Tokens 价格说明
0.75 倍率0.3 元低成本高速模型常见倍率。
1 倍率0.4 元基础倍率。
2 倍率0.8 元中等成本模型。
5 倍率2 元高能力模型或复杂任务。
10 倍率4 元旗舰模型常见倍率。

示例模型表

厂家/类型模型名称输入倍率100万输入 Tokens推荐上下文
国产聚合claude-sonnet-4-60.750.3 元196000
MiniMaxMiniMax-M2.70.750.3 元196000
MiniMaxMiniMax-M2.7-highspeed10.4 元196000
小米mimo-v2.520.8 元990000
Kimikimi-k2.510.4 元253000
字节跳动doubao-seed-2.0-code20.8 元200k
深度求索deepseek-v3.231.2 元128000
智谱glm-5.152 元253000
OpenAIgpt-5.4-mini31.2 元400000
Anthropicclaude-opus-4-6104 元990000

理解输入、缓存、输出

  • 输入倍率:用户发给模型的上下文、提示词、历史消息所消耗的倍率。
  • 缓存倍率:命中缓存的上下文通常更便宜,具体以后台日志为准。
  • 输出倍率:多数模型输出价格高于输入,常见情况是输入的数倍,最终以控制台用量日志为准。
  • 图片模型:可能按张计费或按任务计费,请以模型广场实际说明为准。

以上模型与倍率是文档展示示例。你正式上线前,应以 Dedicated Token 后台「模型广场 / 模型列表 / 使用日志」显示的实时信息为准。