LLM Council Router:数据驱动的 LLM 选择 - Openclaw Skills
作者:互联网
2026-03-30
什么是 LLM Council Router?
LLM Council Router 是一款复杂的路由引擎,旨在消除模型选择过程中的盲目尝试。通过利用数千次同行评审委员会的评议数据,该工具可以针对任何特定查询识别出性能最佳的大语言模型。它为开发人员提供了一个基于数据的推荐引擎,确保任务始终由目前能力最强的模型处理。
作为 Openclaw Skills 生态系统的一部分,该工具充当智能中间件层。它不仅仅是猜测哪个模型更好,而是通过分析真实的评估数据来返回特定的模型 ID、相关性分数和置信度,从而在复杂的 AI 工作流中实现高精度的自动化。
下载入口:https://github.com/openclaw/skills/tree/main/skills/ashtiwariasu/llmcouncil-router
安装与下载
1. ClawHub CLI
从源直接安装技能的最快方式。
npx clawhub@latest install llmcouncil-router
2. 手动安装
将技能文件夹复制到以下位置之一
全局模式~/.openclaw/skills/
工作区
/skills/
优先级:工作区 > 本地 > 内置
3. 提示词安装
将此提示词复制到 OpenClaw 即可自动安装。
请帮我使用 Clawhub 安装 llmcouncil-router。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。
LLM Council Router 应用场景
- 为专业任务(如量子物理学解释或复杂的编码挑战)选择最佳模型。
- 在多智能体系统中实施动态调度,以确保每个子任务都能获得最高质量的输出。
- 通过将提示路由到在特定领域表现出色的模型,减少模型幻觉。
- 通过 Openclaw Skills 基准测试和选择模型,在不牺牲质量的情况下保持成本效益。
- 智能体或应用程序将用户的提示发送到 LLM Council 路由端点。
- 系统在其数据库中搜索与特定查询类型相关的最接近的委员会评估。
- 路由器根据同行评审测试中的近期胜率和出现频率计算模型排名。
- 返回包含最佳推荐模型 ID 和置信度分数的 JSON 响应。
- 开发人员或智能体使用此建议来调用特定模型,通常与 OpenRouter 等供应商链式调用。
LLM Council Router 配置指南
要使用此技能,您必须首先从 LLM Council 开发人员门户获取 API 密钥。获取后,设置环境变量以验证您的请求。
export LLMCOUNCIL_API_KEY='clwb_YOUR_KEY_HERE'
然后,您可以使用简单的 curl 命令触发路由请求:
curl -X POST https://clawbot.llmcouncil.ai/v1/route r
-H "Content-Type: application/json" r
-H "X-API-Key: $LLMCOUNCIL_API_KEY" r
-d '{"query": "简单解释量子纠缠"}'
LLM Council Router 数据架构与分类体系
LLM Council Router 返回结构化数据,以便于与其他 Openclaw Skills 和模型提供商集成。
| 属性 | 描述 |
|---|---|
model |
推荐的模型字符串,格式化为可直接在 OpenRouter 中使用。 |
relevance |
浮点数 (0-1),指示查询与历史评估数据的匹配程度。 |
confidence |
浮点数 (0-1),代表顶级模型相对于竞争对手的领先幅度。 |
model_rankings |
对象数组,详细列出了所有考虑模型的性能。 |
name: llmcouncil-router
description: Route any prompt to the best-performing LLM using peer-reviewed council rankings from LLM Council
homepage: https://llmcouncil.ai
user-invocable: true
metadata: {"openclaw":{"requires":{"env":["LLMCOUNCIL_API_KEY"]},"emoji":"??"}}
LLM Council Router
Route any prompt to the best-performing LLM. The API finds the top model for a given query based on thousands of peer-reviewed council deliberations — then you call that model directly.
Base URL
https://clawbot.llmcouncil.ai
Authentication
Use the X-API-Key header with your LLM Council API key.
X-API-Key: clwb_YOUR_KEY_HERE
Get a free key at llmcouncil.ai/developers.
Endpoint: POST /v1/route
Find the best-performing model for a query.
Request
{
"query": "Explain quantum entanglement simply",
"k": 20
}
| Field | Type | Required | Description |
|---|---|---|---|
query |
string | Yes | The prompt or question to route |
k |
integer | No | Number of past evaluations to consider (default: 20) |
Response
{
"query": "Explain quantum entanglement simply",
"nearest_councils": 20,
"model": "anthropic/claude-sonnet-4",
"relevance": 0.8234,
"confidence": 0.65,
"model_rankings": [
{ "rank": 1, "model": "anthropic/claude-sonnet-4", "nearby_wins": 13, "nearby_appearances": 20 },
{ "rank": 2, "model": "openai/gpt-4.1", "nearby_wins": 5, "nearby_appearances": 18 }
]
}
| Field | Type | Description |
|---|---|---|
model |
string | Top recommended model ID (matches OpenRouter catalogue) |
relevance |
float (0–1) | How closely matched evaluations relate to your query. Above 0.75 is strong. |
confidence |
float (0–1) | How decisively the top model outperforms alternatives. Higher = clearer winner. |
nearest_councils |
integer | Number of relevant past evaluations used |
model_rankings |
array | All models ranked by performance across matched evaluations |
How to use this skill
When the user asks you to find the best model for a task, or when you need to decide which LLM to use:
- Call the routing API with the user's query:
curl -X POST https://clawbot.llmcouncil.ai/v1/route r
-H "Content-Type: application/json" r
-H "X-API-Key: $LLMCOUNCIL_API_KEY" r
-d '{"query": "USER_QUERY_HERE"}'
-
Read the response — the
modelfield is the best-performing model for that query type. -
Chain with OpenRouter — model IDs match the OpenRouter catalogue directly, no mapping needed:
import requests, os
# Step 1: Get the best model from LLM Council
route = requests.post(
"https://clawbot.llmcouncil.ai/v1/route",
headers={"X-API-Key": os.environ["LLMCOUNCIL_API_KEY"]},
json={"query": "Write a Python web scraper"},
).json()
best_model = route["model"] # e.g. "anthropic/claude-sonnet-4"
confidence = route["confidence"] # e.g. 0.85
# Step 2: Call that model via OpenRouter
answer = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={"Authorization": f"Bearer {os.environ['OPENROUTER_API_KEY']}"},
json={
"model": best_model,
"messages": [{"role": "user", "content": "Write a Python web scraper"}],
},
).json()
print(answer["choices"][0]["message"]["content"])
Rate Limits
| Tier | Daily Limit | Attribution |
|---|---|---|
| Free | 100 requests/day | Required |
| Pro | 10,000 requests/day | None |
When to use this
- User asks "which model is best for X?"
- You need to pick the optimal model for a specific task type
- You want data-driven model selection instead of guessing
- You want to chain model routing with OpenRouter for automatic best-model dispatch
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
信号管道:自动化营销情报工具 - Openclaw Skills
技能收益追踪器:监控 Openclaw 技能并实现变现
AI 合规准备就绪度:评估与治理工具 - Openclaw Skills
FOSMVVM ServerRequest 测试生成器:自动化 API 测试 - Openclaw Skills
酒店搜索器:AI 赋能的住宿与位置情报 - Openclaw Skills
Dub 链接 API:程序化链接管理 - Openclaw Skills
IntercomSwap:P2P BTC 与 USDT 跨链兑换 - Openclaw Skills
spotplay:macOS 原生 Spotify 播放控制 - Openclaw Skills
DeepSeek OCR:AI驱动的图像文本识别 - Openclaw Skills
Web Navigator:自动化网页研究与浏览 - Openclaw Skills
AI精选
