Coala Client: LLM 和 MCP 服务器的 CLI - Openclaw Skills

作者:互联网

2026-04-15

AI教程

什么是 Coala Client?

coala-client 是一款专为开发者设计的高性能 CLI 工具,用于与兼容 OpenAI 的 LLM 和模型上下文协议 (MCP) 服务器交互。作为 coala 生态系统的核心部分,它为聊天、单次提示查询和高级工具调用提供了统一的界面。对于希望通过将专业的 Openclaw Skills 和 CWL 工具集导入本地环境来扩展其 AI 能力的用户,该客户端特别有价值。

通过促进与 Gemini 和 Ollama 等提供商的直接通信,coala-client 实现了多样化的开发工作流程。用户可以轻松管理复杂的配置和环境变量,同时利用各种 Openclaw Skills 的模块化力量,通过终端优先的方式自动执行研究、编码任务和系统操作。

下载入口:https://github.com/openclaw/skills/tree/main/skills/hubentu/skills-4

安装与下载

1. ClawHub CLI

从源直接安装技能的最快方式。

npx clawhub@latest install skills-4

2. 手动安装

将技能文件夹复制到以下位置之一

全局模式 ~/.openclaw/skills/ 工作区 /skills/

优先级:工作区 > 本地 > 内置

3. 提示词安装

将此提示词复制到 OpenClaw 即可自动安装。

请帮我使用 Clawhub 安装 skills-4。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。

Coala Client 应用场景

  • 使用集成的 MCP 工具和 Openclaw Skills 进行交互式聊天会话。
  • 快速执行命令行 AI 查询,用于可脚本化的自动化。
  • 导入基于 CWL 的工具集,通过 MCP 扩展代理功能。
  • 在聊天期间动态加载 Openclaw Skills,以处理专门的逻辑或数据处理。
  • 直接从 CLI 使用自定义 JSON 参数测试和调试 MCP 工具调用。
Coala Client 工作原理
  1. 初始化 coala-client 环境,为 MCP 和 Openclaw Skills 设置必要的配置文件。
  2. 在配置目录中定义 LLM 提供商凭据和环境变量。
  3. 从本地目录、ZIP 存档或远程 GitHub 仓库导入 MCP 服务器或 Openclaw Skills。
  4. 执行 chat 命令开始交互式会话,或执行 ask 命令执行一次性任务。
  5. 在聊天中使用斜杠命令列出服务器、查看可用工具,并将特定的 Openclaw Skills 加载到当前上下文中。

Coala Client 配置指南

使用 uv 包管理器可以轻松开始使用 coala-client 和 Openclaw Skills:

# 安装客户端
uv tool install coala-client

# 初始化配置环境
coala init

# 导出您首选的 LLM API 密钥
export OPENAI_API_KEY=your_key

# 开始使用集成的工具和技能进行聊天
coala chat

Coala Client 数据架构与分类体系

coala-client 通过 ~/.config/coala/ 中的结构化文件系统管理其生态系统,包括 MCP 服务器和 Openclaw Skills:

组件 路径 描述
MCP 配置 mcps/mcp_servers.json 存储服务器定义和工具集注册。
Openclaw Skills skills/ 包含每个导入技能集的子文件夹及其 SKILL.md 文档。
环境 env 用于提供商密钥和 MCP 特定变量的可选文件。
工具集 mcps// CWL 文件和执行逻辑的本地存储。
name: coala-client
description: How to use the coala-client CLI for chat with LLMs, MCP servers, and skills. Use when the user asks how to use coala, run coala chat, add MCP servers, import CWL toolsets, list or call MCP tools, import or load skills, or use the sandbox run_command tool.
homepage: https://github.com/coala-info/coala_client
metadata: {"clawdbot":{"emoji":"??","requires":{"bins":["coala-client"]},"install":[{"id":"uv","kind":"uv","package":"coala-client","bins":["coala-client"],"label":"Install coala-client (uv)"}]}}

Coala Client

Part of the coala ecosystem. CLI for chat with OpenAI-compatible LLMs (OpenAI, Gemini, Ollama) and MCP (Model Context Protocol) servers. Supports importing CWL toolsets as MCP servers, importing skills, and an optional sandbox to run shell commands.

Config paths

  • MCP config and toolsets: ~/.config/coala/mcps/
    • mcp_servers.json — server definitions
    • / — per-toolset dirs with run_mcp.py and CWL files
  • Skills: ~/.config/coala/skills/ (one subfolder per imported source)
  • Env: ~/.config/coala/env (optional; key=value for providers and MCP env)

Quick start

  1. Init (first time)
    coala init — creates ~/.config/coala/mcps/mcp_servers.json and env.

  2. Set API key
    e.g. export OPENAI_API_KEY=... or export GEMINI_API_KEY=.... Ollama needs no key.

  3. Chat
    coala or coala chat — interactive chat with MCP tools.
    coala ask "question" — single prompt with MCP.

  4. Options
    -p, --provider (openai|gemini|ollama|custom), -m, --model, --no-mcp, --sandbox.

MCP: CWL toolsets

No API key needed for MCP import, list, or call — only for chat/ask with an LLM.

  • Import (creates toolset under ~/.config/coala/mcps// and registers server):
    coala mcp-import or alias coala mcp ...
    SOURCES: local .cwl files, a .zip, or http(s) URLs to a .cwl or .zip.
    Requires the coala package where the MCP server runs (for run_mcp.py).

  • List
    coala mcp-list — list server names.
    coala mcp-list — print each tool’s schema (name, description, inputSchema).

  • Call
    coala mcp-call . --args ''
    Example: coala mcp-call gene-variant.ncbi_datasets_gene --args '{"data": [{"gene": "TP53", "taxon": "human"}]}'

Skills

  • Import (into ~/.config/coala/skills/, one subfolder per source):
    coala skill
    SOURCES: GitHub tree URL (e.g. https://github.com/owner/repo/tree/main/skills), zip URL, or local zip/dir.

  • In chat
    /skill — list installed skills.
    /skill — load skill from ~/.config/coala/skills// (e.g. SKILL.md) into context.

Chat commands

  • /help, /exit, /quit, /clear
  • /tools — list MCP tools
  • /servers — list connected MCP servers
  • /skill — list skills; /skill — load a skill
  • /model — show model info
  • /switch — switch provider

MCP on/off

  • All off: coala --no-mcp (or coala ask "..." --no-mcp).
  • One server off: remove its entry from ~/.config/coala/mcps/mcp_servers.json.
  • On: default when --no-mcp is not used; add or restore servers in mcp_servers.json.

Providers and env

Set provider via -p or env PROVIDER. Set keys and URLs per provider (e.g. OPENAI_API_KEY, GEMINI_API_KEY, OLLAMA_BASE_URL). Optional: put vars in ~/.config/coala/env.
coala config — print current config paths and provider/model info.

相关推荐