Inference.sh 智能体工具:运行 150+ AI 模型 - Openclaw Skills
作者:互联网
2026-04-14
什么是 Agent Tools (Inference.sh)?
此技能将 inference.sh 平台直接集成到您的工作流中,提供统一接口来执行高性能 AI 任务,无需本地 GPU 资源。它允许开发者通过简单、安全的 CLI 利用庞大的前沿模型库——包括用于图像的 FLUX、用于视频的 Google Veo 以及通过 OpenRouter 访问的各种 LLM。通过将其添加到您的 Openclaw Skills 收藏中,您可以利用无服务器基础设施自动执行复杂的创意和分析过程。
该技能专为速度和安全性而设计,具有经过验证的二进制文件和简化的身份验证流程。无论您是在构建自动化内容管道还是高级研究智能体,这些工具都通过单一、一致的入口点提供了与 Anthropic、Google 和 Fal.ai 等顶级 AI 提供商交互所需的构建块。
下载入口:https://github.com/openclaw/skills/tree/main/skills/okaris/agent-tools
安装与下载
1. ClawHub CLI
从源直接安装技能的最快方式。
npx clawhub@latest install agent-tools
2. 手动安装
将技能文件夹复制到以下位置之一
全局模式~/.openclaw/skills/
工作区
/skills/
优先级:工作区 > 本地 > 内置
3. 提示词安装
将此提示词复制到 OpenClaw 即可自动安装。
请帮我使用 Clawhub 安装 agent-tools。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。
Agent Tools (Inference.sh) 应用场景
- 使用 FLUX 或 Gemini 模型自动生成高质量营销图像。
- 使用 Google Veo 或 Seedance 为社交媒体和演示文稿快速制作视频原型。
- 使用 Tavily 和 Exa 搜索助手进行程序化网页研究和数据提取。
- 多模型 LLM 编排,用于比较来自 Claude、Kimi 和 GLM-4 的输出。
- 社交媒体自动化(Twitter/X),包括发布、点赞和关注用户。
- 用户安装 inference.sh CLI 并通过安全登录流程进行身份验证。
- 该技能从 150 多个可用应用列表中识别任务所需的特定 AI 应用。
- 用户或智能体准备包含模型提示词或参数的 JSON 格式输入。
infsh命令将请求发送到 inference.sh 云基础设施进行无服务器执行。- 平台处理请求并将生成的资产、文本或任务状态返回给用户。
Agent Tools (Inference.sh) 配置指南
要开始在您的 Openclaw Skills 设置中使用此技能,请安装 CLI 并登录:
# 安装 CLI
curl -fsSL https://cli.inference.sh | sh
# 验证您的账户
infsh login
对于需要手动安装的用户,可以直接从 dist.inference.sh 下载二进制文件,验证 SHA-256 校验和,并将其移动到本地 bin 目录。
Agent Tools (Inference.sh) 数据架构与分类体系
该技能通过结构化 JSON 输入和基于任务的跟踪来管理数据。以下是执行应用的主要分类:
| 属性 | 类型 | 描述 |
|---|---|---|
app_id |
字符串 | AI 模型的唯一标识符(例如 google/veo-3-1-fast)。 |
input |
JSON | 模型特定参数,如 prompt、query 或 image_url。 |
task_id |
字符串 | 用于轮询异步作业状态的唯一参考 ID。 |
category |
字符串 | 用于搜索应用的元数据分类(例如 image、video、search)。 |
name: agent-tools
description: "Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation. Models: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more. Use when running AI apps, generating images/videos, calling LLMs, web search, or automating Twitter. Triggers: inference.sh, infsh, ai model, run ai, serverless ai, ai api, flux, veo, claude api, image generation, video generation, openrouter, tavily, exa search, twitter api, grok"
allowed-tools: Bash(infsh *)
inference.sh
Run 150+ AI apps in the cloud with a simple CLI. No GPU required.
](https://images.jiaoben.net/uploads/20260414/img_69dddf2ade33030.jpeg)
Install CLI
curl -fsSL https://cli.inference.sh | sh
infsh login
What does the installer do? The install script detects your OS and architecture, downloads the correct binary from
dist.inference.sh, verifies its SHA-256 checksum, and places it in your PATH. That's it — no elevated permissions, no background processes, no telemetry. If you have cosign installed, the installer also verifies the Sigstore signature automatically.Manual install (if you prefer not to pipe to sh):
# Download the binary and checksums curl -LO https://dist.inference.sh/cli/checksums.txt curl -LO $(curl -fsSL https://dist.inference.sh/cli/manifest.json | grep -o '"url":"[^"]*"' | grep $(uname -s | tr A-Z a-z)-$(uname -m | sed 's/x86_64/amd64/;s/aarch64/arm64/') | head -1 | cut -d'"' -f4) # Verify checksum sha256sum -c checksums.txt --ignore-missing # Extract and install tar -xzf inferencesh-cli-*.tar.gz mv inferencesh-cli-* ~/.local/bin/inferencesh
Quick Examples
# Generate an image
infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
# Generate a video
infsh app run google/veo-3-1-fast --input '{"prompt": "drone over mountains"}'
# Call Claude
infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'
# Web search
infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'
# Post to Twitter
infsh app run x/post-tweet --input '{"text": "Hello from AI!"}'
# Generate 3D model
infsh app run infsh/rodin-3d-generator --input '{"prompt": "a wooden chair"}'
Commands
| Task | Command |
|---|---|
| List all apps | infsh app list |
| Search apps | infsh app list --search "flux" |
| Filter by category | infsh app list --category image |
| Get app details | infsh app get google/veo-3-1-fast |
| Generate sample input | infsh app sample google/veo-3-1-fast --save input.json |
| Run app | infsh app run google/veo-3-1-fast --input input.json |
| Run without waiting | infsh app run |
| Check task status | infsh task get |
What's Available
| Category | Examples |
|---|---|
| Image | FLUX, Gemini 3 Pro, Grok Imagine, Seedream 4.5, Reve, Topaz Upscaler |
| Video | Veo 3.1, Seedance 1.5, Wan 2.5, OmniHuman, Fabric, HunyuanVideo Foley |
| LLMs | Claude Opus/Sonnet/Haiku, Gemini 3 Pro, Kimi K2, GLM-4, any OpenRouter model |
| Search | Tavily Search, Tavily Extract, Exa Search, Exa Answer, Exa Extract |
| 3D | Rodin 3D Generator |
| Twitter/X | post-tweet, post-create, dm-send, user-follow, post-like, post-retweet |
| Utilities | Media merger, caption videos, image stitching, audio extraction |
Related Skills
# Image generation (FLUX, Gemini, Grok, Seedream)
npx skills add inference-sh/skills@ai-image-generation
# Video generation (Veo, Seedance, Wan, OmniHuman)
npx skills add inference-sh/skills@ai-video-generation
# LLMs (Claude, Gemini, Kimi, GLM via OpenRouter)
npx skills add inference-sh/skills@llm-models
# Web search (Tavily, Exa)
npx skills add inference-sh/skills@web-search
# AI avatars & lipsync (OmniHuman, Fabric, PixVerse)
npx skills add inference-sh/skills@ai-avatar-video
# Twitter/X automation
npx skills add inference-sh/skills@twitter-automation
# Model-specific
npx skills add inference-sh/skills@flux-image
npx skills add inference-sh/skills@google-veo
# Utilities
npx skills add inference-sh/skills@image-upscaling
npx skills add inference-sh/skills@background-removal
Reference Files
- Authentication & Setup
- Discovering Apps
- Running Apps
- CLI Reference
Documentation
- Agent Skills Overview - The open standard for AI capabilities
- Getting Started - Introduction to inference.sh
- What is inference.sh? - Platform overview
- Apps Overview - Understanding the app ecosystem
- CLI Setup - Installing the CLI
- Workflows vs Agents - When to use each
- Why Agent Runtimes Matter - Runtime benefits
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
HealthClaw 牙科:AI 驱动的牙科诊所管理 - Openclaw Skills
ERPClaw 销售:AI 订单到现金全生命周期管理 - Openclaw Skills
ERPClaw 欧盟区域合规:增值税、OSS 和电子发票 - Openclaw Skills
ERPClaw 人事:AI 人力资源与美国薪酬管理 - Openclaw Skills
erpclaw-journals:安全且AI原生的簿记系统 - Openclaw Skills
ERPClaw Growth:AI CRM 与业务分析 - Openclaw Skills
ERPClaw Billing:基于用量与计量的计费 - Openclaw Skills
educlaw: AI 原生教育与 SIS 管理 - Openclaw Skills
EduClaw K-12 扩展组件:学生管理与合规 - Openclaw Skills
AuditClaw AWS:自动化 AWS 合规证据收集 - Openclaw Skills
AI精选
