Inference.sh 智能体工具:运行 150+ AI 模型 - Openclaw Skills

作者:互联网

2026-04-14

AI教程

什么是 Agent Tools (Inference.sh)?

此技能将 inference.sh 平台直接集成到您的工作流中,提供统一接口来执行高性能 AI 任务,无需本地 GPU 资源。它允许开发者通过简单、安全的 CLI 利用庞大的前沿模型库——包括用于图像的 FLUX、用于视频的 Google Veo 以及通过 OpenRouter 访问的各种 LLM。通过将其添加到您的 Openclaw Skills 收藏中,您可以利用无服务器基础设施自动执行复杂的创意和分析过程。

该技能专为速度和安全性而设计,具有经过验证的二进制文件和简化的身份验证流程。无论您是在构建自动化内容管道还是高级研究智能体,这些工具都通过单一、一致的入口点提供了与 Anthropic、Google 和 Fal.ai 等顶级 AI 提供商交互所需的构建块。

下载入口:https://github.com/openclaw/skills/tree/main/skills/okaris/agent-tools

安装与下载

1. ClawHub CLI

从源直接安装技能的最快方式。

npx clawhub@latest install agent-tools

2. 手动安装

将技能文件夹复制到以下位置之一

全局模式 ~/.openclaw/skills/ 工作区 /skills/

优先级:工作区 > 本地 > 内置

3. 提示词安装

将此提示词复制到 OpenClaw 即可自动安装。

请帮我使用 Clawhub 安装 agent-tools。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。

Agent Tools (Inference.sh) 应用场景

  • 使用 FLUX 或 Gemini 模型自动生成高质量营销图像。
  • 使用 Google Veo 或 Seedance 为社交媒体和演示文稿快速制作视频原型。
  • 使用 Tavily 和 Exa 搜索助手进行程序化网页研究和数据提取。
  • 多模型 LLM 编排,用于比较来自 Claude、Kimi 和 GLM-4 的输出。
  • 社交媒体自动化(Twitter/X),包括发布、点赞和关注用户。
Agent Tools (Inference.sh) 工作原理
  1. 用户安装 inference.sh CLI 并通过安全登录流程进行身份验证。
  2. 该技能从 150 多个可用应用列表中识别任务所需的特定 AI 应用。
  3. 用户或智能体准备包含模型提示词或参数的 JSON 格式输入。
  4. infsh 命令将请求发送到 inference.sh 云基础设施进行无服务器执行。
  5. 平台处理请求并将生成的资产、文本或任务状态返回给用户。

Agent Tools (Inference.sh) 配置指南

要开始在您的 Openclaw Skills 设置中使用此技能,请安装 CLI 并登录:

# 安装 CLI
curl -fsSL https://cli.inference.sh | sh

# 验证您的账户
infsh login

对于需要手动安装的用户,可以直接从 dist.inference.sh 下载二进制文件,验证 SHA-256 校验和,并将其移动到本地 bin 目录。

Agent Tools (Inference.sh) 数据架构与分类体系

该技能通过结构化 JSON 输入和基于任务的跟踪来管理数据。以下是执行应用的主要分类:

属性 类型 描述
app_id 字符串 AI 模型的唯一标识符(例如 google/veo-3-1-fast)。
input JSON 模型特定参数,如 promptqueryimage_url
task_id 字符串 用于轮询异步作业状态的唯一参考 ID。
category 字符串 用于搜索应用的元数据分类(例如 image、video、search)。
name: agent-tools
description: "Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation. Models: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more. Use when running AI apps, generating images/videos, calling LLMs, web search, or automating Twitter. Triggers: inference.sh, infsh, ai model, run ai, serverless ai, ai api, flux, veo, claude api, image generation, video generation, openrouter, tavily, exa search, twitter api, grok"
allowed-tools: Bash(infsh *)

inference.sh

Run 150+ AI apps in the cloud with a simple CLI. No GPU required.

[inference.sh](https://inference.sh)

Install CLI

curl -fsSL https://cli.inference.sh | sh
infsh login

What does the installer do? The install script detects your OS and architecture, downloads the correct binary from dist.inference.sh, verifies its SHA-256 checksum, and places it in your PATH. That's it — no elevated permissions, no background processes, no telemetry. If you have cosign installed, the installer also verifies the Sigstore signature automatically.

Manual install (if you prefer not to pipe to sh):

# Download the binary and checksums
curl -LO https://dist.inference.sh/cli/checksums.txt
curl -LO $(curl -fsSL https://dist.inference.sh/cli/manifest.json | grep -o '"url":"[^"]*"' | grep $(uname -s | tr A-Z a-z)-$(uname -m | sed 's/x86_64/amd64/;s/aarch64/arm64/') | head -1 | cut -d'"' -f4)
# Verify checksum
sha256sum -c checksums.txt --ignore-missing
# Extract and install
tar -xzf inferencesh-cli-*.tar.gz
mv inferencesh-cli-* ~/.local/bin/inferencesh

Quick Examples

# Generate an image
infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

# Generate a video
infsh app run google/veo-3-1-fast --input '{"prompt": "drone over mountains"}'

# Call Claude
infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'

# Web search
infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'

# Post to Twitter
infsh app run x/post-tweet --input '{"text": "Hello from AI!"}'

# Generate 3D model
infsh app run infsh/rodin-3d-generator --input '{"prompt": "a wooden chair"}'

Commands

Task Command
List all apps infsh app list
Search apps infsh app list --search "flux"
Filter by category infsh app list --category image
Get app details infsh app get google/veo-3-1-fast
Generate sample input infsh app sample google/veo-3-1-fast --save input.json
Run app infsh app run google/veo-3-1-fast --input input.json
Run without waiting infsh app run --input input.json --no-wait
Check task status infsh task get

What's Available

Category Examples
Image FLUX, Gemini 3 Pro, Grok Imagine, Seedream 4.5, Reve, Topaz Upscaler
Video Veo 3.1, Seedance 1.5, Wan 2.5, OmniHuman, Fabric, HunyuanVideo Foley
LLMs Claude Opus/Sonnet/Haiku, Gemini 3 Pro, Kimi K2, GLM-4, any OpenRouter model
Search Tavily Search, Tavily Extract, Exa Search, Exa Answer, Exa Extract
3D Rodin 3D Generator
Twitter/X post-tweet, post-create, dm-send, user-follow, post-like, post-retweet
Utilities Media merger, caption videos, image stitching, audio extraction
# Image generation (FLUX, Gemini, Grok, Seedream)
npx skills add inference-sh/skills@ai-image-generation

# Video generation (Veo, Seedance, Wan, OmniHuman)
npx skills add inference-sh/skills@ai-video-generation

# LLMs (Claude, Gemini, Kimi, GLM via OpenRouter)
npx skills add inference-sh/skills@llm-models

# Web search (Tavily, Exa)
npx skills add inference-sh/skills@web-search

# AI avatars & lipsync (OmniHuman, Fabric, PixVerse)
npx skills add inference-sh/skills@ai-avatar-video

# Twitter/X automation
npx skills add inference-sh/skills@twitter-automation

# Model-specific
npx skills add inference-sh/skills@flux-image
npx skills add inference-sh/skills@google-veo

# Utilities
npx skills add inference-sh/skills@image-upscaling
npx skills add inference-sh/skills@background-removal

Reference Files

  • Authentication & Setup
  • Discovering Apps
  • Running Apps
  • CLI Reference

Documentation

  • Agent Skills Overview - The open standard for AI capabilities
  • Getting Started - Introduction to inference.sh
  • What is inference.sh? - Platform overview
  • Apps Overview - Understanding the app ecosystem
  • CLI Setup - Installing the CLI
  • Workflows vs Agents - When to use each
  • Why Agent Runtimes Matter - Runtime benefits