inference-sh: 通过 CLI 访问 150+ AI 模型 - Openclaw Skills

作者:互联网

2026-04-17

AI教程

什么是 inference-sh?

inference-sh 是一个综合性平台,旨在为开发人员和 AI 代理提供简便的 CLI,以即时访问包含 150 多个 AI 应用程序的庞大库。它消除了管理单个 API 集成或维护昂贵 GPU 基础设施的需求。通过在 Openclaw Skills 生态系统中使用它,开发人员可以以编程方式触发用于图像生成、视频创建、3D 建模和网络搜索的高级模型。

该技能充当了通往 FLUX、Veo、Claude 和 Gemini 等最先进模型的桥梁。它对于构建自主工作流特别有效,在这些工作流中,代理需要在不同的模态之间切换——例如通过一致的接口和计费模型生成营销推文、创建匹配的图像,然后放大该图像。

下载入口:https://github.com/openclaw/skills/tree/main/skills/okaris/inference-sh

安装与下载

1. ClawHub CLI

从源直接安装技能的最快方式。

npx clawhub@latest install inference-sh

2. 手动安装

将技能文件夹复制到以下位置之一

全局模式 ~/.openclaw/skills/ 工作区 /skills/

优先级:工作区 > 本地 > 内置

3. 提示词安装

将此提示词复制到 OpenClaw 即可自动安装。

请帮我使用 Clawhub 安装 inference-sh。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。

inference-sh 应用场景

  • 使用 FLUX 或 Gemini 3 Pro 快速生成高质量 AI 图像。
  • 使用 Veo 3.1 或 Seedance 创建电影级的 AI 视频,无需本地硬件。
  • 通过 Twitter/X API 集成自动执行社交媒体发布和互动。
  • 通过 Tavily 和 Exa 的多源网络搜索增强代理智能。
  • 通过一个工具访问 Claude、Kimi 和 OpenRouter 模型,扩展 LLM 能力。
inference-sh 工作原理
  1. 在本地机器或服务器环境中安装 CLI 工具。
  2. 使用登录命令验证会话以链接您的账户。
  3. 通过搜索或过滤应用列表发现可用的 AI 应用程序。
  4. 通过提供包含提示和参数的 JSON 输入对象来执行特定应用程序。
  5. 使用唯一的任务 ID 监控长时间运行进程(如视频生成)的任务状态。
  6. 检索托管在云端或直接返回到 CLI 的最终输出。

inference-sh 配置指南

要为这些 Openclaw Skills 初始化环境,请安装 CLI 并登录:

curl -fsSL https://cli.inference.sh | sh
infsh login

设置完成后,您可以为代理添加特定的模型能力:

npx skills add inference-sh/skills@ai-image-generation

inference-sh 数据架构与分类体系

该技能利用结构化方法与各种 AI 模型进行交互。数据组织如下:

元素 描述
应用标识符 遵循 provider/model-name 格式的字符串(例如 google/veo-3-1-fast)。
输入模式 包含特定参数(如 prompttextquery)的 JSON 对象。
任务元数据 跟踪信息,包括状态、开始时间和完成时间戳。
输出 URI 生成的多媒体文件或结构化文本结果的直接链接。
示例生成 使用 infsh app sample 自动生成有效的输入 JSON 模板。
name: inference-sh
description: |
  Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation.
  Models: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more.
  Use when running AI apps, generating images/videos, calling LLMs, web search, or automating Twitter.
  Triggers: inference.sh, infsh, ai model, run ai, serverless ai, ai api, flux, veo, claude api,
  image generation, video generation, openrouter, tavily, exa search, twitter api, grok
allowed-tools: Bash(infsh *)

inference.sh

Run 150+ AI apps in the cloud with a simple CLI. No GPU required.

Install CLI

curl -fsSL https://cli.inference.sh | sh
infsh login

Quick Examples

# Generate an image
infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

# Generate a video
infsh app run google/veo-3-1-fast --input '{"prompt": "drone over mountains"}'

# Call Claude
infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'

# Web search
infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'

# Post to Twitter
infsh app run x/post-tweet --input '{"text": "Hello from AI!"}'

# Generate 3D model
infsh app run infsh/rodin-3d-generator --input '{"prompt": "a wooden chair"}'

Commands

Task Command
List all apps infsh app list
Search apps infsh app list --search "flux"
Filter by category infsh app list --category image
Get app details infsh app get google/veo-3-1-fast
Generate sample input infsh app sample google/veo-3-1-fast --save input.json
Run app infsh app run google/veo-3-1-fast --input input.json
Run without waiting infsh app run --input input.json --no-wait
Check task status infsh task get

What's Available

Category Examples
Image FLUX, Gemini 3 Pro, Grok Imagine, Seedream 4.5, Reve, Topaz Upscaler
Video Veo 3.1, Seedance 1.5, Wan 2.5, OmniHuman, Fabric, HunyuanVideo Foley
LLMs Claude Opus/Sonnet/Haiku, Gemini 3 Pro, Kimi K2, GLM-4, any OpenRouter model
Search Tavily Search, Tavily Extract, Exa Search, Exa Answer, Exa Extract
3D Rodin 3D Generator
Twitter/X post-tweet, post-create, dm-send, user-follow, post-like, post-retweet
Utilities Media merger, caption videos, image stitching, audio extraction
# Image generation (FLUX, Gemini, Grok, Seedream)
npx skills add inference-sh/skills@ai-image-generation

# Video generation (Veo, Seedance, Wan, OmniHuman)
npx skills add inference-sh/skills@ai-video-generation

# LLMs (Claude, Gemini, Kimi, GLM via OpenRouter)
npx skills add inference-sh/skills@llm-models

# Web search (Tavily, Exa)
npx skills add inference-sh/skills@web-search

# AI avatars & lipsync (OmniHuman, Fabric, PixVerse)
npx skills add inference-sh/skills@ai-avatar-video

# Twitter/X automation
npx skills add inference-sh/skills@twitter-automation

# Model-specific
npx skills add inference-sh/skills@flux-image
npx skills add inference-sh/skills@google-veo

# Utilities
npx skills add inference-sh/skills@image-upscaling
npx skills add inference-sh/skills@background-removal

Reference Files

  • Authentication & Setup
  • Discovering Apps
  • Running Apps
  • CLI Reference

Documentation

  • Agent Skills Overview - The open standard for AI capabilities
  • Getting Started - Introduction to inference.sh
  • What is inference.sh? - Platform overview
  • Apps Overview - Understanding the app ecosystem
  • CLI Setup - Installing the CLI
  • Workflows vs Agents - When to use each
  • Why Agent Runtimes Matter - Runtime benefits

相关推荐