inference-sh: 通过 CLI 访问 150+ AI 模型 - Openclaw Skills
作者:互联网
2026-04-17
什么是 inference-sh?
inference-sh 是一个综合性平台,旨在为开发人员和 AI 代理提供简便的 CLI,以即时访问包含 150 多个 AI 应用程序的庞大库。它消除了管理单个 API 集成或维护昂贵 GPU 基础设施的需求。通过在 Openclaw Skills 生态系统中使用它,开发人员可以以编程方式触发用于图像生成、视频创建、3D 建模和网络搜索的高级模型。
该技能充当了通往 FLUX、Veo、Claude 和 Gemini 等最先进模型的桥梁。它对于构建自主工作流特别有效,在这些工作流中,代理需要在不同的模态之间切换——例如通过一致的接口和计费模型生成营销推文、创建匹配的图像,然后放大该图像。
下载入口:https://github.com/openclaw/skills/tree/main/skills/okaris/inference-sh
安装与下载
1. ClawHub CLI
从源直接安装技能的最快方式。
npx clawhub@latest install inference-sh
2. 手动安装
将技能文件夹复制到以下位置之一
全局模式~/.openclaw/skills/
工作区
/skills/
优先级:工作区 > 本地 > 内置
3. 提示词安装
将此提示词复制到 OpenClaw 即可自动安装。
请帮我使用 Clawhub 安装 inference-sh。如果尚未安装 Clawhub,请先安装(npm i -g clawhub)。
inference-sh 应用场景
- 使用 FLUX 或 Gemini 3 Pro 快速生成高质量 AI 图像。
- 使用 Veo 3.1 或 Seedance 创建电影级的 AI 视频,无需本地硬件。
- 通过 Twitter/X API 集成自动执行社交媒体发布和互动。
- 通过 Tavily 和 Exa 的多源网络搜索增强代理智能。
- 通过一个工具访问 Claude、Kimi 和 OpenRouter 模型,扩展 LLM 能力。
- 在本地机器或服务器环境中安装 CLI 工具。
- 使用登录命令验证会话以链接您的账户。
- 通过搜索或过滤应用列表发现可用的 AI 应用程序。
- 通过提供包含提示和参数的 JSON 输入对象来执行特定应用程序。
- 使用唯一的任务 ID 监控长时间运行进程(如视频生成)的任务状态。
- 检索托管在云端或直接返回到 CLI 的最终输出。
inference-sh 配置指南
要为这些 Openclaw Skills 初始化环境,请安装 CLI 并登录:
curl -fsSL https://cli.inference.sh | sh
infsh login
设置完成后,您可以为代理添加特定的模型能力:
npx skills add inference-sh/skills@ai-image-generation
inference-sh 数据架构与分类体系
该技能利用结构化方法与各种 AI 模型进行交互。数据组织如下:
| 元素 | 描述 |
|---|---|
| 应用标识符 | 遵循 provider/model-name 格式的字符串(例如 google/veo-3-1-fast)。 |
| 输入模式 | 包含特定参数(如 prompt、text 或 query)的 JSON 对象。 |
| 任务元数据 | 跟踪信息,包括状态、开始时间和完成时间戳。 |
| 输出 URI | 生成的多媒体文件或结构化文本结果的直接链接。 |
| 示例生成 | 使用 infsh app sample 自动生成有效的输入 JSON 模板。 |
name: inference-sh
description: |
Run 150+ AI apps via inference.sh CLI - image generation, video creation, LLMs, search, 3D, Twitter automation.
Models: FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter, and many more.
Use when running AI apps, generating images/videos, calling LLMs, web search, or automating Twitter.
Triggers: inference.sh, infsh, ai model, run ai, serverless ai, ai api, flux, veo, claude api,
image generation, video generation, openrouter, tavily, exa search, twitter api, grok
allowed-tools: Bash(infsh *)
inference.sh
Run 150+ AI apps in the cloud with a simple CLI. No GPU required.
Install CLI
curl -fsSL https://cli.inference.sh | sh
infsh login
Quick Examples
# Generate an image
infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
# Generate a video
infsh app run google/veo-3-1-fast --input '{"prompt": "drone over mountains"}'
# Call Claude
infsh app run openrouter/claude-sonnet-45 --input '{"prompt": "Explain quantum computing"}'
# Web search
infsh app run tavily/search-assistant --input '{"query": "latest AI news"}'
# Post to Twitter
infsh app run x/post-tweet --input '{"text": "Hello from AI!"}'
# Generate 3D model
infsh app run infsh/rodin-3d-generator --input '{"prompt": "a wooden chair"}'
Commands
| Task | Command |
|---|---|
| List all apps | infsh app list |
| Search apps | infsh app list --search "flux" |
| Filter by category | infsh app list --category image |
| Get app details | infsh app get google/veo-3-1-fast |
| Generate sample input | infsh app sample google/veo-3-1-fast --save input.json |
| Run app | infsh app run google/veo-3-1-fast --input input.json |
| Run without waiting | infsh app run |
| Check task status | infsh task get |
What's Available
| Category | Examples |
|---|---|
| Image | FLUX, Gemini 3 Pro, Grok Imagine, Seedream 4.5, Reve, Topaz Upscaler |
| Video | Veo 3.1, Seedance 1.5, Wan 2.5, OmniHuman, Fabric, HunyuanVideo Foley |
| LLMs | Claude Opus/Sonnet/Haiku, Gemini 3 Pro, Kimi K2, GLM-4, any OpenRouter model |
| Search | Tavily Search, Tavily Extract, Exa Search, Exa Answer, Exa Extract |
| 3D | Rodin 3D Generator |
| Twitter/X | post-tweet, post-create, dm-send, user-follow, post-like, post-retweet |
| Utilities | Media merger, caption videos, image stitching, audio extraction |
Related Skills
# Image generation (FLUX, Gemini, Grok, Seedream)
npx skills add inference-sh/skills@ai-image-generation
# Video generation (Veo, Seedance, Wan, OmniHuman)
npx skills add inference-sh/skills@ai-video-generation
# LLMs (Claude, Gemini, Kimi, GLM via OpenRouter)
npx skills add inference-sh/skills@llm-models
# Web search (Tavily, Exa)
npx skills add inference-sh/skills@web-search
# AI avatars & lipsync (OmniHuman, Fabric, PixVerse)
npx skills add inference-sh/skills@ai-avatar-video
# Twitter/X automation
npx skills add inference-sh/skills@twitter-automation
# Model-specific
npx skills add inference-sh/skills@flux-image
npx skills add inference-sh/skills@google-veo
# Utilities
npx skills add inference-sh/skills@image-upscaling
npx skills add inference-sh/skills@background-removal
Reference Files
- Authentication & Setup
- Discovering Apps
- Running Apps
- CLI Reference
Documentation
- Agent Skills Overview - The open standard for AI capabilities
- Getting Started - Introduction to inference.sh
- What is inference.sh? - Platform overview
- Apps Overview - Understanding the app ecosystem
- CLI Setup - Installing the CLI
- Workflows vs Agents - When to use each
- Why Agent Runtimes Matter - Runtime benefits
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
代理状态:监控支付意图和交易 - Openclaw Skills
Proxy MCP:AI 智能体支付与虚拟卡 - Openclaw Skills
Apify Ultimate Scraper: AI 网页数据抓取 - Openclaw Skills
加密诈骗检测器:实时欺诈预防 - Openclaw Skills
newsmcp: 实时 AI 新闻聚合与过滤 - Openclaw Skills
Moltbook 优化器:策略与排名精通 - Openclaw 技能
Frigate NVR:智能摄像机管理与自动化 - Openclaw Skills
Markdown 检查器:样式、链接和格式工具 - Openclaw Skills
Venice.ai 至尊路由:私密且无审查的模型路由 - Openclaw Skills
图片优化器:使用 Openclaw Skills 压缩和调整图片尺寸
AI精选
