screen-vision

Review·Scanned 2/18/2026

This skill performs local macOS OCR using Vision and runs scripts/vision_ocr.swift and scripts/click.swift to capture the screen and synthesize clicks. It executes /usr/sbin/screencapture and is intended to transmit extracted text and coordinates to the AI.

from clawhub.ai·vb70be28·4.0 KB·0 installs
Scanned from 1.0.1 at b70be28 · Transparency log ↗
$ vett add clawhub.ai/ls18166407597-design/screen-visionReview findings below

screen-vision Skill

利用 Mac 本地 Vision 框架实现的极速 OCR 识别工具,为 AI 提供“本地之眼”。

功能

  • 零 Token 截屏识别:在本地完成屏幕文字提取,仅向 AI 传输关键文本和坐标。
  • 精确坐标定位:识别屏幕上任何文字的 [X, Y] 坐标。
  • 多语言支持:支持中英文混合识别。
  • 通用操作基础:配合内置脚本,可实现对任何应用的自动化点击和输入。

权限要求 (重要)

由于 macOS 的安全性限制,使用此技能前,用户必须手动在以下路径开启权限:

  1. 系统设置 -> 隐私与安全性 -> 屏幕录制:勾选你运行 OpenClaw 的终端或应用(如 Terminal, iTerm2)。
  2. 系统设置 -> 隐私与安全性 -> 辅助功能:同上(用于点击操作)。

使用场景

  • 当用户说:“帮我操作 [某应用]”时,先运行此 Skill 扫描界面。
  • 自动监控屏幕上的状态变化(如:余额、通知、进度条)。
  • 识别非标准 UI(如 Telegram 桌面版、专业工具软件)。

内部代码

  • scripts/vision_ocr.swift: 执行本地 Swift 识别逻辑。
  • scripts/click.swift: 执行物理鼠标点击。