🎯 做完你会得到
手机拍一张照片,OpenClaw 告诉你这是什么;对手机说一句话,OpenClaw 语音回复;出门在外,AI 知道你在哪。
👤 适合谁
- 手机用户
- 想扩展AI能力的用户
⚡ 效果预览
把手机变成AI的眼睛和耳朵,拍照发给OpenClaw立刻获得分析和行动建议
本案例基于 OpenClaw 官方 Nodes 文档,包含手机配对、摄像头、语音、位置等功能。
🔧 Step 0:先配置消息接收渠道
⚠️ 本案例需要发送通知到你的手机,先配置消息渠道 👉 去配置 Telegram/飞书/微信接入 →
一句话介绍
把手机变成 OpenClaw 的传感器——拍照让 AI 看、说话让 AI 听、走到哪里 AI 都知道。
解决什么问题
OpenClaw 默认只能处理文字,看不见也听不到。配对手机后,AI 获得了感知物理世界的能力:
- 谁会用到:想用 AI 识别实物的人(植物、菜品、文档)、喜欢语音交互的人、需要基于位置触发任务的人
- 省了什么:打字描述一张图不如直接拍、打字发指令不如直接说
- 效果是什么:拍照→AI 识别回答;语音→AI 语音回复;到了某个地方→AI 自动执行任务
前置条件
- OpenClaw 正常运行
- 智能手机(iOS 或 Android)
- 手机和 OpenClaw 在同一网络(配对时需要)
用到的工具
| 工具 | 用途 | 获取方式 |
|---|---|---|
| OpenClaw Node(内置) | 手机配对协议,连接摄像头/麦克风/GPS | OpenClaw 内置功能 |
| Talk Mode(内置) | 语音对话,支持 TTS 语音合成回复 | OpenClaw 内置功能 |
预期结果
配对完成后:
- 拍照识别:手机拍一张照片发给 OpenClaw → AI 告诉你这是什么(植物种类、菜品名字、文档内容、商品信息)
- 语音对话:对手机说今天天气怎么样→ OpenClaw 用语音回复天气情况
- 位置感知:到了公司附近 → 自动发送已到公司通知给家人(需配置位置触发规则)
- 远程拍照:在 Telegram 里说帮我用手机拍一张照片→ 手机自动拍照发回来
配对步骤
第一步:在 OpenClaw 端启动配对
告诉 OpenClaw:
帮我配对手机,启动 Node 配对模式
OpenClaw 会生成一个配对二维码或配对链接。
第二步:手机扫码配对
用手机浏览器打开配对链接(或扫描二维码),按提示授权摄像头、麦克风、位置权限。
第三步:开始使用
配对成功后直接用:
- 拍照:在 Telegram 里说帮我看看这是什么→ 手机自动拍照 → AI 分析回复
- 语音:对手机说话 → AI 语音回复
- 位置:我现在在哪→ AI 告诉你当前位置和周边信息
怎么验证成功了
- 配对后,让 OpenClaw用手机拍一张照片→ 确认收到照片
- 在手机上对 AI 说话 → 确认能语音回复
- 问我现在在哪→ 确认能返回位置信息
踩坑记录
配对后手机锁屏就断连
症状:手机屏幕关了之后 Node 连接断开。
解法:在手机浏览器设置里关闭自动休眠,或者使用 PWA 模式(添加到主屏幕)保持后台运行。
语音识别不准
症状:说了一句话但 AI 听成了别的。
解法:确保环境安静、说话清晰。中文识别效果与模型有关,可以试不同的语音识别引擎。
位置权限被拒绝
症状:问位置时 AI 说获取不到。
解法:检查手机浏览器的位置权限设置,确保允许,并且 GPS 开启。
拍照画质差
症状:AI 说看不清或识别不准确。
解法:确保光线充足、手机镜头干净。让 OpenClaw 用后置摄像头而非前置。
不满意怎么调
- 想用特定摄像头 → 告诉 OpenClaw用后置摄像头/前置摄像头/外接摄像头
- 想定时拍照 → 配合 cron:每小时用手机拍一张窗外的照片,记录天气变化
- 想基于位置自动执行任务 → 设置地理围栏:到了公司500米范围内,自动发消息给老婆说我到了
- 想换语音 → 如果有 ElevenLabs TTS,可以选不同的声音风格回复
用 AI 替代虚拟助理(VA)
邮件回复、日程安排、信息整理、客户跟进——这些虚拟助理做的事,OpenClaw 能接管大部分,每月省下 VA 费用。
100+ 企业平台一键接入
安装 API Gateway 技能,一口气打通 Google Workspace、Microsoft 365、GitHub、Notion、Slack、HubSpot 等 100+ 平台,统一管理。
数据报表自动生成与定时分发
把你的数据源(Excel/飞书/数据库)接入 OpenClaw,每天/每周自动生成数据报表,并准时发送到对应的人或群,彻底告别"每天早上手动跑数据、发给领导"的重复劳动。"