跳到正文
🟠 需外部服务 — 需自备相关账号/权限 进阶 生活助手

手机变 AI 的眼睛和嘴巴

把手机配对成 OpenClaw 的 Node,用摄像头拍照识别、语音对话、位置感知,让 AI 走出电脑屏幕。

⚔️ 难度 ★★☆ 进阶
⏱ 配置耗时 10-15 分钟
🎁 掉落 节省 10-15 分钟
🦞 部署 可一键部署

🎯 做完你会得到

手机拍一张照片,OpenClaw 告诉你这是什么;对手机说一句话,OpenClaw 语音回复;出门在外,AI 知道你在哪。

👤 适合谁

  • 手机用户
  • 想扩展AI能力的用户

⚡ 效果预览

把手机变成AI的眼睛和耳朵,拍照发给OpenClaw立刻获得分析和行动建议

本案例基于 OpenClaw 官方 Nodes 文档,包含手机配对、摄像头、语音、位置等功能。

🔧 Step 0:先配置消息接收渠道

⚠️ 本案例需要发送通知到你的手机,先配置消息渠道 👉 去配置 Telegram/飞书/微信接入 →

一句话介绍

把手机变成 OpenClaw 的传感器——拍照让 AI 看、说话让 AI 听、走到哪里 AI 都知道。

解决什么问题

OpenClaw 默认只能处理文字,看不见也听不到。配对手机后,AI 获得了感知物理世界的能力:

  • 谁会用到:想用 AI 识别实物的人(植物、菜品、文档)、喜欢语音交互的人、需要基于位置触发任务的人
  • 省了什么:打字描述一张图不如直接拍、打字发指令不如直接说
  • 效果是什么:拍照→AI 识别回答;语音→AI 语音回复;到了某个地方→AI 自动执行任务

前置条件

  • OpenClaw 正常运行
  • 智能手机(iOS 或 Android)
  • 手机和 OpenClaw 在同一网络(配对时需要)

用到的工具

工具用途获取方式
OpenClaw Node(内置)手机配对协议,连接摄像头/麦克风/GPSOpenClaw 内置功能
Talk Mode(内置)语音对话,支持 TTS 语音合成回复OpenClaw 内置功能

预期结果

配对完成后:

  • 拍照识别:手机拍一张照片发给 OpenClaw → AI 告诉你这是什么(植物种类、菜品名字、文档内容、商品信息)
  • 语音对话:对手机说今天天气怎么样→ OpenClaw 用语音回复天气情况
  • 位置感知:到了公司附近 → 自动发送已到公司通知给家人(需配置位置触发规则)
  • 远程拍照:在 Telegram 里说帮我用手机拍一张照片→ 手机自动拍照发回来

配对步骤

第一步:在 OpenClaw 端启动配对

告诉 OpenClaw:

帮我配对手机,启动 Node 配对模式

OpenClaw 会生成一个配对二维码或配对链接。

第二步:手机扫码配对

用手机浏览器打开配对链接(或扫描二维码),按提示授权摄像头、麦克风、位置权限。

第三步:开始使用

配对成功后直接用:

  • 拍照:在 Telegram 里说帮我看看这是什么→ 手机自动拍照 → AI 分析回复
  • 语音:对手机说话 → AI 语音回复
  • 位置:我现在在哪→ AI 告诉你当前位置和周边信息

怎么验证成功了

  1. 配对后,让 OpenClaw用手机拍一张照片→ 确认收到照片
  2. 在手机上对 AI 说话 → 确认能语音回复
  3. 问我现在在哪→ 确认能返回位置信息

踩坑记录

配对后手机锁屏就断连

症状:手机屏幕关了之后 Node 连接断开。

解法:在手机浏览器设置里关闭自动休眠,或者使用 PWA 模式(添加到主屏幕)保持后台运行。

语音识别不准

症状:说了一句话但 AI 听成了别的。

解法:确保环境安静、说话清晰。中文识别效果与模型有关,可以试不同的语音识别引擎。

位置权限被拒绝

症状:问位置时 AI 说获取不到。

解法:检查手机浏览器的位置权限设置,确保允许,并且 GPS 开启。

拍照画质差

症状:AI 说看不清或识别不准确。

解法:确保光线充足、手机镜头干净。让 OpenClaw 用后置摄像头而非前置。

不满意怎么调

  • 想用特定摄像头 → 告诉 OpenClaw用后置摄像头/前置摄像头/外接摄像头
  • 想定时拍照 → 配合 cron:每小时用手机拍一张窗外的照片,记录天气变化
  • 想基于位置自动执行任务 → 设置地理围栏:到了公司500米范围内,自动发消息给老婆说我到了
  • 想换语音 → 如果有 ElevenLabs TTS,可以选不同的声音风格回复
#手机配对#语音控制#拍照识别#Node#移动端