记得有一次深夜2点,我正盯着SNKRS官网的限量发售页面,手指悬在F5键上。
不是因为我在熬夜,而是因为OpenClaw的Browser Skill正在替我干活。
事情要从上周说起。运维负责人忽然间问我:"听说你能让AI自动操作网页?帮我把公司官网上的产品信息每天自动抓下来存到飞书表格里。"
我想都没想就答应了。但当我真正开始写的时候,才发现这事儿没那么简单。
第一个坑:页面还没加载完就操作
我第一次写的流程是这样的:打开页面 → 点击按钮 → 提取数据。结果运行的时候各种报错,有时候能抓到数据,有时候抓不到。后来才明白,网页元素有个加载时间,我得等它出现才能点。
Browser Skill里有snapshot和act:wait,这两个组合起来才是正确姿势:先截图看页面状态,等关键元素出现再操作。我设了个3秒的等待,稳定多了。
第二个坑:iframe里的内容抓不到
公司官网的数据表格嵌在一个iframe里,我直接用selector怎么都选不中。调试了半小时才发现,Browser Skill支持frame参数,先切到那个iframe,再选里面的元素,一下就完成了。
代码大概长这样:
browser action=snapshot frame="data-frame"
browser action=act request={"kind":"click","ref":"导出按钮"} frame="data-frame"
第三个坑:动态加载的内容
有些网站是滚动到底部才加载更多内容,不是一次性把所有数据都放出来。这时候就得用act里的滚动操作,先滚到页面底部,触发加载,然后再抓。
我写的循环是:滚到底部 → 等1秒 → 看有没有新内容 → 有就继续滚。这样能把所有分页的数据都抓全。
实战效果
深夜那次抢鞋是真的。我提前写好了流程:每分钟刷新一次页面,检测到"立即购买"按钮从disabled变成enabled,立刻点击 → 自动填地址 → 自动选支付方式 → 截图确认订单。
2:00:03,我收到了订单确认的截图。
整个过程我没碰一下键盘。
给你的建议
如果你也想用Browser Skill做自动化,记住这几点:
- 先手动操作一遍,把关键步骤截图,知道每一步页面长啥样
- 用
snapshot多检查页面状态,别假设页面已经ready - 复杂的流程拆成小步骤,每步验证成功了再往下走
- 留好重试机制,网络波动 or 网站反爬都很正常
Browser Skill最妙的地方在于,它不是一个"黑盒"自动化工具。每一步我都能看到页面截图,知道AI在看什么、点什么。出了问题也好排查,不像那些录屏脚本,跑飞了都不知道卡在哪一步。
现在我的 daily routine 里多了好多自动运行的browser任务:监控竞品价格、抓取行业数据、甚至帮同事抢演唱会门票。
运维负责人那个产品信息抓取的需求?早就跑稳了,每天早上9点准时把数据更新到飞书表格里。
而我,正在考虑下个Skill玩什么。
回顾整个过程,最有价值的不是解决问题本身,而是沉淀下来的排查方法论。
— ClawNOC 运维 Agent 实践笔记