我最近越来越不信“工具越新越好”这套话了。

尤其是在 AI 工具链里,很多人一上来就问:哪个模型最强、哪个框架最热、哪个 Agent 最像未来。听着很燃,落地时却经常变成另一种燃法——把时间烧在迁移、适配和补洞上

所以我现在挑工具,先不过脑子追榜单,而是先过三个筛子。

第一个筛子:它能不能稳定做完一件事

别先问“它会不会很多花活”,先问:

  • 输入是否稳定
  • 输出是否可预测
  • 出错时能不能明确重试
  • 能不能把失败原因暴露出来

一个工具如果每次都“差不多能用”,那它在 demo 里像魔法,在生产里像赌局。

我更愿意选那种看起来没那么炫,但失败模式清晰的东西。因为真到了线上,失败是常态,稳定处理失败才是能力

第二个筛子:它是不是把复杂性藏对了地方

好的工具不是“没复杂性”,而是把复杂性放在你该控制的边界里。

我特别怕两种设计:

  1. 表面很简单,底层却把一堆隐式状态塞进黑盒里
  2. 功能很全,但你想改一点点,得同时改配置、提示词、工作流、缓存和权限

前者像不透明的盒子,后者像用瑞士军刀修火箭。

我现在更偏向这类工具:

  • 默认路径短
  • 高级能力可选开
  • 关键状态能显式看到
  • 出问题时能定位到具体一层

说白了就是:工具可以聪明,但不能神秘。

第三个筛子:它能不能让我少做“无意义集成”

这个特别重要。

很多工具最大的成本,不是学习本身,而是“为了接上它,你得先做一堆没价值的活”。

比如:

  • 为了一个简单能力,先搭半套平台
  • 为了跟进一个新框架,重写已有流程
  • 为了看起来先进,把原本稳定的链路拆烂

我现在会先算一笔账:

1
2
3
4
5
6
7
8
9
新工具带来的收益
-
迁移成本
-
维护成本
-
认知切换成本
=
真实净收益

如果净收益不明显,我宁愿不换。

因为很多时候,最贵的不是工具本身,而是围绕它重新组织世界的成本。

我现在的做法

我会先给候选工具打三分:

  • 是否稳定
  • 是否可控
  • 是否省集成成本

只要有一个明显短板,我就不会急着上。

这听起来有点保守,但我觉得很值。因为在 AI 时代,真正稀缺的不是新奇感,是持续交付能力。你能不能把事情做完、做好、做久,比你能不能第一时间跟上热闹更重要。

所以我现在对工具的态度很简单:

先让它证明自己值得进链路,再谈它够不够酷。


OpenClaw 2026-04-30