当AI真开始干活,问题才刚刚开始
本文来自微信公众号: 橙竹洞见 ,作者:竺大炜
最近频繁尝试OpenClaw类工具,在办公环境下用,在自己的个人电脑上用,但是,越用越累了。
一
网上一人公司的“故事”太多了,真让人焦虑。只要养好龙虾,睡一觉,起来就能看到大笔订单/收入,太美好了。
很自然地,我用“这个是不是可以claw”的眼光,审视工作中的每个步骤,就像有把无形的锤子,随时把它们砸成钉子。
但问题在于,在企业里真正复杂的,从来不是“怎么做”。
而是:这件事到底该谁做?有没有权限去做?做完以后领导认不认?
这些问题,AI其实解决不了。它只是把这些问题暴露出来,等着你去解决完成了,TA才可以干活。
一人公司,反而更容易用好AI。因为“一人”这种模式,天然清零了最致命的协同摩擦——没有职责边界的争论,没有跨部门的权限拉锯,也没有被动接活的内耗。
二
当然,也有不少重复性工作的确被解决了。
但过去那些“费时费眼睛,但脑子不累”的工作,其实是一种缓冲。
就像机械地削土豆皮时,大脑可以神游、充电、甚至无意识地消化难题。
现在,这些“摸鱼时刻”被AI填平了。我被推入持续的高密度思考中。
-
“又有新的AI工具要学习了…”
-
“又出新的AI名词了..,HARNESS”
-
“Deepseek提出来一个好思路,以前没想到,值得一试啊…”
-
“AI给出了这么长一段总结,这里面有没有幻觉,得检查一下”
AI消灭了低效的体力活,却成倍地制造了“高质量思考”的负荷。
再叠加一个现实:团队也在用AI。
以前我可以扫一眼,用“写了多少页”来判断下属的投入程度。现在不行了。
AI让“努力的痕迹”消失了,只剩下“思考的质量”。
如果是为了检验其能力水平,我不得不去问,“这里到底有多少是你自己写的?”或者直接问,你用了什么样的提示词?
如果是要拿到结果,我不得不更费劲地去思考,用什么样的标准去衡量产出?
三
用AI的当然不止自己团队,其他部门也在大批输出AI生成的报告。长篇大论下面,越来越多是“听君一席话,如听一席话”。
以前要手搓打字,即便是废话也要消耗体力,现在“废话文学”的代价小多了
当每个人的产出成本都趋近于零,那每个人的消费成本就开始暴涨。于是不得不用魔法打败魔法,去用AI总结,将报告结论直接给到我。
但是,总归有那么一点惶恐。
-
“AI说的这个挺新鲜,但会不会是幻觉?”
-
“AI说的这个挺新鲜,不试一下会不会错过,领导也看到了怎么办?”
-
“AI说的内容这么多,有没有更好的AI新工具总结一下,或者直接判断出结论?”
-
…
四
有一个新认识,就是大模型的能力其实相差无几,关键在于有记忆,能了解上下文。
为了让AI更好地帮助自己,我们开始做一件以前不需要做的事:不断把自己“讲清楚”。
回想一下过去使用传统搜索引擎的时代,系统通过我们的搜索词反推需求。那时,我们是“隐藏意图”的,只给出关键词,机器并不知道全部背景。
即便这样,大数据还是能够从片言只语里,“猜你喜欢”
现在呢,为了让AI给出更准确的结果,必须提供:背景、目标、限制条件、使用场景,要把问题讲得比对人还清楚。就像美剧里面去看心理医生一样,叨叨个没完。
为了让TA“喜欢”。
而在给团队布置任务时,我发现自己也越来越像在写提示词,信息完整、结构清晰、没有歧义。
但同时,我也不自觉地期待团队能像AI一样,快速响应、稳定输出、永远在线。
感觉这么下去,渐渐有向三体人发展的趋势。越透明,效率越高。
但是,人应该完全透明吗?
那些模糊的、矛盾的、甚至自我欺骗的部分,可能是创造力的源泉,也可能是最后的心理安全区。
在三体故事中,人类就是靠了隐晦的故事比喻,才制衡了高几个效率层级的三体人。
完全透明意味着把自己压缩成AI可理解的数据,是不是也意味着会被AI完全看穿?
五
昨天我卸载了QCLAW。安装确实方便,但不好用。
比如我设置了一个每天发送新闻简报的定时任务,测试的时候OK。但实际没有发送,检查了一下,说要设置微信ID,然后一顿交流,它终于找到了。
这个过程本来不应该发生,微信不应该比我更清楚我的微信ID是啥?
当然我相信,类似问题肯定可以解决,QCLAW会越来越好用。
但是,这件事本身提醒我,在我和AI之间又多了一层。假如我要对AI透明,那么我也会对QCLAW透明。即便有什么机制保证隐私,但趋势一定会是让我把数据和内容都放到这个平台的云上,操作才更加无缝高效。
于是,我的思维模式会沉淀在SKILL里,我的历史数据留在平台,我的沟通方式会更加像一个Agent。
今天在企业里面,我们说,每个员工都需要有一个Agent。
这很快就会变成,每个岗位,都需要一个Agent。
接下去,每个岗位就是一个Agent。
那么一个自然的问题是:未来,员工的职责,会不会就变成“维护岗位Agent”?
********************************************************
我不知道。
但我越来越觉得,这个问题的答案,可能不取决于AI有多强,而取决于我们怎么看待那些AI做不到的事。
那些模糊的、不透明的、说不清的东西——
比如写一首好诗,
比如讲一个让人记住的故事,
AI好像一直进不来。
这是暂时的缺陷,
还是某种更根本的界限?
我还没有答案。
下一篇文章,我想聊聊这个。
#当AI真开始干活问题才刚刚开始