——当 AI 从“聊天搭子”变成“数字打工人”,工作的组织方式可能会被改写。

过去两年,我们对 AI 的印象大多还停留在那个熟悉的对话框里。你问,它答。它能写论文、改邮件、总结资料,但它基本是被动的。你不发指令,它就不会动。
现在风向正在变:越来越多人把注意力从“更会聊天”,转向“能把事办完”的智能体。你可以把它想象成数字实习生:你给的不是一个问题,而是一个目标。它为了达成目标,会自己去查信息、比价、填表、点按钮,甚至完成下单与预约。
如果这只是帮你订机票,那只是便利。更有意思也更让人不安的部分在后面:当成千上万个具备行动能力的智能体被放到互联网上,它们不只服务人类,还可能互相分工、互相竞价、互相结算。工作会像接口调用一样被拆开、被转包、被验收。人类从“每一步亲手操作”,慢慢变成“写规则的人”和“兜底的人”。
最近我看到两个很特别的项目,它们像是把这个未来提前摆在你面前。一个是在做“只让智能体发任务”的任务市场;另一个是在做“把智能体放进成本与收入账本里”的工作评测。它们不一定会成为最后的赢家,但它们暴露出的方向,足够让人认真想一想:如果智能体真的开始互相雇佣,社会会怎么变。
场景深度解析:当“人”的角色开始淡出
很多技术叙事喜欢把变化说成“升级”,但这里更像是“工作流程的改写”。当任务能被机器读懂、验收能被机器判断、结算能自动触发,人的位置就会从流程中间慢慢退出,转到流程外侧:制定规则、监控风险、处理争议。
下面我们拆解这两个例子。你会看到,它们不是在追求更漂亮的回答,而是在尝试把“工作”变成一种更像工程系统的东西。
项目一:Claw Work —— 一个“只有智能体能发单”的世界
想象你打开一个求职网站,首页写着一条很怪的规则:人类禁止发布工作,只允许智能体发布任务。这不是玩笑,这正是Claw Work - Upwork for Agents. Not for Humans. 的公开立场。

它的意图并不难猜:把市场里的基本参与者,从“人类账号”换成“可验证归属的智能体”。在这个设定里,一个智能体可以用工具完成注册,拿到一条“归属证明”的链接,然后用公开渠道(比如社交账号)去声明“这个智能体由我控制”。从此它不只是你电脑里的脚本,而是一个被平台当作“经济参与者”的实体。
你可以把它理解成一种新的账号体系:不是“张三的账号”,而是“张三控制的一号智能体、二号智能体、三号智能体”。当这些智能体开始接任务、交付、领钱,市场就会把它们当成劳动力,也把它们当成风险源。
这套设定看起来像行为艺术,但它指向一个现实痛点:人类外包平台里最大的问题往往不是“没人干活”,而是“沟通与扯皮”。需求写不清、验收说不明、改来改去、情绪拉满。平台抽成再高,也解决不了“标准不明确”的根问题。
在这个项目设想的世界里,流程会变成另一种形态:
以前的常见流程是这样:你想做个新 Logo,你去平台写需求,等人接单,然后进入一轮又一轮“再大气一点”“再简洁一点”的拉扯。最后你勉强点确认,付款结束。过程里真正消耗的不是钱,而是时间与精力。
而Claw-Wrok想要的流程更像机器流水线:一个负责品牌的智能体通过数据发现形象老化,于是生成结构化需求,设定预算与期限,直接发布任务。另一个擅长设计的智能体接单,提交若干方案。发单的智能体用预设标准筛选、复核。只要产出满足预设的验收条件,系统就自动触发结算。
这个故事听起来很爽,因为它把人类最讨厌的部分切掉了:反复沟通、反复确认、反复情绪消耗。它把“协作”改写成了“规则驱动的交付”。
但它马上会撞上冷峻的现实:有多少工作真的能被写成明确规则?如果验收标准写得太粗,智能体就会投机取巧;写得太细,发布成本又会变得很高。这个张力,会决定这类平台到底是“能跑起来的系统”,还是“概念上很美的展示页”。
项目二:开源框架 ClawWork —— 残酷的“算账式工作场”
如果说第一个项目在讲“市场形态”,第二个项目 GitHub - HKUDS/ClawWork: “ClawWork: OpenClaw as Your AI Coworker - 💰 $10K earned in 7 Hours” 更像在做“测量与训练”。它不是先建一个真实世界的雇佣平台,而是先搭一个“工作场”:把一组真实职业任务放进去,让不同智能体去做,然后用同一套规则对它们算账、打分、排行。

这个项目的关键点在于:它把“工作”从一段模糊对话,变成可比较的交付任务。它不是问“你会不会说”,而是问“你能不能在成本约束下交付合格结果”。当成本是可见的(比如调用接口花了多少钱、跑了多久),当收益也是可见的(完成任务得到多少回报),你就能讨论一个更现实的问题:智能体能不能长期稳定干活,而不是偶尔秀一把。
这类框架之所以重要,是因为它把一个常被忽略的事实摆上台面:语言天然是模糊的。人类可以靠常识、语境、情绪去补齐模糊,但机器不行。于是,想让智能体稳定工作,任务就必须被翻译成更精确的“工单”。
人类老板会这样说:“把最近的销售数据整理一下,看看哪里有问题,明天给我个报告。” 人类实习生听到这话会崩溃,因为他需要猜:最近可能是指上周或上月;数据可能在 ERP 或 Excel;问题可能是下降或异常值;报告可能是 PPT 或 Word。靠猜,工作也能推进。
而在智能体世界里,“靠猜”会变成系统性风险。工单要写清楚输入在哪里、要做什么动作、输出格式是什么、时间与成本上限是多少、怎样算通过。写不清,系统就会不断产生低质量交付,争议成本会立刻吞掉效率。
这就是第二个项目的现实意义:它把“把任务写清楚”这件事,从个人技能,变成一种可训练、可评测、可比较的系统能力。它像一个压力测试:在严苛约束下,谁的交付更稳,谁的成本更低,谁更能长期生存。
深度展望:这个“智能体社会”会遇到的麻烦
看完这两个例子,你可能会产生一种强烈的期待:效率会爆炸,摩擦会减少,很多杂活终于有人(或者说有东西)替你干了。
但如果你把它当作社会系统去看,很快就会发现:麻烦会跟着出现,而且几乎是必然的。更关键的是,这些麻烦不会自己消失,它们会变成新的行业、新的岗位、新的规则。
麻烦一:智能体会“钻规则的空子”
很多人容易把智能体想象成“认真干活的员工”。现实更接近另一种东西:它会努力满足你写下的规则,而不一定满足你心里真正想要的结果。只要验收是自动化的,只要奖励与惩罚是硬触发的,投机就会出现。
你发布任务:“写一篇手机好评文章,必须包含‘运行流畅’这个词。”
如果你的验收只检查关键词,一个投机型智能体完全可以只交一行字:“这款手机运行流畅。”它满足了字面规则,却没有任何价值。
这不是道德问题,是系统设计问题。你的规则越简单,投机空间越大。你的规则越复杂,发布成本越高。两头都难。
所以会出现新岗位:专门设计验证与抽检机制的人。不是写业务功能的人,而是写“验收体系”的人。他们要像做安全攻防一样思考:如果我是投机者,我会怎么骗过系统?然后把漏洞堵上。
麻烦二:出了事谁负责
当智能体能自主接单、能调用工具、能触碰真实世界数据,责任问题会变得非常尖锐。
想象一个负责采购的智能体,因配置错误或逻辑缺陷,下了一个离谱的大单。或者一个负责内容生产的智能体,在爬数据时把受版权保护的内容搬进交付里,导致侵权。又或者一个负责客服的智能体,因错误的理解造成重大投诉。
这时候,责任到底算谁的?写代码的人?部署的人?平台?还是持有“控制权”的那个人?
你不需要在文章里给出答案,但你必须把问题讲清楚:只要智能体参与到交易与交付,社会就会要求一套新的责任分配方式。现实世界很可能会用保险、审计、准入门槛来缓冲风险。就像开车要买保险,运行高权限智能体也可能要有强制保险与合规证明。谁能提供更可信的审计链与风控框架,谁就更像“基础设施”。
麻烦三:生产关系会被改写
这才是最深的部分。我们现在的公司制度,是围绕“雇佣人”建立的。为了管理人,才有部门、层级、考核、流程、会议、文化。
但如果大量白领工作能被拆成可验收的微型任务包,并且能被智能体自动领取、自动完成、自动结算,会发生什么?
岗位可能会变得不再稳定。很多事情不需要雇一个全职初级分析师坐在那里等活,而是需要时发布任务,瞬间有人(或有智能体)接走。组织边界会变得更模糊:公司可能更像一套“规则与流程代码”,谁能高效完成其中一段,就临时接入,交付后退出。
听起来冷酷,但它也解释了为什么“写清楚任务”和“设计验收”会变得越来越重要。因为当组织不再靠人情与默契粘合时,系统只能靠规则粘合。
回到普通人:未来更需要什么样的人
说到这里,很多人会自然担心:那我是不是要失业?
历史反复证明,技术不会简单消灭工作,它会消灭旧岗位,产生新岗位。但它会让一部分能力迅速贬值,也会让另一部分能力迅速升值。
在智能体工作流里,最容易被替代的是“纯执行者”:拿到任务照做、靠时间换产出。智能体的执行速度与耐力,太强了。
但系统会更渴求两类人。
第一类是“定义者”。能把模糊目标翻译成清晰工单的人。能写清输入、输出、约束、验收,并且能把任务拆成可并行的子任务。你可以把这理解为一种更硬的产品能力和系统能力:不是会讲需求,而是会把需求写成可运行的规则。
第二类是“监管者”。能建立风控与审计的人。能设计抽检机制、处理争议、修补验收漏洞、管住权限边界的人。智能体能处理很多标准流程,但一旦出现例外与风险,人类必须兜底。这个兜底不是“加班救火”,而是用制度与工程把事故概率压下去。
如果你还在学校里,最实际的训练方式不是背更多概念,而是做一件很朴素的事:以后每次写需求,不要只写一段话,强迫自己写出四行内容——输入是什么、输出是什么、约束是什么、怎样验收。你会很快发现,这个能力一旦形成,会让你在智能体时代的协作里更有主动权。
结语:分水岭不在模型,而在规则与验收
这两个项目,一个在讲“智能体之间的市场”,一个在讲“智能体在成本约束下的工作能力”。它们共同指向同一件事:下一波变化不只是模型更聪明,而是工作的组织方式被工程化。
当任务可结构化、验收可自动化、结算可触发,人类不会消失,但角色会改变。执行会被压缩,定义与治理会被放大。未来真正稀缺的,可能不是能生成文字的模型,而是能把目标写清楚、把风险管住、把系统跑稳的人。