上周三晚上,凌晨一点多,我躺床上刷手机。
然后就睡不着了。
郑州一家软件技术公司,引入了OpenClaw的AI智能体框架——江湖人称"龙虾AI"。5台电脑,19个24小时待命的智能体。然后,后台支持部门裁员比例超过50%。
50%。不是5%,不是10%,是一半。
前台和销售留下来了。为什么?因为这两个岗位需要跟真人打交道。而那19个智能体,处理了文档、运营、后勤、数据——所有以前需要"人"来做、但其实不太需要"人"来想的活儿。
我当时的第一反应不是"AI太可怕了"。
说实话,这种话我听得都麻了。
我想到的是:**我自己每天干的活儿,有多少属于这个范畴?**
这个问题不甜。但你一旦开始想,就停不下来。
龙虾的逻辑不是"替代人",是"替代决策"
我仔细看了这个案例。有个细节很有意思——这家公司裁的是"后台支持部门",留下的是"前台和销售"。
这说明什么?
AI替代的逻辑不是"机器vs人",而是**“高重复低决策” vs “高交互高判断”**。
后台文档处理、数据整理、运营报表——这些工作的共同特点:有明确规则、有大量重复、错误代价低。AI干这些活儿比人快、比人准、不会累、不用交社保。
说白了,就是好伺候,便宜,还不闹脾气。
而前台和销售不一样。你要跟客户握手、察言观色、在关键时刻做判断——这些目前还是AI的弱项。至少现在是。
但我跟你说,"目前"这两个字越来越不好使了。
IDC有个预测:到2030年,全球会有22亿个AI Agent成为"新数字劳动力"。22亿。不是"将要出现",是**“正在成为”**。
我看到这组数字的时候,去倒了一杯水。回来又看了一遍。
不对。
不是22亿个AI Agent来了,你就没工作了。是你的老板发现用22亿个AI Agent比你便宜的时候,你才危险。
资本没有感情,但资本很诚实。
79万买的不是教训,是认知
今年初,北京有个科技公司,工作15年的老员工被裁了。公司的理由是"岗位已被AI替代"。
15年。
这事儿闹到了劳动仲裁。结果:违法解除,赔偿79万。
评论区一片叫好。职场人终于赢了一次。
但我看完之后,心里堵得慌,不是高兴那种堵。
我注意到这个赔偿数字——79万。15年的工龄,换来79万。
算一下:79除以15,一年5万出头,一个月4000多块钱。
这不是赔偿。这是打发。
更让我后背发凉的是公司的逻辑:他们真的认为这个岗位"被AI替代了"。不是业务调整,不是战略收缩,是AI来了,这个人的活儿不用人干了。
以前公司裁员,会说"业务调整,感谢多年付出"。好赖还给个面子。
现在可以直接说"你的岗位被AI替代了"。后者听起来甚至更"客观"——不是公司不要你,是时代不需要你了。多体面。多文明。
屁。
这层窗户纸一旦被捅破,一切都会快很多。
那留下的人安全吗?
我在这个话题上花了不少时间研究。
说实话,研究完之后心情不太好。
现在说"AI替代不了"的岗位,普遍有一个共同特征——**需要跟人打交道**。
销售要跟客户建立信任。前台要处理突发状况。心理咨询师要共情。律师要谈判。
但这个安全期有多久?
我不太确定。真的不确定。
2019年的时候我看过一篇文章,说"AI五年内替代不了护士,因为护士要换尿布、擦身体,这种活儿机器干不了"。当时觉得有道理。现在再看——护理机器人已经在一些医院开始试用了。不是概念,是真的在用了。
不是"能不能"的问题。是"多快"的问题。
所以我现在判断一个岗位的"安全系数",不太看"AI现在能不能做",而是看**“五年后能不能做,并且成本比人低”**。
按这个标准——
需要高度创造力、高度人际互动、高度不确定性决策的工作,暂时安全。
一切有明确规则、大量重复、错误代价可控的工作,都在倒计时。
不是什么时候倒,是已经在走了。
我自己在用的是这个公式:**危险程度 = 重复比例 × (1 - 决策权重)**。比例越高、决策越少的岗位,越危险。
你拿这个公式套一下自己的岗位。
嗯。
写到这里,我其实不太知道怎么结尾。
按照以前写文章的逻辑,我应该说"面对AI时代,你应该怎么做",然后列个一二三四。显得专业,显得有干货,显得——
算了,我不想那样写。
因为我发现,在"怎么做"之前,其实有个更先的问题:**你有没有真的正视过这个可能性**。
不是"AI会改变很多行业"这种正确的废话。是"你现在的岗位,五年后可能不需要你了"这个具体的、让人不舒服的可能性。
你有没有想过?
想过的,才会在今天开始布局。没想过的,大概会等来下一次"公司业务调整"的通知。
我承认我最近想得挺多的。
就这样吧。