90%打工人「自费买AI上班」,开启To P革命!每月花20刀效率翻倍

  新智元洞察

  作者:雷鸣

  面对 AI 淘汰焦虑,大量职场人出于生存焦虑主动自费购买 AI 工具,无数职场人正「自费上班」,从而开启一场「自我拯救」运动。这种现象催生出区别于传统 To B 和 To C 的全新赛道「To P」——To Professional。

  你每个月花多少钱买 AI 工具?

  你们公司有统一购买AI 服务吗?

  你是每月花 20 美元买 ChatGPT Plus,还是「白嫖」免费的豆包和 DeepSeek?

  当隔壁工位的同事已经能用 AI 在半小时内生成一份你得写好几天的专业报告

  那种「再不跟上就要被淘汰」的焦虑感,会让你感到恐慌吗?

  当软件巨头 IgniteTech 的 CEO,因为团队拥抱 AI 的速度「不够快」而换掉 80% 的员工时,一个残酷的现实摆在了每个职场人面前:要么用 AI 武装自己,要么被会用 AI 的人淘汰。

  这种打工人的恐慌就像是 AI 版本的「黑暗森林」和「工具爆炸」:

  怕被 AI 替代、怕被用 AI 的同事替代、怕被用 AI 用得特别好的同事替代。

  一场职场人的「赛博续命」

  就在最近,全网爆火的那份 MIT 报告便描述了这一 AI 时代独有的现象:

  90% 员工开始「偷用」ChatGPT 续命,他们都在频繁地使用个人 AI 工具!

  数据上更加夸张,虽然只有 40% 公司宣称帮助员工订阅了统一的官方服务,但受访的 90% 公司员工都表示,他们都在频繁地使用个人AI工具

  员工使用 AI 频率,是企业采纳率的 2 倍多,MIT 将这种现象被称为「影子 AI 经济」。

  前 AI 时代,持续繁荣了 30 年的互联网时代最喜欢的 To B 和 To C 的叙事体系似乎已经无法描述这种新型商业现象。

  这种影子 AI 经济,正对应着如今 AI 创业中一条独有的赛道。

  当下的 AI 创业热点藏在一条更隐秘、更迅猛的赛道:

  To P(To Professional),一场由无数职场人发起的「自我拯救」运动。

  俗称「自费上班」

  只要分析一下当前比较火爆的创业公司,比如 AI 编程,AI 营销等,你就会发现——他们既不是 To B,也不是 To C。

  而是To P

  全球 AI 独角兽前 30 和全球 AI 产品能力前 20

  以 Cursor 和 ChatGPT 为例。

  说他们是 To B 吧,也对,因为主要是企业内的一些员工为工作目的使用。

  说是 To C 吧,好像也对,因为大部分使用和购买行为都是个人决定的。

  考虑到这种情况,我们提出 To P 的这个赛道:

  • 和 To B 相比,相同点是用户使用 AI 服务,用于商业目的;不同点是,使用者是为了提升自己的工作效率,因此自己便可以做出购买决定。

  • 和 To C 相比,相同点是付费行为都是个人决策;但使用服务的目的不同:To C 的最终目的是为了自己(比如淘宝买东西,抖音看视频),而 To P 的最终目的是为了工作/商业,为了别人,但自己从中能有收获(大部分时候是金钱,也可能是名誉)。

  这钱交的,ROI 太高了

  为什么是 To P 模式走得最快?

  让我们看看 Cursor 的增长历史。

  Cursor 在 2024 年创造了 1 亿美元的收入,相比 2023 年的 100 万美元增长极为显著。

  到 2025 年 6 月,Cursor 的 ARR 已经超过 5 亿美元!

  Cursor 的估值也达到 99 亿美元,进入百亿俱乐部只有一步之遥。

  这让 Cursor 成为历史上增长最快的 SaaS 公司。

  为何打工人「愿意」为 Cursor 付费?

  让我们做一个简单的算术题。

  以编程为例,程序员买 AI 编程会员每月花 20 美元,可以使工作效率提高一倍。

  如果他的工资每月是 5000 美元,如果他用同样的工作时间,那么他就可以挣到 10000 美元。

  也就是投入 20 美元,收益 10000 美元,投入产出比 500 倍!

  当然,这种计算过于「粗暴」的,但这正是用户很容易做出购买 AI 产品决策的原因。

  这也是当前编程软件增长速度极快的原因。

  这就是 To P 赛道的特点:用户可以明确地计算投入产出。

  打工人的「反向渗透」

  为何 AI 产品在 To B 和 To C 赛道上没有快速发展?

  To B 太慢,慢到等不起

  To B 而言,需要企业一组人都用,需要企业管理者做决策。

  自上而下的决策牵涉到很多问题,比如意见不一致,预算审批周期等,为了这些事情,很多企业都需要到年的单位了。

  因此,即便理论上是好东西,也需要很长时间才能说服B端去采用。

  而对于 To P 而言,就快多了,用户自己觉得好就可以支付,这个行为和 To C 是一致的。

  既然个人决策很容易,那么为什么 To C 这条赛道暂时也没有动静呢?

  To C 太难算账,太烧钱

  To C 而言,因为消费者就是自己,所以不容易算账。

  比如看抖音,如果 AI 使得你更开心(也不容易衡量),你会愿意付款吗? 愿意付多少?

  从互联网时代而言,我们发现 To C 的服务,大部分都走了免费路线,其中一小部分走免费+增值收费(视频网站),因为免费无法覆盖成本,但大部分用户还是不愿意付款的。

  全球付费用户高达 3 亿的流媒体龙头 Netflix,营收一度陷入停滞

  要改变 To C 产品的用户心智是比较难的,用户不愿意付钱。那我们干脆不收费不就行了吗?

  这个真不行,AI 产品背后的 token 成本,是无法忽略的(不像现在云服务和带宽费用,平均到每用户非常低),如果没有一定的收费机制,用户越多,亏损越大,进而没有持续性。

  举个例子,OpenAI 用 3 年时间就达到了 120 亿美元的 ARR,这在软件历史上前无古人,后也很难说有没有来者。

  根据最近的报告,ChatGPT 全球每周活跃用户已达 7 亿 。

  很多人会说 ChatGPT 增长这么快,这应该都是 To C 了吧。

  其实不然,虽然都是用户,但我们要分析用户使用 ChatGPT 的目的是什么。

  仔细分析下来,其中一部分为了工作(To P),一部分为了自己的日常需求(To C)。

  但再深入一步。

  当我们认真思考,其实用户购买 ChatGPT,主要还是为了 To P 部分的需求的,比如写工作报告,调研报告,整理素材等等。

  对于自己的 To C 部分,其实用户是不愿意付钱的。

  尤其是现在免费版的 GPT-5 等工具,已经足够 To C 用户完成自己的日常任务了。

  那么未来呢?

  当然了,To B 和 To C 这两条赛道也都会陆续发展起来。

  对于 To B 而言,当越来越多的「P」(专业人士)在企业内部用个人工具证明了 AI 的巨大价值后,企业层面的采购需求就会被真正激活。AI 需要进一步在解决跨部门、团队协作等复杂问题上证明其能力,届时 To B 市场就会全面爆发。

  其实,To B 这块已经有非常成功的例子,那就是 Meta 的广告业务。

  在 2023 年,Meta 广告收入达到了1319. 5 亿美元,同比增长 16.1% 。

  广告业务几乎占据了 Meta 整个营收的绝大部分。

  2024 年,Meta 的广告收入增长至 1606.3 亿美元,同比增长 22%,这主要得益于广告展示次数(增长 11%)和平均广告价格(增长 10%)的双重提升。

  然而,其成功的真正驱动力在于 AI。

  到 2025 年,Advantage+Campaigns 和 Andromeda 等 AI 驱动的工具,已将每条合格销售线索的成本降低了 10%,并将 Instagram 的广告转化率提升了5%。

  这些效率的提升,使得采用 Meta AI 工具的美国广告商,其广告支出回报率(ROAS)提高了 22%;相比之下,未使用 AI 工具的用户的 ROAS 仅为 3.71 美元。

  对于 To C 而言,其爆发的关键在于token 成本的下降

  在过去的两年里,每 token 的成本已经降低了几百倍。

  在下面的对数图中,可以看到每百万 token 每年成本都下降 10 倍。

  在 2025 年 2 月,OpenAI 的奥特曼接受采访时曾说,AI 的成本每年将下降 10 倍。

  同样佐证了这个观点。

  如果未来1-3 年,成本能继续以每年几十倍的速度下降,直到与云计算、网络带宽成本相媲美,那么互联网的广告、游戏等免费模式就能支撑起 AI 应用。

  问题是,LLM 的价格会继续以这样的速度下降吗?

  这很难预测。

  在个人电脑革命中,成本的大幅下降主要归功于摩尔定律。

  只要这些定律仍然有效,晶体管数量和频率持续增加,价格下降就很容易预测。

  具体来说,LLM 推理成本的下降是由多个独立因素造成的:

  • 相同运算下更优的GPU成本/性能这是摩尔定律(即芯片上晶体管数量的增加)以及结构改进的结果。

  • 模型量化。最初,推理是在 16 位下进行的,但对于 Blackwell GPU,预计 4 位将成为常态。这将带来至少 4 倍的性能提升,但由于所需的数据传输减少且算术单元复杂度降低,实际提升可能更大。

  • 软件优化可减少所需的计算量,同样重要的是,还可降低所需的内存带宽。内存带宽以前是一个瓶颈。

  • 更小的模型。如今,一个参数量仅为 10 亿的模型,其性能就超过了仅仅三年前参数量为 1750 亿的模型。

  • 更优的指令调优。在预训练阶段之后,还有更多改进模型的方法,其中包括人类反馈强化学习(RLHF)和直接偏好优化(DPO)等技术。

  • 开源。DeepSeek、通义千问和其他公司推出了开源模型,这些模型可以由竞争的低成本模型即服务平台托管。这减少了整个价值链上的利润空间,从而降低了价格。

  毫无疑问,其中某些领域已经看到快速的进展,但在其他领域,情况尚不明确。

  到那时,才是 AI To C 创业的黄金时代。

  但至少在目前,AI 的革命是在以 To P 这种更务实的方式,在每一次的 ChatGPT 对话中,在每一个职场人的键盘上,悄然取得成功。

  作者介绍

  雷鸣

  百度七剑客、酷我创始人、Al Basis Fund 创始合伙人、北京大学 Al 创新中心名誉主任、斯坦福大学商学院顾问委员会理事。