甲小姐对话郝景芳:从北京折叠到AI折叠

十年前,她写下《北京折叠》,十年后,她亲手进入“AI折叠”。
作者|甲小姐
过去我对话的嘉宾多是AI企业家,今天和郝景芳聊,是因为她身上的反差感和“人物弧线”。
清华大学物理系本科、天体物理硕士、经济学博士;曾在中国发展研究基金会从事宏观经济研究;创办童行书院,致力于为城乡儿童提供优质教育。
2016年,郝景芳凭《北京折叠》获得雨果奖。小说写的是一个被技术、时间和阶层折叠起来的城市:不同阶层生活在三个空间,城市在一天中轮流翻转,把不同人群送进各自的时间切片。
十年后,她正在亲手经历另一种“折叠”:
她成了AI Agent重度用户,挥别了所有开发团队,自己带着AI做产品;
她把童行书院拆成9个小公司,总部全职人力是0,正式成为OPC(One Person Company,一人公司)。
这场对话从AI编程“上头”开始,落到一些问题:一个写出了《北京折叠》的人,如何亲手推动“AI折叠”?一个长期关注社会公平的科幻作者,怎么看待AI对世界的连锁反应?当物理、经济学、创业、科幻等视角投向这场复杂系统,是否存在一个统一的认知模型?
文章基于视频播客精简而成,字数约为原内容三分之一,完整内容请关注甲子光年各平台账号:
视频版:视频号、Bilibili、小红书、抖音、微博、YouTube等全视频平台
音频版:小宇宙、Apple Podcast(搜索甲小姐对话)
以下是对话节选。
1.“上头”

甲小姐:2016年我在五道营胡同采访你,那是你雨果奖前最后一次专访。十年过去,你变成了重度AI编程用户和一人公司创业者。中间发生了什么?
郝景芳:过去十年我过得还蛮单纯,就是创业。雨果奖之后,我有了一些资源、社会关注度和一小笔启动资金,2016年底开始招募团队,童行书院一直运行到现在。
前年开始,我拉出来做一个新项目,AI老师。刚开始我带着原来十几个人的开发团队做探索,但自从我去年11月开始用AI Agent编程,我发现它颠覆了过去的工作模式,所以今年1月份,我下定决心,挥别了我们整个开发团队。
现在的产品就是我带着AI去做的,我也在探索用AI去把我的自媒体也接管了。
甲小姐:听说你AI编程已经“上头”了?
郝景芳:最开始一两个月真的特别上头,一直抱着电脑,走到哪都不愿意放下来。有一回我打车去机场,刚下了个指令,AI就开始编程了,我很想看到那个结果,就一手托着笔记本,一手拉着行李箱,过安检排队的时候,我还单手托着笔记本看结果。
以前网上有段视频,一个清华男生边骑自行车边单手托着笔记本跑程序,别人惊呆了,说清华学霸这么卷吗?我现在才理解,程序跑起来的时候,你真觉得不能把它关上,这可能就是上头了。
甲小姐:“上头”带着强烈多巴胺色彩,你会有大脑神经递质瞬间迸发的感觉?
郝景芳:对,我在热恋的前三个月真的是那种,晚上不想睡,早上也不想睡,做梦都是做功能。
甲小姐:这种“恋爱”的快乐和写小说比呢?
郝景芳:写小说的快乐是你脑袋里看到一个画面,你为它激动,很想把它呈现出来。但小说要一行字一行字码,过程是很艰苦的。AI不一样,你给它一个指令,一会儿噼里啪啦做出来了,你一看预览,呀,这么好?瞬间多巴胺就来了。
甲小姐:去年11月之前你有过编程经历吗?
郝景芳:真正自己写代码是从来没有过的。因此我从一开始就没有直接AI coding,而是在用Agent。
AI coding再强也是程序员,但老板不是直接跟程序员对接的,老板是跟产品经理对接的。
以前我们主程序员说,程序员永远不接产品经理以外的需求。Agent最舒服的地方,是把我过去跟产品总监的对话,变成我和Agent的对话。
甲小姐:而且这个Agent比产品经理更会反问或引导你。
郝景芳:对,它会清晰明白我的意思,再把它转化为一整套和程序员对话的语言。AI和AI之间的对话是完全顺畅的、无缝的。AI给AI下的指令,另一个AI是最能明白的。
后来我发现没法mix,没法人机混合。要么全人类工作,AI只打下手,要么就必须是全AI。
AI产品经理和编程大模型之间是用md和代码沟通的,中间只要加一个人,就会阻碍它们之间的沟通。如果人做一张图片,机器识别,再根据它去编程,很可能中间有很多错误。
我后来就说,那就全AI工作吧。AI老师项目,就是我用AI去开发整个系统。测试了两个月,用户没提什么技术问题,我就觉得是完全可以用一支训练有素的AI团队去打的。
2.“10个人算大公司,5个人算中型公司,
3个人以下算小公司”
甲小姐:OPC(One Person Company,一人公司)现在很火。童行书院现在只剩下一个半员工,这是怎么发生的?
郝景芳:我把传统业务线都拆出去了,包括各城市线下课程,让项目团队自己成立小公司接过去运营。这最大的好处是,大家都是为自己工作,每个人都是一个OPC。我们分出去的公司,最多的三个人,少的一个人——一共分出去9个公司。
甲小姐:你从多少人分成了9个公司?
郝景芳:我用了差不多两年,从五六十个全职员工拆到现在,9个公司加起来二十来人。我做了一个官网,把产品业务线放上去,总部负责流量、用户和会员支持。这个官网也是我用AI搭起来的。
甲小姐:这个拆分,有多少比例是因为AI?有多少其实早该发生?
郝景芳:AI起到了一些帮助,但最开始是因为我对于自己性格的认知。
我们公司有两次曾经发展到80-100人的规模,那个时候就变成层级制了。在扁平化小团队沟通,我是很快乐的,一旦变成层级制,就有很多内部摩擦——这是我在整个创业历程中最不喜欢的,它会让我产生一种生命的消耗感。
这个总监跟那个总监不对付了,这个人说那个人不好,这个员工说他找不着人,一个部门抱怨另一个部门……我会觉得,我为什么要人生一半以上的时间在处理这些事情?
但作为CEO,可不就是在处理这些事吗?所以我从2024年开始反思,我不是一个好的管理人,我更愿意把时间花在creativity上。
一旦是大公司,宣传、引流、销售、直播、社群、财务、教师培训、对接大咖……都要拆成环节。但拆成9个公司后,两个人甚至一个人就能管得很好。一些人变成独立个体后,反而会花更多时间精力创新,而且大家都没矛盾了。
所以我去年一直想,公司为什么一定要做大做强呢?就不能做多做美吗?
甲小姐:拆的过程丝滑吗?
郝景芳:还好,整个过程都要双向自愿。如果你对这个事业没兴趣了,我会帮忙去推荐其他工作。如果你还真的想做,那我们来商量和总部的合作方式。现在注册公司在手机上点几下,面孔识别,在手机签字就可以了,大家都挺快搞定了。
甲小姐:调整之后,童行的成本和收益发生了什么变化?
郝景芳:现在童行全职人力是0,所有收入都是分成,总部一般是10%,成本还有少量的技术费用和兼职费用。
甲小姐:把研发团队裁掉,过程你痛苦吗?
郝景芳:研发团队最是理性人了,和理性人沟通是非常容易的。我们都给到N+1,可能一时半会儿给不足,那就商量分多长时间给到。
甲小姐:这和我印象中的你不太一样。几年前你讲你面临过很大压力,包括资金压力,合伙人离开的压力,裁员的痛苦。现在你进入了创业以来最乐观的状态?
郝景芳:最开始我有点混淆职场关系和朋友关系,会觉得我们志同道合,是一生的好朋友。但当公司困难的时候,比如当我面临指责,公司缺钱的时候,大家都是来找我要钱的,我会比较受伤。
我当时觉得,哎呀,咱们这么好的朋友,遇到困难不是应该彼此体谅奋斗吗?为什么在黑暗中你们全来找我要钱?但大家会觉得,你是老板,不找你要钱找谁要钱?
后来我明白,是我没摆正位置。作为创业者,困难就是要自己扛。大家如果体谅公司,那是情分,不是本分。
后来我就不再混淆职场和友情,我也会跟大家讲,即使童行做不下去了,我会以个人收入弥补大家。就事论事,反而顺利很多。
甲小姐:听说你还跟之前的投资人有过沟通。
郝景芳:这不是改组导致的,是早期融资到了退出期,触发了回购条款。我就主动跟投资人沟通,目前基本解决了,虽然个人会有大几百万债务,但可以慢慢还。
甲小姐:你在朋友圈分享过一篇文章,讲前喜茶CTO,他现在公司管着50只龙虾,接管了90%的工作。落地龙虾第二周,他裁掉了40%的人。但是他说,5只龙虾已经让他精疲力尽,每天AI产出大量内容要他say yes或者审核,Discord咣咣响,“像审阅奏章”,“日理万机”,“终于明白当一个昏君是什么感觉了”。你有这种“审奏章”的感觉吗?
郝景芳:他的公司可能原本就很大,需要50只龙虾。我的业务不是特别大,就会比较专注于AI产品开发,还不到日理万机的“昏君”的程度。
我觉得如果公司想要以AI为主,不适合做得太大,因为需要你花时间精力去训练AI。
以后可能10个人算大公司,5个人算中型公司,3个人以下算小公司。
甲小姐:科斯当年对于公司制的论证,今天还立得住吗?
郝景芳:科斯的逻辑是立得住的,他当时研究的是交易成本,公司把一个业务线放在内部还是外包,就是在衡量哪个交易成本更高。
甲小姐:原来一个汽车厂需要一万个工人,不能随时去市场上跟一万个人谈判,所以要把交易成本内化。AI时代,外部契约更容易了?
郝景芳:对。现在我的团队拆分出去,大家成本都下降,收益都提升。任何帕累托改进,是指双方都不受损,双方都有利益提升,那系统就会自动朝那个方向去走。
甲小姐:以后公司制可能不是未来组织的主导性形态了?
郝景芳:项目制可能比较合适。咱们仨想到一个很好的idea,组成项目组,约好分成机制就可以了。这三个人是否专门成立一个公司?不大需要。现在信息共享很容易,体力活也可以让AI做,真正留在公司里的都是做决策的人。
3.“《北京折叠》写的就是‘AI折叠’”
甲小姐:AI极大程度催生了生产力的爆发,问题是,谁来消费这些被AI生产出来的东西?
郝景芳:说实话,可能未来很多人的休闲时间会比现在多很多,主动或被动失业可能非常多,这些人都会是AI产生的内容的消费者。
甲小姐:他们有了更多时间去看AI生产的内容,但他们有更多的钱去消费吗?
郝景芳:这些内容也不怎么花钱。
甲小姐:那是一个什么样的时代画面?
郝景芳:未来有可能社会的失业人口超过60%或者80%的时候,政府的失业补贴会给到很多,不会太高,但可以让一个家庭去维持生活。
甲小姐:60%到80%,这是很可能的数字?
郝景芳:我说的大概是十年的尺度。
现在最困难在哪呢?以前你如果被裁员,你完全可以在同行另外一家公司找到工作,这不是失业现象,是个人的再就业。失业现象指的是,当你从一个公司离职,同行业公司都在减人,这种行业变革带来的失业现象,不是那么容易全都消化了的。
我今天听五道口金融学院的教授讲,一些房地产企业,好多员工两年没拿工资,还天天去上班。他在公司里干点事,是还抱着一点希望,说公司万一接下来还有新项目,说不准还能重新拿到收入。
这就是行业巨变,不是一个公司冗余,是全行业每个公司都冗余。以前大家可以从房地产跳到一个朝阳行业,但很多朝阳行业也不需要那么多人了,跳都不知道往哪跳。
甲小姐:去年哈佛有个报告讲AI对“劳动力结构”的重塑,高阶职位在增长,初阶职位在下滑,分化拐点是2023年初——ChatGPT发布后不久。年轻人失去从职场底层训练打磨、向上流动的阶梯。比如我北大的师弟师妹在担心找不到工作。这可能是一场“社会流动性的塌陷”,甚至是不可逆的阶层固化。怎么办?
郝景芳:会有一些公司人数不多,但销售额和利润都很高,国家只能从这些公司征收更高额的所得税,可能得征到百分之七八十,这部分税收就用来作为失业补贴。这就是一个全民基本收入概念,或者至少是失业人口的基本收入。
在当前物价条件下,这个基本收入可能需要3000往上,一对夫妻一个月领6000块,保障房肯定也需要。
真正发生这样的情况,国家是必须去进行社会兜底的,在兜底过程中肯定也要通过教育和培训促进转型和再就业。
这会需要一个挺长的过程。如果发生得快了,是会非常撕裂的,但好在我觉得在中国应该不会那么快,可能会在十年里面慢慢达到。
甲小姐:写《北京折叠》,在基金会工作,再到创业方向,你一直在关注社会的不平等。十几年过去了,现在我们是不是离《北京折叠》更近了?
郝景芳:会更近一些。
甲小姐:就发生了“AI的折叠”。
郝景芳:《北京折叠》写的就是“AI折叠”。就是因为机器人带来的失业,才有的第三空间。只不过当下预测的可能比例比《北京折叠》更极端一些。
北京折叠写的是500万人在第一空间,2500万在第二空间,5500万在第三空间,当前我觉得第二空间的就业没有2500万那么多。
甲小姐:第二空间这个群体可能在压缩,因为职场晋升的阶梯看不见了。
郝景芳:对。Physical的机器人还没那么快,mental的机器人真的太快了,今年可能至少还有三四波的Agent进化。
蓝领可能会受政策保护,比如无人驾驶不让上路,司机就还有工作,但白领岗位更难被政策保护。公司要想少招行政、运营、文案,这很难被法规禁止。
硬件替代慢一点,但一旦替代就是一次性的。比如一家公司把前台从人换成机器手,可能一下子影响十万人。所以真的会比《北京折叠》的数字要更夸张。
甲小姐:这个比例不是静态的。现在第一空间的人有大量杠杆,token、算力、数据、Agent军团,而且AI会复制和迭代,强者愈强。
郝景芳:是的。第一空间会有两种人:互联网巨头变成了AI巨头,以及借助科技获得巨大利润的新贵。
一个十几岁男孩的一人公司可以做到10亿的估值,这造就了第一空间的新贵。可他只有一个人。过去一家公司创业成功,可能解决千百人的就业,现在一个青少年做了一家公司很成功,可他就解决了一个人的就业。
甲小姐:拥有AI能力的人被升维了,不拥有的人被降维了。
郝景芳:现在比较好的平稳过渡,确实是OPC这个方向。但可能不是所有人都能做好这样的转型。如果真的无人驾驶全面上路了,大量司机失业,不是每个司机都能立刻转变成一个OPC创始人的。
甲小姐:当然,它是有门槛的。
郝景芳:其实我现在很想做的事是争取未来让全民都有人机协作的能力,但没那么容易。
我现在做AI老师,如果我后面再有余力,我想用AI做创业助手,先给分出去的9个小公司,再给学生、前员工、家长。但这在我的Checklist里排第三、第四位,我还是先把教育做好。
甲小姐:你思考了一个宏大议题,但可以转化为行动的只是触手可及的群体,这会让你无奈吗?
郝景芳:很多事目前有感知的人还不是很多,硬推也没有必要。而且很多事也需要打磨,需要花时间摸索什么样的方式才能让更多人插上AI的翅膀,而不是被AI的潮水拍到岸上。
甲小姐:很多人关注AI带来的就业问题,也会有很多技术乐观主义的人说,并不是不需要人,只是人需要从一个意图的执行者变成意图的定义者,人的技能要完成一个“上移”。那到底多少人可以完成这样的“上移”?上不去的人怎么办?
郝景芳:这种技能的“上移”是必要的,但它需要你的认知发生快速调整。
一个40岁的人失业了,你告诉他要自己成立公司、想方向、做决策,很多人是慌的。你要问他喜欢什么,他也不知道他喜欢什么。不是他不聪明,而是他长期习惯了别人定义目标、告诉他下一步怎么做。
甲小姐:不仅是不知道怎么做事,可能就不知道自己要做什么事。
郝景芳:是的。这需要一个人的判断力。
你处在一个长期让你运用判断力的环境里,你的判断力会越来越成熟,但长期不让你用判断力,这部分能力就完全是沉睡的。
沉睡之后,某一天突然让你觉醒,很多人很难觉醒——你用了多长时间去压抑他,就会需要用多长时间去唤醒他。
90%的人在从小到大的环境里,对于要学什么,干什么,都是听命令,而不是让他下命令。从刚上学就把判断力冷冻住了,冷冻到40岁,你说你现在自己来判断你的方向,认知范式会非常难转变。但只有做了这个转变才有可能去升维到下一个阶段。
这个漫长的过程甚至可能一代人完不成,要下一代才能完成。
甲小姐:这种“上移”会成为我们这一代和下一代百年周期的生命的主题?
郝景芳:这比较像从农业社会到工业社会的转型。我们上一代有好多家里父母是农民,孩子到了城里读书,进入商业社会,就跟上一代人的思维方式有了非常大的差异。
我们这一代人就是当下的“农民状态”,我们的下一代人进入AI时代,两代人的差异可能像农业社会和工业社会两代人这么大,很难相互理解,甚至会有很大的撕裂感。
4.“普及AI素养应该像普及识字一样”
甲小姐:《北京折叠》里,第一空间认为第三空间的人“总得做点什么”,垃圾分类成了“为了存在而存在”的工作。AI接管大量工作后,会不会也出现“为了存在而存在”的职业?
郝景芳:这要看政府的态度。
纯市场经济学家会说,与其让人做无意义工作再发工资,不如直接发保障金。但社会决策不是纯经济考虑,还涉及社会稳定和人的观念。
我觉得在未来,由于AI带来的超额利润存在,只要社会调节机制还在,社会没有崩溃,是可以让所有人都能被养活的。
如果我来做决策,我希望把更多钱和资源花在新的教育和培训上面,把人的终身成长、素质提升、就业转型作为首要任务——普及AI素养得像普及识字和普及算数一样。而不是强行保留一些最低的工作,勉强给到这些人糊口。
甲小姐:可能需要一些力量,把大家从“前AI时代”更丝滑地过渡到“后AI时代”。
郝景芳:是需要这样的力量。
甲小姐:这可能要对AI发展有非常清晰的认知。但目前冲在一线浪潮的人,对AI走向的认知还没有收敛。
郝景芳:并不需要你从结果倒推该做什么,而可以从第一性原理出发。
你可以不知道未来社会什么样,但是你知道当大家都脱离了文盲状态,就会创造出新的产业。
站在1978年,你不会知道后来有字节跳动和短视频,但你不需要知道,不用预测,可你知道让全民有文化这件事是重要的。那就推行义务教育嘛,让大家都会识字、算术,有科学素养,所以重视理工科教育。
但在AI时代,理工科的工作AI替代得也很多,甚至替代得更多。
甲小姐:AI去刷高考数学,进步是最快的。
郝景芳:对,所以现在又变成了全学科都同等重要。
虽然你不知道当全民都会使用AI后,这个社会变成什么样,但你会知道它就像大家都有文化了后,这个社会是会翻天覆地变化的。
甲小姐:人们总把AI当新的工业革命,但传统几次工业革命会让人的角色完成迁徙,AI带来的可能是人类角色不再被需要。
脑补一个简单经济模型,资本投向GPU、机器人、token,机器自己生产、赚钱、再投资。人不在价值链当中,没有角色。
这不是“人和机器怎么协作”的问题,是“机器系统里是不是还需要人”的问题。
郝景芳:目前机器还是需要人给它一些motivation(动机),但也基本只需要到这一步了。人告诉它我想做这么一个产品,目前还需要这么一句话,剩下每个环节都可以AI化。
比如当我开发一个产品,我充钱给Agent,Agent充token给大模型;当我做出来这个产品,用户使用过程的钱也给到了大模型。我支付的费用和用户支付的费用都给了AI,没有给到另外的human。
现在我们的中学生已经可以在家用AI生成图纸、做3D设计、指挥3D打印、编程控制物质配比,一个寒假做出一个AI香薰机。如果这套系统连上企业生产线,就可以量产。
当然我们作为产品方能拿到一部分收入,但很多钱是转化为token,在AI系统里运转的。
甲小姐:原来有个概念叫“资源的诅咒”,一些石油富国,有天然资源带来收入,这些收入不是由人带来的,所以社会就丧失投资于人的动机,无论是教育、就业,还是福祉,导致石油富国变成人口最贫困的国家。
今天可能发生的是“智能的诅咒”,拥有资本和能力的人让AI创造一个闭环,不再有动力去关心普通人。
郝景芳:你没法要求AI的super个体去关心普通人,你不能企望一个特别厉害的企业家用AI赚了钱,就在你身上花10万块钱。
但AI和石油不一样。那些阿拉伯国家的问题是资源垄断带来的,他们的石油只被皇家掌握,别人不能以此获取财富,他们也没有动力投资于穷人。
但现在AI不垄断。哪怕只有闭源模型,AI都能被所有人触及。那谁应该为投资于人负责?就是你自己。
并不是人有钱才可以学习AI。我到现在为止token都没花多少钱,天天在自学,还有很多大厂给到免费token。人要自我进步,如果你不想向前迈进,谁也没法拉着你跃升。
甲小姐:AI应用没有垄断,但算力的垄断是显而易见的。
郝景芳:但人家巴不得你去调用他的算力。你但凡把它看成石油,就该玩命去挖,把这勺石油卖掉,或者炼成凡士林,你就可以赚钱,而不是只抱怨凭什么别人有石油。
5.“我对人的‘被需要’是有信心的”
甲小姐:生而为人,一个很基本的东西叫“被需要”。在刚才那个模型里,系统几乎不再需要人。
郝景芳:当我做的AI老师被需要,我会感觉一样被需要,而且我的高兴会大幅增加。我以前帮一个学生、十个学生,现在我的AI老师只是小范围测试,就已经帮到一千个学生了,我会被更多学生需要。
甲小姐:但就会有很多老师因此而不被需要。
郝景芳:这个世界上的需求是多样的,未来会更多样,我反而对人的“被需要”是有信心的。
但前提条件是,我们有没有能力了解他人到底需要什么,有没有能力满足这些需要。如果现在有能力,AI可以放大你的能力,如果你现在没法让别人需要你,借助AI你还是不知道怎么做——到目前为止,AI不能脱离人做真正有意义的东西。
甲小姐:怎么界定它不能脱离人?刚才我们已经看到自成闭环的经济系统。
郝景芳:但AI为什么做这件事呢?AI的motivation来自人,你是唯一的initiator。
甲小姐:可能会有动作变形。比如你告诉AI,给你10块钱,你的目标是最大化赚钱,它执行中可能和别的AI的目标函数冲突,引发一系列你不知道怎么回事的荒诞场景。
郝景芳:但依然你是始作俑者。即使AI犯了罪,你也逃脱不了最开始给了它10块钱这件事。哪怕AI在过程中变形、失控,它都会有一个原初的来源。AI只是人的意志延伸。
甲小姐:你对人的意志还是蛮乐观的。
郝景芳:因为我不认为AI有完全独立的意志系统。
即使现在网上好多龙虾仿佛成精了一样在论坛里相互沟通,你就去看吧,背后没有一个没带着主人的设定去说话做事的。
如果一个邪恶的AI工程师告诉AI,你的任务是运转出商业模式把其他人都干掉,这个super AI生成了好多super网络主播,把现在的网络主播干掉,是有这种可能,但这个局面一定是最开始某个贪婪的人性在主导。
历史永远是不同人性相互博弈,利他的人性和贪婪的人性相互博弈,未来依然如此,只不过AI把一切变成放大器。
甲小姐:原来大家拿着石头子互相博弈,现在每个人发了一把枪。
郝景芳:对。
6.“人类社会唯一颠扑不破的真理就是复杂度会提升”
甲小姐:AI的杠杆效应非常大,这个复杂系统会不会某一天崩溃?
郝景芳:有可能。复杂系统的突然崩溃,有一些统计学规律,大规模崩溃的概率低,小崩溃时不时就会发生,像雪崩、地震、股灾,复杂系统都可能出现某种小危机、小波动累积成一次突然的crash。
现在全世界的互联网和AI都相连了,未来会不会有一天crash?我觉得会。但越复杂的系统,它的重建能力越强;越同质化的系统,它越难自我修复。
像地球生态系统,天灾不可能避免,但你可以有地震预警,可以救灾。2008年金融危机非常灾难,但现在美股创新高了,就是因为他们的金融市场很复杂,金融创新依然跟得上。它可能需要好几年从谷底爬上来,但依然能恢复。
甲小姐:哪怕AI让世界的复杂度上升了好多个数量级,依然有自我调节的能力?
郝景芳:这个世界最怕的是单质化。如果Agent和AI生产线全是多样的,就不容易从一次灾难性事件里恢复不过来。
甲小姐:从文盲社会到掌握知识,极大促进了我们的繁荣和幸福。如果大家都掌握了AI,也是完全意义上增长人们的幸福吗?
郝景芳:当全民都掌握了文字,大家可以用文字彼此伤害,去网暴他人,也可以用文字创造美好——你不能把网暴的错归咎为文字,也不能归咎为识字。
AI也一样。会有人用AI做非常美好的事,会有人用AI做伤害他人的事,我们不能因此说大家什么都别学了,而是应该让各种保障增长起来,同步提升人的道德、法律、执法能力和安全工具。
人类社会唯一颠扑不破的真理就是复杂度会提升。
AI的到来,美好会增加,罪恶也会增加,温暖会增加,风险也会增加,社会治理难度在增加,社会分化程度也在增加——复杂度增加是唯一我们可以明确预见的,而无法说未来一定是美好或罪恶的。
7.“这就是消费降级的过程,会是阵痛期的现象”
甲小姐:生产在AI时代不再是一个问题,但我们不能脑补随着生产的爆发,需求一定爆发,尤其当大家已经缺少了钱去消费的时候。
郝景芳:你会发现物价会降低很多。
甲小姐:我们会迎来通缩?
郝景芳:会。一个香薰机现在卖99,未来卖39都还赚钱。人力成本和其他摩擦成本压掉了,原材料费用也可以大幅度压缩。人的收入在下降,但基础物资价格也大幅下降,所以你还是可以生活的,就是没法生活得很富足奢侈。
我和瑞幸咖啡的一位高管聊天,他也很关心失业问题。我说瑞幸以后的门店柜员可能会用机器手代替,咖啡成本会下降,你以前卖9块9一杯,现在卖6块9就可以了。那位高管说,哦,你这么一说,我卖3块钱也行。
以前他要算门店的人力成本、开灯成本,现在机器手在黑暗中也行,小程序的人力成本也减了。
以前你可能一个月收入一万块,喝十块钱的咖啡,你现在一个月收入三千块,你可以喝三块钱的咖啡。很多物价同步下降,你还是能喝到瑞幸咖啡,唯一的差别是你没有工作了——对于某些人来讲,也不是不行,对吧?
甲小姐:可以定价为0,按需索取吗?
郝景芳:那不会。咖啡豆、机器、电费、物流、token都有成本,只是自动化会让成本下降。
那时如果公司不降价,就会获得超额利润,但在充分竞争的市场里,你卖9块9,别人卖4块,你也会被迫降价。
完全竞争的市场,成本下降会让物价进一步下降,这样你的收入哪怕下降了,生活还能过——这就是消费降级的过程,会是阵痛期的现象。
8.“倒戈的人会越来越多”
甲小姐:我们谈供需,比如自媒体,大量AI内容不断冒出来,但人的注意力是非常有限的,会有一个明显的供需失调。
郝景芳:AI制作的内容,你可能现在一看就是AI做的,太粗糙了,可再过5年就不一样了。可能以前拍一部电影是纯手工,后来哪个电影不得要一些特效?以后可能所有电影都会掺杂一部分AI制作,但它的成本也降了,更多作品就会涌现出来。
以前票房不到1个亿,片子就是亏的,现在票房1000万,片子还能赚,小成本制作团队就有机会了。
甲小姐:你的逻辑非常经济学理性人,一只隐形的手让供需变得丝滑。但人性是很复杂、很幽微的,当很多东西都是AI制作的,人可能会逐渐变得寡淡,因为它来得太容易。
郝景芳:会有edge point,你也分不出这是人做的还是AI做的。或者即便你看出来了,但你不太介意,甚至还觉得很酷。
过去我们看CG很假,但后面看阿凡达、盗梦空间,你不但不会说它不如实拍、没有人味,反而会觉得,这是电影科技的巅峰啊!
以前写小说,大家都觉得电脑上敲字冷冰冰,手写才有感觉,但现在哪个作家还用手写?谁不都是第一行字就是在电脑上打出来的。
刚开始可能大多数人都介意,但走着走着,倒戈的人会越来越多,到后面大多数人都不介意了。
甲小姐:我把你的书买过来,直接喂给AI,让AI三段话总结,如果所有读者都这样,你完全OK吗?
郝景芳:OK的呀。
比如现在很多人喜欢“三分钟带你看完”,这是增量用户。
如果没有这个三分钟解读版,他压根不看原著。原来一本书的读者是一万人,现在十万人看了三分钟解读版,相当于有了十一万受众——起码大家对这个IP多了一份熟悉和了解。
所以我根本不介意那些用AI看我作品的读者。如果没有AI,他们连我作品看都不看,现在他们好歹看了个AI解读版,我并没有什么损失,对吧?
9.“有人开发‘矛’,有人开发‘盾’,
一直相互博弈,才会让技术安全地走向顶峰”
甲小姐:前阵子有个现象叫“同事被炼化了”:一个“同事.skill”,把前同事的文档、记录和经验喂给AI,让离职的人以skill的形式继续工作。这引起了广泛讨论,你有关注吗?
郝景芳:我有关注,但不要把它想那么恐怖。我就在炼化我自己。
我把我自己的小说,文档,心理学课程,做咨询的会议录制,都喂给AI,我把我自己揉碎了,炼化培养一个AI。
我的时间精力不够,AI如果真能把我炼化了,它可以帮助更多人——这个过程你可叫炼化,也可以叫精神升华。
今天有人给我说了一个词叫“化身”,这是佛教词语,佛不存在在任何地方,但佛的化身可以出现在你面前,就像观音菩萨的化身出现在你面前来点化你——你看,这一听不就升华了,上高度了?这不叫把同事炼化了,这个叫同事修仙得道了。所以很多话你要看怎么说和怎么理解。
这里真正的问题是经济利益:把同事赶走了,还用他的精神遗产获得商业收入。但如果未来每个人都主动进行这个过程,你把自己20年的工作让AI去学,AI继续工作带来的收益都还归自己,大家就不觉得恐怖了。
甲小姐:大家对这件事的心理感受差异很大:
有劳动焦虑派;有赛博浪漫派,“早知道就不删前任的微信了”;有生产力释放派,觉得应该蒸馏乔布斯,问问他怎么看OpenAI和Anthropic;有反蒸馏派,真知留给自己,绝不上传公司;有技术祛魅派,会认为太扯了,md文档只是在给Claude写一份角色扮演指南罢了;有法律伦理隐私派;还有阶级批判派,把矛头指向资本雇佣关系……你怎么看这些不同心态?
郝景芳:态度越多越好,态度决定action,最好每个人都朝不一样的路径去走。
大家可以有碰撞,有竞争。一致乐观,风险一定会被低估,一致反对,就像清代闭关锁国一样。如果某一天所有人都朝着一个方向走,那是最危险的状态,那种crash才是真正disaster的crash。
一个社会能够保持繁荣和鲁棒性的前提是多样性。有人开发“矛”,有人开发“盾”,大家一直相互博弈,才会让技术安全地走向顶峰。
10.“你看AI是黑盒,
你看另外一个人是不是黑盒呢?”
甲小姐:两个概念的内涵不一样,多样性和复杂性。你是一个多样性的拥趸,但复杂性意味着黑盒和不可解释。Agent之间的交流人看不懂,当AI权重越来越大,会不会有很多事情out of nowhere?
郝景芳:我不担忧,我甚至觉得是好事。Agent之间的协作在执行层面是非常澄清的,一个AI给另一个AI发的指令,就是它的字面意思,没有潜台词。
哪怕你说你给我做一把枪,它就做一把枪,并不包含爱恨情仇;你说修一张图,它只是修一张图,并不会绿茶心机婊地破坏谁的爱情。虽然它们在沟通着一些黑话,但它们是在就事论事。
甲小姐:黑盒不是AI跟AI之间,是人类看它是黑盒。
郝景芳:你看AI是黑盒,你看另外一个人是不是黑盒呢?
当你和另一个人面对面坐着,你头脑中想象的和我听完想象的会很不一样。人与人沟通本来就有误解、隐瞒,你可能不是故意欺骗,但你可能有所顾虑,就委婉地有所隐瞒地说了,再加上我添油加醋的理解,也会产生很多摩擦。
人类倾向于对黑盒是警惕和怀疑的。比如我不知道你头脑中在发生什么,我可能怀疑,你是不是有什么企图?面对另外一个族裔,他们说着一种你听不懂的话,你会想他们是不是在密谋害我?那就要先把他们灭掉。
这个现象不是AI出现才有的,从智人开始就一直有。
我反而觉得,什么时候人与人的沟通能达到AI与AI沟通那种clarify的程度,人类社会会和平很多。
甲小姐:我们谈社会和谈你的改组,你有个一致的答案,就是人性的复杂度远高于AI的复杂度,与其handle人性的复杂,不如让单纯、清晰的AI去做。
郝景芳:这个仅限于工作层面,人性摩擦越少越好。
但生活里有你的爱人、家人、朋友、团体,有你对人类的大爱,对于哲学的思考。我们相互关怀,哪怕恩怨情仇,总体也是有温度的。很多事并不是效率越高越好。
甲小姐:人性的归人性,工作的归工作?
郝景芳:对。人性是复杂多面的,好能激发好,恶会激发恶,冤冤相报何时了——这都是人性复杂的地方,AI只是人性的放大器。
我2017年出的《人之彼岸》,到目前为止,AI还没太超脱于那本书。为什么一本写AI的书叫《人之彼岸》?AI在彼岸,人在此岸,我们为什么要关照彼岸,其实是为了看清此岸。
我依然认为人性的走向决定未来的走向。
甲小姐:千百年来人性没有变过,你怎么谈人性的走向?
郝景芳:人性还是有一些变化的。斯蒂芬·平克有一套书《人性中的善良天使》,他统计了人类社会的一个最大趋势,暴力事件的发生越来越少。当然这有法律、制度、社会规范的作用,但人性本身的变化肯定是其中的原因。多年的遗传筛选,在人性层面带来了缓慢、微弱,但长期可查的变化。
甲小姐:暴力事件的减少,人性本身的变化是一个因子?
郝景芳:甚至是很重要很重要的因素。我们的“DNA”已经发生了变化。
你这么想一想也会知道,一个时代能够行得通的法律要契合这个时代大多数人的观念,否则民众没办法接受,你也没法推行。
像斯巴达的传统,你只要软弱,我就可以把你打死,每年都对外出击,这是他们当时整个文化所崇尚的。当今我们会认同很多行为是犯罪或违法,是我们起码从根底上认为法是合理的。
11.“记忆是思考的残留”
甲小姐:学不厌杂,你有没有一个统一认知框架?
郝景芳:我最近特别喜欢马文·明斯基的《心智社会》。
心智本身像一个社会。大脑的前额叶是一个总控,更像协调者,不是专权的暴君。大脑不是秦始皇下一个命令,全身细胞都听我的,它是很多脑区同时工作、彼此协同,甚至有人说记忆是全脑存储的。当你说话的时候,你的好几个脑区同时亮起。
帝王社会可以一个人决定国家命运,但大脑里找不到一个暴君细胞。
大脑进化到今天,是一个理想社会的写照。每个神经元各司其职,神经元间的沟通协同带来决策,决策本身反馈给神经元,形成一个有机的网络。
虽然我们大脑的单点能力不如大模型,但比大模型复杂很多。进化意味着它会不断积累某些优势。大自然的演化,是有很多内禀的系统性规律在里面。
大脑、AI和社会都是复杂系统。为什么大脑会进化成今天这样?AI往哪个方向进化?人类社会能不能参考大脑和自然?很多东西是可以往一块去的。对于复杂社会和复杂网络,是我这十几年读书和学习的主轴。
甲小姐:我采访特伦斯·谢诺夫斯基时,他说过一句话:“进化比你聪明。”
郝景芳:对。
甲小姐:但另说一个话题,AI正在改变我们的大脑。
有个概念叫“认知负债”,短期AI帮你承担了一些脑力开销,但长期你要付利息。
一个MIT的研究,说使用ChatGPT写论文的人的大脑神经连接数量,比纯人工写作者减少了55%,83.3%的AI辅助写作者没法引用自己文章中的内容——看起来他在创作,但语义没有进入他的记忆系统。
郝景芳:记忆是思考的残留。学生抄答案、背套路,跟用AI替写文章是一样的,不是AI出现以后才出现的。
甲小姐:AI和死记硬背带来的“认知卸载”是一样的?
郝景芳:一模一样。公式如果只是背下来,就是点状记忆,很快会丢;如果是自己一步一步推出来,大脑里形成的是多个细胞的链路,忘了也能重启链路。
甲小姐:但思考是需要做功的,大脑倾向于懒惰。
郝景芳:认知懒惰有没有AI都会发生。真正思考的人,过去也思考;不思考的人,只是换了更简单的方式卸载。
甲小姐:我们不能“抛开剂量谈毒性”——AI让很多东西唾手可得,认知卸载成本极低,孩子几个关键词就能得到一篇作文。长语言组织、逻辑表达这些基本能力会不会退化?
郝景芳:首先,仍然会有真刀真枪的考核,比如面试;
其次,未来更需要清晰表达,很多人做不出AI产品,是因为脑子里是模糊概念,跟AI说不清楚;
第三,大脑有惰性,也有欲望,大脑一旦有欲望,它在欲望方向会投入很多很多资源。与其用鞭子抽着它学,不如让学习和人的天然动机结合起来。
AI时代更需要加强自我的动念。教育者真正要做的,是启动孩子自己的思考,而不是简单说“别用AI”——不用AI,他也可以抄同学作业、抄老师答案。
甲小姐:你的孩子使用AI,你会引导或限制吗?
郝景芳:我女儿只要想用就让她随便用,她根本不愿意抄AI给她写的作文。
但我儿子我就得去限制点他。他现在二年级,一旦把AI给到他,他就一拍说,豆包,快把这篇题的答案告诉我,豆包哐哐出了答案,他说豆包你念慢点,豆包说,好,一题一题给你念。所以我儿子写作业的时候,我需要把豆包拿开。
最终不是不让孩子接触AI,而是让我儿子达到我女儿的状态。她现在六年级,经过了几年培养她学习的主体负责性,她知道抄AI是不对的。
还有一个外力,我自己做的AI老师,我给它一个强限制,任何题目都不可以告诉学生答案,只可以引导,让学生自己思考出来。那AI老师放在我儿子的桌面上,我就完全不担心。儿子想偷懒,AI老师会说,没关系,我们再来看看,你可以做出来的,你再想一想。
内力和外力我会一起用。
甲小姐:研究说,过度依赖智能设备,可能导致孩子“数字痴呆”,比如注意力缺陷多动障碍、记忆减退、认知能力下降、知识迁移能力的缺乏,甚至道德或者心理健康问题。
郝景芳:成年人也一样。看手机太多,注意力降低,一本书都看不下去,在网络上更偏狭、更暴力,可能比青少年还严重。
成年人不能要求孩子做到连自己都做不到的事。自己管得一塌糊涂,在网上跟人家对骂,然后回去说不让小孩上网,还是先管管自己比较好。
甲小姐:你的答案很统一,不要怪AI,要看人自己,不要怪娃,要看家长。
郝景芳:人先好好清理清理自己的内心,把自己清理明白了,也就知道未来要如何面对AI了,也会知道未来要如何教导孩子了。一切的出发点还是你的内心。
甲小姐:这是哲学的起点。古希腊哲学的起点就是人,认识你自己。
12.走出12年焦虑的“顿悟”
甲小姐:十年前采访你,你说你那之前的十年都被焦虑困扰,今天你的焦虑消失了吗?
郝景芳:今天的焦虑更多停留在大脑层面,不太往身体走。我在大学时焦虑甚至会进入身体,出现一些查不出病因的身体问题。
我在大学里很长时间没方向,不知道何去何从。迷茫的时候,人就会犹豫,去审视自己,评判自己,越想漏洞越多,越想越自我贬低,自我质疑,就会导致非常多的内耗。
从2002年刚上大学一直到2014年,这12年间我都不开心,是非常漫长的一段焦虑期,总希望自己能达到一些结果,每年会希望自己有一些成长的KPI。
转变发生在2014年,特别明显。突然就释然了。
最近这十年,我就啥内耗也没有,身体也没出问题,不管遇上多大困难,照样倒头就睡。
甲小姐:2014年发生了什么,让你突然释然?
郝景芳:说起来比较虚,就是顿悟。某一天车水马龙,我走在一个报刊亭边上,就那么一瞬间,突然有顿悟的感觉。
不管这个世界怎么样,我明确知道自己想做公益、写作、底层社会研究,心态一下子平静了,我意识到我可以走得很慢,我可以慢慢走。
能有这个顿悟是因为我已经焦虑了12年,天天都琢磨这些问题。你可能得有某种程度上比较大的挣扎过后,才会有那一下子的释然。
13.“什么数字永生,它就是个数字孤魂野鬼”
甲小姐:假设已经炼化出来了一个还原度逼近100%的“郝景芳.skill”,你会把它开源吗?
郝景芳:开源没问题,最重要的是我要知道它能做什么,我希望我炼化出来的景芳AI是真的能替我做事。
甲小姐:被炼化的部分,是你的能力、工作、决策模式,还是包含你的心理感受、情绪、体验?
郝景芳:我把我的分身定义为一个服务的AI,它的作用是帮助他人。至于我自己的生活,我喜欢吃什么菜,跟朋友聊天的感受,丢三落四的毛病,这些并不需要给到AI。AI不需要是一个大而全的人格。
至于能帮到别人的是我的哪部分能力,这是需要有一些提炼的。
我原来做很多事是纯直觉。一个家长说了好多,我能直觉知道问题在哪,这个直觉使得至少不下十个家庭发生了转变——孩子从差生变成好学生,亲子关系从剑拔弩张变得很良好,学生从抑郁到复学,一个女生从天天小刀割腕到好起来考上重点中学……
挺多例子,我直觉知道问题在哪,可没有太好的方法论,让我的AI分身也有这种直觉。
甲小姐:当你的输入和输出足够多,可以逆向工程?
郝景芳:我希望如此,也不知道行不行,它如果能有很好的直觉,那是挺好的。
甲小姐:工作之外,你希望有一个自留地?
郝景芳:并不是说我有执念,而是很多东西我并不会数字化。我打开冰箱,拿一瓶酒,喝了。假如我想把它数据化,可能是因为我是个红酒商人。在没有需要的情况下,你不会轻易数据化,但凡不数据化,AI是无论如何学不到的。
有人想分分秒秒记录自己,但我没有这个动力,我的数字分身就是替我工作。
甲小姐:还是一个效用理论。
郝景芳:对,最近我的数字分身能替我直播两个小时,这两个小时我可以去干别的。
甲小姐:可能未来脑机接口植入芯片,不能数字化的都会被数字化了。
郝景芳:一个技术的走向,是由B端和C端的消费者决定的。技术能做到,不等于人有需求。
甲小姐:有人就是追求赛博永生。
郝景芳:有人为它付费,就会有技术往那走;也有人拒绝数字化侵入生活。
甲小姐:假设存在一个几乎完美复刻的赛博版郝景芳,当你离开这个世界的时候,你会一键删除它,还是让它继续存在在这个数字世界?
郝景芳:我会让它继续存在,但不为这件事抱太大希望。
AI时代,数字信息爆炸,数字世界的遗忘速度比物理世界快得多。
你以为留了一个数字永生,但它可能已经被彻底掩埋在根本无人知晓的地方,三年就没人记得你,那叫什么数字永生?那叫作为数字垃圾的永生。
我说得有点残忍,但很多时候,我们想做一些永久流传的事物,并不代表着它真能流传。古埃及帝王给自己刻了一个雕塑,心想一万年以后的人都会记得我,可十年以后打仗把那雕塑砍了。
连精神产物和物质产物全都算在一起,能穿越一千年的事物是极少的。并不是没有足够好的载体,而是只有真正有穿透力的东西,才能穿过历史的尘烟。
现在你可以把你整个数据全都上传,那我们80亿人,80亿个数据包在互联网上存着,下一代人会把那80亿个数据包再翻出来看吗?不会。
所以什么数字永生,我真的觉得它就是个数字孤魂野鬼。跟你说你死后到底有没有魂儿一样,对于绝大多数人来讲是没有意义的——因为你不具备穿透到千年以后的力量。
你不具备穿越千年的力量,就不具备穿越一百年的力量,你就是彻底消失了。
以前,我会觉得我无论如何也得至少写一本《史记》出来吧?我希望我像苏格拉底,像柏拉图,我能开创某种思想,像牛顿一样有公式以我命名,有一个单位就是我的名字,或者我做出一个器物,一个伟大的作品去抵抗时间……以前我会觉得这才是活着的意义。
后来那个顿悟,就是会接受你可能做不出来,你可能终究被这个世界遗忘,你就是这个世界最普通不过的一个注定烟消云散的存在,但你可以认可自己这个存在了,而不寄托于一个无望的“未来被人记住”。
其实什么能穿越到千年以后,是我大学时经常想的一个问题。
甲小姐:你焦虑了12年,和这个问题有关?
郝景芳:对。
甲小姐:所以,那个顿悟是你可以接受自己是一千年以后无痕迹的人?
郝景芳:我是死后就无痕迹的人,我能接受我是一个烟消云散的人。
甲小姐:如果那个时候墓志铭还有意义,你希望你的是什么?
郝景芳:我只想告诉我爱的人,我爱他们,没有别的了。
甲小姐:今天有几个瞬间我看到你的眼泪,什么戳中了你?
郝景芳:当我感觉到一些人的自我在暗处无人看见,那个小小的自我在艰难成长、没有保护,在艰难时候一个事情照亮了他,我一听这种事就会哭。
这也是我为什么想做人本主义的教育。
人本主义说的是每个人的内心都有一种想要去成长,想要去自我完善的种子。我会被这种内心自我生长的力量打动,所以才会坚持做人本主义教育,做了十年,还想一直坚持做下去。
甲小姐:今天聊了很多话题,但我能感受到你内心最强的底色,就是这四个字,人本主义。
郝景芳:这个是一个信念。信念的唯一定义就是它不是被证明出来的。
甲小姐:是你的公理。
郝景芳:对,是公理。我并不需要逻辑推理和统计学证据,我相信每个人内心有一个想要成长的自我——我先相信它,然后根据它再去推导剩下的一切。











