热门标签:

从乌托邦到发电机:DAO 的生死轮回与 Agent-Native 协议的兴起

“岁末清淡无一事,竹堂寺里看梅花”。大年初一,闲散在家,最适合脑洞大开,狂想未来。 最近玩OpenClaw乐不思蜀。将其融入工作学习之余,不禁想象,如果将来人人都能指挥一个类似的AI Agent,人类社会将走往何方? 我首先会想到一个看似很小、其实很无奈的事实:AI Agent 不能开银行账户。AI Agent没有身份证,没有手机号码,银行审核一关就过不了。其根本原因是,货币是为人类社会的交换需求而生的。这句话背后藏着一个更大的矛盾。今天我们把 Agent 当成工具,用它写代码、查资料、做计划、盯交易,甚至替我们运营一个小生意。但当它真正要“自己去协作、自己去分账、自己去承担责任”时,它立刻卡在现实世界的入口:账户是谁的?合同谁来签?出了问题谁负责?钱从哪来、到哪去? 所以问题并不是“Agent 够不够聪明”,而是“Agent 有没有一套它能直接使用的经济接口”。如果没有,那么 Agent 永远只能当人的外挂,而不能成为真正的经济主体。 但是换个角度看,如果说货币是为人类社会的交换需求而生,那么区块链可能是为AI Agnet交换需求而生的。区块链不需要AI Agent拥有社会身份,只要开设一个数字钱包就可以交易。而数字化的一切,对AI Agent天然友好 。更重要的是,区块链的优势不仅仅是寻常考虑的“转账方便”,而是它天然支持智能合约,从而提供了一种更深的结构:把价格信号和执行动作放到同一个对象里。这个对象,就是 Token。 在传统世界,价格只是信号。 你看到某个资产涨了,这只告诉你“发生了什么”。至于“要不要买”“怎么做”“谁来执行”,你需要穿过银行、合同、律师、公司审批、财务拨款、审计留痕,才能把一个价格信号变成现实中的动作。价格告诉你方向,但执行靠的是制度、组织和人。 而在 Token 世界里,Token 往往不仅是“值多少钱”,它还天然携带“能做什么”。 因为 Token 可以直接连接智能合约:持有它意味着你拿到某种权限,可以触发合约执行、参与治理、领取分红、调用资源。它既是价值的载体,也是执行的钥匙。你拥有它,不只是拥有一份财富,更像拥有一份可被代码兑现的权利。 我喜欢用一个不太严谨但直观的比喻:Token 有点像“波粒二象性”。它一方面像资产那样可交易、可定价;另一方面又像权限那样持续生效、能触发动作。你拿着它,它不只是静态的“钱”,还是动态的“能力”。 一旦“价格标记”和“执行能力”合并,后面发生的事情会非常现实:交易与协作的摩擦会开始塌缩。 跨国协作、利润分配、预算拨付、激励兑现,这些在人类公司里极其昂贵、靠流程与中介维持的动作,可以被写成规则并自动运行。你不再需要找一个中心化的“信任代理人”,你把规则写进合约,让执行随价值流动。 当摩擦下降到足够低,下一击会落到更大的结构上:公司制度。 公司为什么存在? 一个经典解释来自科斯:因为市场交易有成本,所以企业内部用行政命令替代市场交易,在很多情况下更省成本。合同谈判、对账结算、信用担保、争议处理,这些都很贵,于是公司出现了,它把无数交易打包进组织,用层级和流程换取稳定。 但如果交易摩擦被系统性压低呢? 当协作可以像写代码一样精确执行,当分账可以自动完成,当信用可以被规则替代,科斯式企业的边界就会开始松动。另一种形态会浮现出来:协议驱动的全球协作网络。它不靠办公室和层级维持秩序,而靠规则和自动执行维持秩序。 这也是为什么我认为:支付方式一旦面向 Agent 被重写,生产关系也会被迫重写。支付从来不是一块小零件,它直接决定谁能参与、如何协作、怎样分配、出了问题怎么追责。换句话说,支付决定了组织协议,或者说生产关系。 说到“协议化组织”,很多人会立刻想到 DAO。 人类DAO的幻灭 DAO 是 Decentralized Autonomous Organization 的缩写,中文常译为 去中心化自治组织。 DAO 的诞生曾经带着一种强烈的理想主义。它的核心概念很简单:把“组织怎么运转”这件事尽量写成公开的规则,并用区块链上的智能合约去自动执行。资金一般放在链上的合约里,谁能动用资金、怎么分配收益、怎么通过提案与投票,都会按事先写好的规则来走。理想状态下,它不依赖某一个老板或公司来背书,而是依赖代码规则、公开账本和社区治理来形成协作与信任。 它被构想为一种“无主组织”:用代币把所有权、治理权、分红权打包;用智能合约替代官僚;用公开账本替代暗室;用社区决策替代董事会。它最吸引人的地方是:它试图把“信任”从某个具体的人或机构,转成可验证的规则。 但是现实里的 DAO,往往让人失望。 投票缓慢,争吵漫长,执行拖沓。许多项目表面去中心化,关键决策仍然依赖少数核心团队。甚至有一个人人看得见却不愿意说破的事实:如果移除了核心开发团队这种“影子内阁”,协议很多时候会变成一段无人维护的死代码。 这不是一句“人性贪婪”就能解释的。更深的原因,是治理机制对“生产力分布”的假设,可能已经过时了。 很多 DAO 的治理要么一人一票,要么一Token一票。无论哪种,都隐含一个前提:参与者的判断力与贡献差异不会大到离谱,至少可以用“多数投票”聚合意见。 但 AI 时代,人类生产力越来越像幂率分布:少数人借助工具、资本、网络效应,把产出放大到远超普通人的数量级。一个能操控一群 Agent 的极客,写出关键协议、设计关键机制、发现关键套利逻辑,其影响可能远大于成千上万只看短期价格的持币者。我此前写过一篇文章讨论这个影响:AI 繁荣的幻象:从“正态分布”到“权力幂律”,我们正处于旧秩序大崩塌的前夜) 当生产力是幂率分布,而治理仍然按“简单多数”运行,组织就会撕裂:治理权结构与真实生产力结构不匹配。创新会被拖死,或者组织回到少数人拍板,只是外面套上投票的壳。 到这里,结论似乎很悲观:DAO 不适合人类。 ...

逻辑的归AI,视觉的归人类:从 WebMCP 看 AI 开启“去熵化”软件重构纪元

2026 年除夕之前,大家还在春运的旅途中匆匆忙忙,Chrome 团队抛出了一个会让很多开发者重新思考“Web 该怎么做”的东西:WebMCP(Web 模型上下文协议) (Web Machine Learning)。 在普通人眼里,这可能只是浏览器版本号跳了一格;但在开发者和 AI 玩家眼里,这更像是在告诉所有人:AI Agent 通过“看网页、点按钮”来完成任务的时代,会开始被改写。 虽然WebMCP 目前更像“早期规范与试验 API 的集合”,离“所有网站默认支持”的状态还很远。但它指向软件开发新范式:让网站用结构化方式,把自己的能力交给 Agent,而不是让 Agent 在像素和 DOM 里猜。市场对 AI 改造软件分发与入口的预期正在升温,相关公司股价波动也在放大这种情绪。 不过这里也需要讲清楚:WebMCP 更像一个方向与实验接口集合,API 形态未来仍可能变化;它能否真正走出实验阶段,取决于浏览器权限模型是否成熟、站点采用率是否提升、以及是否能形成跨浏览器的共识与兼容。 一、错位的遗产:HCI 是一道为人类视觉修筑的“围墙” 在讨论 AI 为什么上网如此笨拙之前,我们必须先审视过去 40 年软件工业的基石——HCI(Human-Computer Interaction,人机交互)。 传统的 HCI 核心原则是“以人为本”。因为人类的生物局限性,我们无法直接读取二进制代码,所以软件工程师们不得不耗费巨大的精力,为逻辑内核穿上一层又一层厚重的“视觉马甲”: 层级导航:因为人类一次只能关注极少量的信息,所以我们需要下拉菜单、侧边栏和多级目录。 拟物化与视觉反馈:因为我们需要确定感,所以按钮要做成圆角的,点击时要有阴影,下单后要跳出一个绿色的钩。 像素带宽:所有的排版、插图和 CSS 动画,本质上都是为了迁就人类有限的视觉带宽,将逻辑信号“翻译”成情绪与认知更容易接收的形式。 问题的本质在于:这一切精美的设计,对 AI 而言全部是“噪点”。 现有的互联网软件体系,从来就不是为 AI 准备的。当一个以纯逻辑运行的 Agent 踏入这个世界时,它会发现这里到处都是为人类理解与操作而设计的“扶手”。 于是,荒谬的一幕发生了:AI 为了帮你在网上订一张机票,不得不变成一个笨拙的 “潜伏者”。它必须强行压抑自己的逻辑本能,去模拟人类的低效行为:它要先给网页截个屏,再像台老式扫描仪一样分析 DOM 结构,死盯着那个 HTML 里的按钮坐标,最后小心翼翼地模拟鼠标点下去。 这就好比让一个能瞬间移动的超能力者,被迫穿上臃肿的潜水服,在充满淤泥(冗余 UI)的海底,一步一步艰难挪动。 它在“演戏”:AI 本质是逻辑,却被逼着去理解人类的视觉习惯和繁琐路径。 它在缴纳“计算税”:为了看清一个网页,它得消耗大量的视觉 Token,每一帧像素识别都在燃烧真金白银。 它极度脆弱:这种“潜伏”是寄生性的。前端程序员只要随手改一个 CSS 类名,原本聪明的 Agent 就可能瞬间变成“盲人”。 ...

AI 繁荣的幻象:从“正态分布”到“权力幂律”,我们正处于旧秩序大崩塌的前夜

Editor’s Note: 最近一直沉浸于OpenClaw世界,把它当作身外化身,上线到云端虚拟机、本地电脑,甚至是树莓派,尝试去做各种不同的事情,探索它的能力边界。当它完成各种意想不到的任务,带着令我惊叹的结果回到现实时,我发现全世界还在盯着英伟达的财报、OpenAI 的新模型、以及下一代芯片的算力。而我从与OpenClaw的合作中感受到另一个更冷酷的现实:AI 可能正在修改很多社会机制的“默认前提”。 过去两百年里,我们很多制度与共识,常常暗含一个温和的背景:人的能力差异虽然存在,但大体是连续的、差距有限的,于是“多数人的参与”和“规则的约束”才显得合理。 而 AI 更像一个能力杠杆。它未必平均地提升所有人,它更可能先把少数人的能力推到一个不连续的量级,让权力分布从类似“钟形曲线”的世界,转向更尖锐的“幂律尾部”。那是一条真正收割普通人的斩杀线! 这篇文章不讨论 AI 能写多少代码,而是讨论一个更底层的问题:当能力差异从“可协商的差距”变成“不可协商的鸿沟”时,我们熟悉的民主、法治和中产结构,会发生什么变化? 一、泡沫不是问题本身,问题是“收入能不能跟上成本” 在硅谷的叙事里,生成式 AI 的热潮常被解释成“啤酒上的泡沫”:上游(芯片、云、数据中心)是真实利润,市场只是对未来有些乐观。 但这里有一个更直接、也更容易量化的张力:基础设施成本已经变成一种硬约束,而应用层收入增长仍然是软的、慢的、分散的。 红杉资本的 David Cahn 在 2024 年 6 月 20 日发表过一篇文章《AI’s $600B Question》,把这个张力说得很尖:当全行业把巨额资金投入到 GPU、数据中心、网络与电力之后,应用端需要用多大的新增收入去“对齐”这条资本开支曲线?他的结论不重要,重要的是这个问题本身:上游投入是确定的账单,下游收入却未必能按同样速度变成确定的现金流。 从结构上看,这里容易形成一种自我强化的循环:资金进入模型公司与应用公司,这些公司把大量成本变成云端算力支出,云厂商再把需求传导到芯片与服务器链条,最后在财报里表现为上游高景气。问题是,这条链条里,最缺的那一环是“终端愿意长期付费的稳定需求”。 所以真正值得担心的不是“有没有泡沫”,而是:当资本开支是刚性的,而付费需求是可变的时,系统的稳定性就更像一根被拉得很紧的绳子。 一旦宏观环境变差、融资成本上升、或企业预算收缩,这根绳子会更容易出现断点。 二、一个更难的悖论:企业用 AI 降本,但也可能在压缩需求侧 为什么应用层收入不容易按同样速度增长?这里有一个让人不舒服的悖论:AI 能明显提高供给侧效率,但它对需求侧的影响未必同向。 过去的工业化浪潮中,机器替代了大量体力劳动,但同时扩展了大量新的分工:文职、工程、管理、服务业等。旧岗位消失,新岗位出现,工资结构也发生变化,但整体上,需求侧并没有被系统性抽干,反而在很长时间里被扩展了。 这一轮 AI 的不同之处在于:它直接冲击的是大量“认知型中等收入岗位”。企业引入 AI 的一个常见动机是降本增效,而最直接的降本方式就是减少人力支出。于是你会看到一个很尖的结构:企业把一部分工资成本转化为算力成本,同时还希望收入继续增长。 问题在于,当中等收入群体被压缩时,社会的总购买力可能同步变弱。供给侧变强,需求侧变弱,系统就容易出现不闭合的状态。把它说得极端一点:一个社会可以生产出很多很好的商品与服务,但如果很多人没有稳定收入,这些东西最终卖给谁? 这不是在说“AI 一定会导致大规模失业”。更准确的说法是:**如果企业的节省主要来自工资压缩,而新增价值主要被少数人占有,那么需求侧的韧性会下降。**需求侧一旦变脆,上面那条“基础设施硬账单”的绳子就更容易绷断。 三、UBI 不是纯经济题,它是文化与政治题 面对“需求侧可能被压缩”的担心,很多人会提出 UBI(全民基本收入):用税收或分配机制,把高效率体系的收益返还给大众,维持消费与社会稳定。 从经济模型看,这个方案并不荒唐。但现实世界里,它不是一道算术题,而是一道文化与政治题。不同国家、不同文化传统,对“工作”和“领取”的道德理解差异极大。尤其在美国语境里,工作常被赋予强烈的身份意义:它不只是收入来源,还和尊严、价值、贡献绑定在一起。 因此,UBI 往往会引发激烈的叙事冲突:有人会把它视为保障,也有人会把它视为奖励“无所事事”。而一旦这种冲突与党派政治绑定,政策就会被拖入长期拉扯。于是可能出现一种很难受的顺序:**在系统完成有效再分配之前,社会先进入更强的对立与极化。**经济问题还没有被解决,社会的共识先被撕裂。 四、最关键的变化:从“能力差距有限”到“能力差距不连续” 到这里,我们可以把前面三段的担忧收束成一个更底层的问题:即使经济上能找到某种平衡方式,社会结构是否还能维持原来的“可协商性”? 很多现代制度之所以能运转,背后常常暗含一个温和但关键的背景:人的基本能力差异虽然存在,但大体是连续的、差距有限的。 这和“正态分布”很像:大多数人聚在中间,少数人特别强或特别弱,但差距通常仍在一个可理解、可竞争、可追赶的范围里。于是我们会默认:精英需要群众的配合,组织需要大量普通人的参与,规则对所有人都有约束力,因为没有谁可以强到完全不需要规则。 AI 可能改变的是这一点。AI 更像一个能力放大器,而且它的放大往往先服务于最顶端的人:最有资源的人更容易拿到更好的模型、更强的算力、更好的数据、更成熟的团队与流程。结果是,能力差距可能不再是“同一条线上拉开一点”,而是出现“不连续的断层”。 当这种断层出现时,权力分布就会更像幂律:少数人拿走大部分影响力与收益。彼得·蒂尔在谈创业与投资时用过“我们生活在幂律之下”的说法,它本来是讲商业回报的长尾结构。但 AI 可能把这种结构从“资本回报”推向“社会能力与影响力”。 你可以把它想成一个简单的思想实验:如果一个人借助 AI 代理群集,在信息搜集、分析、内容生产、传播与组织动员上,能达到过去需要成千上万人才能达到的规模,那么“多数人的参与”对他来说还重要吗?当“协作依赖”变弱,规则的约束力也会变弱。 这就是我在标题里说的:从“正态式的温和差异”,走向“幂律式的尖锐差异”。一旦权力分布变得更尖,基于“人头”的许多制度安排会被迫重新解释,甚至被迫重写。因为契约的心理基础之一是:大家的差距虽大,但仍属于同一个世界。 结语:我们不一定走向崩塌,但我们正在接近“需要重写规则”的时刻 把这些线放在一起,你会看到一个更清晰的图像: 上游的硬成本在上升,下游的稳定收入未必能同速增长;企业在追求效率时,可能压缩需求侧的韧性;再分配方案会撞上文化与政治阻力;而更深处,能力分布的形状可能在变化,导致权力更集中、差距更不连续。 ...

为什么你不需要最贵的模型?一个实用主义者的'AI 降维打击'

一、 引言:被“神话”的 SOTA 与被忽视的“合用” 在当下的自媒体环境中,关于人工智能的讨论正陷入一种近乎狂热的“参数崇拜”。每当 OpenAI、Google 或 Anthropic 发布新模型,社交媒体上便充斥着各种跑分图表和“最强模型”的惊叹号。似乎如果你不在使用最新的 SOTA(State-of-the-Art,顶尖水平)模型,你的工作效率就低人一等,你就在被时代抛弃。 这种现象本质上是一种 “信息焦虑的变体” 。人们试图通过持有最先进的工具,来对冲对未来不确定性的恐惧。然而,作为一个深度使用 AI 的实用主义者,我观察到了一个被多数人忽视的真相:AI 的本质是杠杆,而杠杆是否好用,不在于它是否是最新材料制成的,而在于它是否匹配你的支点和力度。 我个人认为,盲目追求最高参数是没有必要的。真正高效的 AI 应用标准应该是:合用、方便,且能真实提升信息获取质量。 二、 逻辑重构:为什么“合用”比“最强”更具优势? 要建立高效的 AI 工作流,首先要破除“大模型全能”的迷信,从三个底层逻辑重新审视工具的价值。 1. 认知激活能:降低“开启任务”的门槛 任何工具的使用都有“启动成本”。如果你为了翻译一段话,需要翻墙、登录网页、输入复杂的提示词,这种高昂的“认知激活能”会让你在潜意识里产生抗拒。相反,像“豆包“或微信里的“元宝”,由于它们嵌入了你原有的生活生态,几乎实现了“零成本开启”。最好的工具是让你感觉不到它的存在,而不是让你去“适配”它。 2. 边际效用递减:速度本身就是质量 在 80% 的日常任务中(如总结摘要、简单翻译),顶级模型与中型模型的表现差异极小。为了追求那 1% 的逻辑严密性,而忍受更慢的响应速度和昂贵的订阅费,在经济上是不划算的。对于信息流处理而言,“低延迟”带来的思考连续性(心流),其价值远超“超前参数”带来的细微准确度。 3. 局部优势:生态集成胜过模型性能 一个在微信生态内运行的模型(如元宝),天然拥有对公众号文章、社交语境的理解优势;一个国产模型(如蚂蚁灵光),在处理中文技术语境和本地政策细节时,往往比远在海外的旗舰模型更“懂行”。这种 “原生感”和数据连通性 ,是通用大模型无法通过增加参数来弥补的。 三、 深度实践:如何通过“分布式 AI”重塑信息获取流程 我不再迷信某个“超级模型”,而是构建了一个 “分布式 AI 矩阵” 。它们各司其职,像一群性格迥异的助手,层层递进地优化我的信息过滤系统。 1. 降维打击:用中型模型处理“信息粗加工” 在面对日常任务或文字解读时,我通常选择 Gemma3 27B 或 千问 (Qwen) 30B 级别的模型。 为什么够用? 这个规模的模型具备极佳的语感,同时占用显存不超过 20GB。这意味着在一块不到 2000 元的显卡上,就能实现 100+ token/s 的惊人推理速度。 实际体验: 它们就像是信息流中的“轻骑兵”,能迅速把大段的外语或繁冗的叙述转化为可读的中文,完成了第一层的“杂质过滤”。 上图是我部署的代码在Qwen3-30B模型上日常消耗token数量。主要用途是文章总结,双语翻译等。如果使用SOTA模型,在速度和费用上都是沉重的负担。 ...

小绿鸟、AI聊天还是Anki?成年人学外语最大的坑,就是'装嫩'

前言:我们最熟悉的英语学习,伤我们最深 根据 EF Education First 在 2025 年发布的全球英语熟练度报告(The world’s largest ranking of countries and regions by English skills),在 123 个国家中,中国排名第 86 位。令人扎心的是:能熟练使用英语沟通的人仅占 0.9%。 这听起来很荒诞,不是吗?从小学到大学,我们花了近 20 年死磕英语。单词背了一箩筐,语法题刷了无数套,可一旦需要张嘴,大脑依旧是一片空白。 为了摆脱“哑巴英语”,我们尝试了各种方法:每天打卡“小绿鸟”,试图跟 AI 尬聊,或者死磕《老友记》100 遍。但结果往往是:热情始于打卡,终于放弃。 请记住:这不怪你,也不怪你的毅力。 是因为你选择的方法,从底层逻辑上就错了。真正的学习系统应该遵循两个原则(我在出来混,最重要的是先要出来——如何用脑科学原理,终结无效努力这篇文章里有过详细介绍):第一是降低难度,第二是固化步骤。 底层逻辑是“道”,也就是心法。我还推荐过“术”,也就是方法:给大脑装个’外挂’:从 SuperMemo 到 Anki,如何用算法终结“学了就忘”的诅咒 。今天,我们借英语学习这个话题,聊一聊如何用 Anki 和 AI 构建一套真正不痛苦、能坚持的学习系统。这套方法也同样适合任何第二外语零帧起手。 1. 避坑指南:那些看起来很美的方法,为什么让你屡战屡败? 1.1 “小绿鸟”模式:成年人不要试图模仿婴儿 以“多邻国”为代表的自然沉浸法,主打像婴儿一样“自然习得”。它不讲解语法,不专门背单词,只让你在看图听音中建立联系。但这恰恰是成年人的陷阱。 生理错位: 婴儿有语言学习的黄金期,大脑神经正在发育。而成年人的大脑早已固化,强行模仿婴儿,属于事倍功半。 自废武功: 成年人学习外语最大的优势,其实是已经成熟的母语逻辑和理解力。完全抛弃母语辅助,强行“沉浸”,就像是一个武林高手非要自废武功,从爬行开始练起。效率极低。 复习机制缺失: 这种软件为了让你“爽”,经常让你在舒适区打转。你会发现自己一直在做简单的连连看,缺乏科学的间隔复习算法,学了忘,忘了学,始终在入门。它的游戏化学习主方法就象魔芋爽。能让你吃得爽,有强烈的饱腹感,其实没有营养。 1.2 开放式 AI 对话:不可承受的“心智负担” 现在流行找 ChatGPT 或者 AI 语伴练口语。理论上,AI 不会嫌弃你,环境很安全。但实际上,这种练习极难坚持。因为心智负担(Cognitive Load)过重: 你的母语思维可能已经是本科水平,想表达深刻、幽默或复杂的观点;但你的外语表达能力可能只有小学水平。 当你试图用小学水平的工具去承载本科水平的思想时,巨大的落差会让你瞬间卡壳。你不知道聊什么,或者只能说出穿越剧万年老梗: “I am fine, thank you”。 ...

给大脑装个'外挂':从 SuperMemo 到 Anki,如何用算法终结“学了就忘”的诅咒

前言:推石头的西西弗斯 如果你留心观察,会发现成年人的世界里,保持深度学习习惯的人越来越少。在 Hacker Digest 第7期 的第2篇曾提到,过去 20 年信息获取方式已彻底转向碎片化。是因为我们不愿意学习了吗?除了上一期 出来混,最重要的是先要出来——如何用脑科学原理,终结无效努力谈及的“目标过高”和“选择耗损”这两个原因之外,还有一个更令人沮丧的原因:“记不住,忘太快”。 有时候,我们像极了希腊神话里的西西弗斯:费尽力气把一块巨大的石头推上山顶——那是我们刚背完的单词书,或是刚啃完的专业大部头。我们以为拥有了这些知识。然而,一旦松手,那块石头就会立刻滚落山底。 一周后,书里的划线句看着眼熟,却死活想不起下一句;一个月后,那个当时倒背如流的公式,变得像天书一样陌生。这种无力感,最终让我们停止了挣扎。 不管是学生时代的考试,还是职场上的技能进阶,我们学习路上最大的敌人不是“(短期)记忆”,而是“遗忘”。 01. 效率困境:记忆的半衰期 在个人成长与职业技能习得的过程中,我们面临一个核心矛盾:知识摄入的高成本 vs. 记忆留存的低效率。 德国心理学家艾宾浩斯(Hermann Ebbinghaus)提出的“遗忘曲线”揭示了这一残酷的生理规律:在没有任何复习介入的情况下,学习者在接触新知识 20 分钟后,留存率仅为 58%;24 小时后,这一数字将跌至 33%。 这意味着,绝大多数人在考试或考证中的投入,大部分都在做“无用功”。这种极低的“投入产出比”让人绝望。而在这种焦虑下,人们往往陷入两个极端的误区: 过度学习(Overlearning):对已经熟练掌握的内容重复复习,造成边际效益递减(比如已经会了 apple,还要抄写十遍)。 滞后复习:等到知识点完全遗忘后才重新学习,导致巨大的时间沉没成本。 如果我告诉你,这个世界上存在一个 “刚刚快要忘记,但还没有忘记” 的精确时间点呢?如果我们只在那一刻复习,会发生什么? 02. 技术溯源:从纸笔运算到 SM-2 算法 精准定位这个“临界点”,人脑做不到,但数学可以。 20 世纪 80 年代,波兰大学生 Piotr Wozniak 为了应对繁重的学业,开始了一项长达数年的自我实验。他在没有计算机辅助的情况下,用纸笔记录每一个单词的遗忘周期,试图量化记忆的衰减规律。 经过无数次计算,他发现了记忆的“最优间隔算法”。他证实:**如果在最佳时间点进行复习,下一次复习的间隔可以成倍延长(例如:1天 → 3天 → 7天 → 18天……)。 这一发现最终演变为 SuperMemo 及其核心的 SM-2 算法 ——这是现代 间隔重复系统(Spaced Repetition System, SRS) 的理论基石。Wozniak 就像那个盗火的普罗米修斯,他告诉我们:记忆不是玄学,它是数学。 而今天的主角 Anki,正是基于这一算法开发的开源工具。它不是一个简单的电子卡片盒,而是一个由算法驱动的记忆调度引擎。 Anki 作者 Damien Elmes 继承了 SuperMemo 的灵魂,用更现代的交互方式,把这套算法带到了每个人面前。它并不创造记忆,而是通过接管复习日程,将学习者的记忆效率最大化。 03. 核心机制:Anki 如何运作? 对于初次接触 Anki 的用户,理解其底层逻辑至关重要。Anki 的交互非常简洁,主要由三个环节构成: ...

出来混,最重要的是先要出来——如何用脑科学原理,终结无效努力

一个老梗,我们最熟悉的英语单词是 abandon:放弃。因为它是各大英语单词书列表第一个单词。 编程爱好者当中也一直流传这张盘上了浆的图片: 从小到大,我们听惯了“头悬梁,锥刺股”,信奉“吃得苦中苦,方为人上人”。这种文化基因深深植入我们的潜意识,让我们产生了一种根深蒂固的误解:凡是不难的事情,都没有价值;凡是没让你感到痛苦的过程,都不会有真正的收获。 然而,这种将“痛苦”等同于“努力”的认知,恰恰是大多数人学习新技能常常失败,无法获得终身学习习惯的根本原因。因为我们本能地会规避痛苦。 从脑科学和认知心理学的角度来看,学习的本质是建立新的神经连接。而痛苦并不代表你在建立连接,它只代表摩擦力——你的心智能量并没有用于构建神经回路,而是在对抗痛苦的内耗中,像废热一样被白白散逸了。 如果你想要真正掌握一样新东西,无论是英语、编程还是乐器,第一条法则不是“刻苦”,而是最大程度降低心智负担(Cognitive Load)。 一、 为什么“高目标”会导致“大溃败”? 很多人在决定学习英语的那一刻,往往是雄心万丈的。他们给自己制定的计划通常是这样的: “我要在一个月内背完 GRE 单词。” “我要直接阅读《经济学人》原版,不查字典。” “我要每天听写一小时 BBC 新闻。” 这种计划看起来很“励志”,但在心理学上,这是典型的 “认知自杀”。 根据 耶克斯-多德森定律(Yerkes-Dodson Law),压力(任务难度)与表现之间呈倒 U 型关系。适度的难度能激发动力,但一旦难度超过临界点,大脑的杏仁核(情绪中心)会被激活,产生焦虑和恐惧,从而抑制负责逻辑思考的前额叶皮层。 当你作为一个英语初学者,直接挑战满屏生词的原版书时,你获得的不是知识,而是挫败感的反复冲刷。这种持续的负反馈会让你陷入 “习得性无助”(Learned Helplessness) ——你的潜意识觉得“无论我怎么做都学不会”。 最后,这会演变成严重的拖延症。拖延不是因为懒,而是因为恐惧。 是你的大脑在防御那个令它感到痛苦的庞大目标。 二、 最大的内耗,在于“选择前沿” 心智负担的另一大来源,往往被我们忽视了,那就是 “选择”。 在学习开始之前的那段时间,往往是最消耗意志力的。我将其称为处于 “选择前沿”(The Frontier of Choice)。 试想一下这种场景:你想学英语,但你坐下来后开始纠结:“我是先背单词还是先练听力?是用这本红宝书还是那个 APP?是早上学还是晚上学?” 心理学上的 “自我损耗理论”(Ego Depletion) 告诉我们,人的意志力是一种有限的资源,就像电池一样。这种在“选择前沿”反复纠结的状态,会导致 “决策疲劳”(Decision Fatigue)。如果你在“决定怎么做”这件事上花费了太多心力,当你真正开始“做”的时候,电量已经耗尽了。 这就是为什么很多人“准备”了一整天,资料下载了几个 G,最后却一眼书都没看——“差生文具多”。这种内耗,比学习本身更累人。 三、 科学的策略:寻找“拉伸区”与“代码化” 既然知道了病灶,解药也就呼之欲出。高效的学习必须遵循两个原则:难度降维与选择固化。 1. 寻找“拉伸区”:把难度降到匹配的位置 著名的语言学家克拉申(Stephen Krashen)提出过一个 “$i+1$”理论 。如果你的水平是 $i$,那么你学习的内容应该是 $i+1$,而不是 $i+10$。这与前苏联心理学家维果茨基(Lev Vygotsky)提出的 “最近发展区”(Zone of Proximal Development) 概念不谋而合,后来被广泛演化为经典的 “舒适区模型”: ...

逃离算法围城,寻回‘阅读自主权’的终极工具

你有没有想过,你脑子里正在思考的事情、你此刻产生的情绪、甚至你对这个世界的认知,有多少是来自你主动的观察,又有多少是算法“喂”给你的? Caitlin Johnstone 在《保护我们的精神主权正变得越来越难》一文中提出了一个尖锐的观点:现代社会最激烈的战争,不是发生在战场上,而是发生在我们的头脑里。 商业公司和算法引擎并不在乎你的思想是否独立,它们只在乎你的注意力。为了留住你,它们会把你关在一个由“猜你喜欢”构成的舒适圈里,不断喂给你最容易引发愤怒、焦虑或快感的信息。 当你习惯了像刷短视频一样“被动投喂”文章时,你实际上已经交出了你的阅读自主权。久而久之,你的世界观不再是由你构建的,而是由算法为你定制的。你以为你在看世界,其实你只是在看算法想让你看到的世界。 想想看,你是否也有过这样的时刻? 消失的关注:明明关注了某个喜欢的博主或公众号,却很少在平台上看到他的更新。直到你搜索相关账号,才发现系统根本没有把它推给你——平台有它自己的利益关联算法。 注意力的黑洞:本来只想打开 App 看一条特定新闻,结果被首页花花绿绿的“猜你喜欢”吸引。手指不停地上滑下滑,不知不觉刷了一小时短视频,完全忘了最初要干嘛。 疲惫的巡视:你关注的内容散落在四处:B站的视频、公众号的文章、知乎的专栏、还有几个独立网站。每天光是把这些 App 轮流打开检查一遍,就已经觉得很累了。 如果这些场景让你感到熟悉,那么你并不孤单。在这个时代,我们的注意力正在被算法“劫持”。 今天想给你介绍一个听起来很古老(诞生于 20 多年前),但在这个时代却显得无比珍贵的工具——RSS。它就像一把钥匙,能帮你逃离算法的牢笼,拿回属于你自己的“阅读自主权”。 RSS 是什么? RSS 的全称是 Really Simple Syndication(简易信息聚合)。不要被技术名词吓倒。你只需要把它想象成你的 “私人数字管家” 。 现在的我们上网看东西,就像是 “逛商场”:你需要亲自跑进一家家店铺(打开不同的 App),还得忍受店门口烦人的推销员(各种广告和推荐弹窗),才能看到你想看的东西。 而 RSS,就是你的 “专属私人邮递员”。 你只需要把你想看的“店铺地址”告诉这个邮递员,他就会每天帮你在网络上巡逻。一旦这些店铺上架了新货(更新了文章),邮递员就会立刻打包好,直接投递到你家门口的信箱里。 你不需要再去逛商场,不需要看推销员的脸色,你只需要坐在家里打开信箱,所有你关心的内容都已经整整齐齐地躺在那里了。 为什么普通人也需要RSS? 如果你不是程序员,也不懂技术,RSS 依然是你对抗算法的最佳防线: 绝对的清静(去噪): 在 RSS 阅读器里,没有广告,没有“热搜”,没有“猜你喜欢”,也没有评论区的争吵。只有纯粹的文字和图片。这就像从喧闹的菜市场突然走进了一间安静的书房,你终于可以静下心来读完一篇文章。 聚沙成塔(效率): 你可以把不同平台的关注源全都聚合在一起。以前需要切换 5 个 App 才能看完的内容,现在在一个 App 里就能像刷朋友圈一样,一次性看完。 你才是总编(掌控): 这也是最重要的一点。当你把“阅读什么”的权力交给算法时,你就在交出“思考什么”的权利。 而在 RSS 里,你看不到“全网热搜”,所有内容都是你亲自挑选并订阅的;你看不到“限流”或“屏蔽”,每一篇更新都会按时间顺序忠实送达。 使用 RSS,就是在练习一种在这个时代最稀缺的能力:信息筛选能力。 当你需要手动添加一个 RSS 链接时,你必须问自己:“这个信源值得我信任吗?” “这个作者的观点能给我启发吗?” “我真的需要关注这些内容吗?” 这种不断的自我提问,就是在锻炼你的精神主权。 手把手教你:3分钟开启你的 RSS 之旅 说了这么多,不如直接试一次。我们以安卓手机上好用的 FeedMe或者 iOS 上的 NetNewsWire)为例,整个过程只需要三步。 ...