每天都在"翻天覆地"
随着 OpenClaw 的爆火,Agent 和 Vibe Coding 相关的公众号、视频号铺天盖地。各类概念、工具、方法论层出不穷,每天都感觉技术在发生翻天覆地的变化。
打开手机,某家最新的开源模型在某某 Benchmark 上打败了最强的 Claude;某团队开源了一个自动化 xxx 的项目,宣称可以在 xx 天内就自动完成 xxx。从最开始的提示词工程,到去年的上下文管理工程,到现在的 Harness——刚上手的工具过几天就过时了,新的范式自己又没跟上。
这种感觉有个名字,叫 FOMO(Fear of Missing Out,错失恐惧)。如果不做信号来源的治理,很容易被噪音淹没。
2026 年,所谓的"idea"和"技术"都不再值钱,也不再构成壁垒。那什么值钱?我觉得是高质量的信号来源。
下面是我目前的做法。
三条信号管道
我现在摄入的信息来源主要关注三个层面:工具怎么用、模型往哪走、以及碎片时间的被动输入。
1. 工具调用 / 工程实践
OpenAI 和 Anthropic 的官方技术指南是第一优先级——它们定义了模型的最佳使用方法和行业范式。
| 信源 | 价值 |
|---|---|
| OpenAI / Anthropic 官方技术指南 | 揭示模型的最佳使用方法,定义最新的行业标准和范式 |
| LangChain / Manus 等团队 | 多智能体编排、上下文管理、KV 缓存利用上的工程经验 |
| Boris AK 等明星开发者 | 一线实操反馈和踩坑记录 |
LangChain、Manus 这些团队在多智能体编排和上下文管理上的工程经验也值得跟,但优先级排在官方之后。
2. 基础模型层
追踪前沿突破。 关注 Transformer 的注意力层、残差连接、预训练和强化学习几个重要节点的进展。一方面建立自己对底层技术的直觉,另一方面这些突破随时可能大规模提升模型的上下文长度、降低推理成本——知道趋势,才知道怎么选最适合自己工程需要的模型。
跟踪开源模型发布。 Gemma、MiniMax、Qwen 等先进开源模型。核心判断是:在当下,小参数的端侧模型有没有可能就满足自己 Agent 项目的部分任务需求?
经典论文补课。 深度学习史上有一些里程碑式的论文——Attention、ReAct、CoT——平时可以在 LLM 辅助下有计划地阅读。不看公式推导,重点关注三件事:当时的历史语境、这篇论文解决了什么问题、它是怎么解决的。保证自己对技术演进有一条连贯的脉络。
3. 播客:碎片时间的被动输入
闲着也是闲着。通勤和锻炼的时候听点播客:
- 张小珺商业访谈录
- 晚点聊
- 跨国串门计划
里面有大量一手创业者和研究员的访谈。通勤时间反正也浪费了,不如拿来听这些。
过滤原则:我不看什么
上面说的是我看什么。但更重要的可能是我不看什么。
不订阅任何 RSS。 也不浪费时间在 Hugging Face、魔搭、arXiv 里漫无目的地浏览。
做减法,不预学。 遇到问题再去找解决方案、查相关资料。不提前囤积"以防万一"的知识。
信任社交网络的筛选机制。 有重要的行业变革,社交网络会自动把最重要的范式突破推过来。关键是判断哪些是标题党、哪些是真有价值的,再去读原文。
信息质量排序:
官方一手博客 / 突破性论文 > 推特 > B 站 >> 小红书 >>> 抖音
抖音的信噪比太低,不值得花时间。
一手信息远比 KOL 的解读重要。 前提是得有阅读一手信息的能力——读官方文档、读英文论文摘要、读 changelog。这个能力没有捷径,只能靠多读。
结语
技术在进步,任何静态的技术都不构成竞争壁垒。唯有持续学习跟进才有动态的壁垒。提高自己学习资料的信噪比,多上手,直接试用模型,多实操。
写于 2026 年 4 月。