← INDEX SYS.OK // FIELD NOTES

信号与噪音:一个 AI 开发者的信息源治理手册

2026-04
信息治理 AI 工程 信噪比

每天都在"翻天覆地"

随着 OpenClaw 的爆火,Agent 和 Vibe Coding 相关的公众号、视频号铺天盖地。各类概念、工具、方法论层出不穷,每天都感觉技术在发生翻天覆地的变化。

打开手机,某家最新的开源模型在某某 Benchmark 上打败了最强的 Claude;某团队开源了一个自动化 xxx 的项目,宣称可以在 xx 天内就自动完成 xxx。从最开始的提示词工程,到去年的上下文管理工程,到现在的 Harness——刚上手的工具过几天就过时了,新的范式自己又没跟上。

这种感觉有个名字,叫 FOMO(Fear of Missing Out,错失恐惧)。如果不做信号来源的治理,很容易被噪音淹没。

2026 年,所谓的"idea"和"技术"都不再值钱,也不再构成壁垒。那什么值钱?我觉得是高质量的信号来源

下面是我目前的做法。


三条信号管道

我现在摄入的信息来源主要关注三个层面:工具怎么用、模型往哪走、以及碎片时间的被动输入。

1. 工具调用 / 工程实践

OpenAI 和 Anthropic 的官方技术指南是第一优先级——它们定义了模型的最佳使用方法和行业范式。

信源 价值
OpenAI / Anthropic 官方技术指南 揭示模型的最佳使用方法,定义最新的行业标准和范式
LangChain / Manus 等团队 多智能体编排、上下文管理、KV 缓存利用上的工程经验
Boris AK 等明星开发者 一线实操反馈和踩坑记录

LangChain、Manus 这些团队在多智能体编排和上下文管理上的工程经验也值得跟,但优先级排在官方之后。

2. 基础模型层

追踪前沿突破。 关注 Transformer 的注意力层、残差连接、预训练和强化学习几个重要节点的进展。一方面建立自己对底层技术的直觉,另一方面这些突破随时可能大规模提升模型的上下文长度、降低推理成本——知道趋势,才知道怎么选最适合自己工程需要的模型。

跟踪开源模型发布。 Gemma、MiniMax、Qwen 等先进开源模型。核心判断是:在当下,小参数的端侧模型有没有可能就满足自己 Agent 项目的部分任务需求?

经典论文补课。 深度学习史上有一些里程碑式的论文——Attention、ReAct、CoT——平时可以在 LLM 辅助下有计划地阅读。不看公式推导,重点关注三件事:当时的历史语境、这篇论文解决了什么问题、它是怎么解决的。保证自己对技术演进有一条连贯的脉络。

3. 播客:碎片时间的被动输入

闲着也是闲着。通勤和锻炼的时候听点播客:

里面有大量一手创业者和研究员的访谈。通勤时间反正也浪费了,不如拿来听这些。


过滤原则:我不看什么

上面说的是我看什么。但更重要的可能是我不看什么

不订阅任何 RSS。 也不浪费时间在 Hugging Face、魔搭、arXiv 里漫无目的地浏览。

做减法,不预学。 遇到问题再去找解决方案、查相关资料。不提前囤积"以防万一"的知识。

信任社交网络的筛选机制。 有重要的行业变革,社交网络会自动把最重要的范式突破推过来。关键是判断哪些是标题党、哪些是真有价值的,再去读原文。

信息质量排序:

官方一手博客 / 突破性论文 > 推特 > B 站 >> 小红书 >>> 抖音

抖音的信噪比太低,不值得花时间。

一手信息远比 KOL 的解读重要。 前提是得有阅读一手信息的能力——读官方文档、读英文论文摘要、读 changelog。这个能力没有捷径,只能靠多读。


结语

技术在进步,任何静态的技术都不构成竞争壁垒。唯有持续学习跟进才有动态的壁垒。提高自己学习资料的信噪比,多上手,直接试用模型,多实操。


写于 2026 年 4 月。