Investment · Thesis · Vol. 01

Context
Is the New Oil.

我在一家 AI 公司做产品。每天和 context 搏斗的经验,让我相信下一个十年的钱会流到同一个地方——那条"让 AI 记得更多"的价值链上。

所有主流 AI 公司这两年都在堆同一件事:把上下文窗口从 200K 推到 1M,再推到 10M。Anthropic、OpenAI、Google、我工作的这家,方向完全一致。外面的人看这是"技术指标",我看到的是一个判断——未来十年决定 AI 产品体验的,不是模型有多聪明,是它能记住多少。

模型能力的提升在放缓(这件事圈内都承认),但产品对 context 的胃口在加速:Agent 要记得住多轮交互、编码工具要读进整个 monorepo、企业要把十年的历史塞进一个对话框。这个剪刀差,才是未来几年钱该去的地方。

重点是,10M context 不是 10K context 的 1000 倍开销,是指数级膨胀——注意力计算在序列长度上是二次方,HBM、显存、散热、能源全链条都要重新核算。所谓 AI 基础设施的下一轮扩建,本质就是为了 context scale law 让路。

大家都在看谁会赢
——我想看的是整个战场会变多大。

我不是分析师,也不做短线。这篇文章只是把我对 AI 行业的观察赌成一个可以长期追踪、可以被证伪、可以在年底回头核对的投资组合。未经打磨,每天都可能修正。

§§§

六层价值链

Context 从用户产生、到被 AI 用起来,中间要经过六个环节。任何一环被挤爆,都会把溢价传递给这个环节里的上市公司。以下是我会长期盯着的六层、以及每层里最有代表性的标的。

01
Capture

Context 入口

离用户最近的硬件和服务,它们决定了什么信号能进入 AI 的视野——声音、屏幕、身体、日程。端侧越强、入口越多,可供 AI 处理的 context 越丰富。

AAPL
Apple — iPhone、Mac、Vision Pro。端侧 AI 加隐私护城河,最大的个人 context 采集器持仓
META
Meta — Ray-Ban 智能眼镜和 Quest,下一代 ambient context 的定义者
GOOG
Alphabet — Android、Pixel、Gemini 端侧部署
02
Store

Context 存储

HBM、DRAM、SSD、HDD。Context 越长,存储越贵。HBM 是这一层的皇冠——训练和推理过程中,context 的中间状态必须装进高带宽显存,这是物理规律,无法绕开。

MU
Micron — HBM 三巨头之一,对 AI 训练需求暴露度最高
SNDK
SanDisk — 从西数分拆后的 SSD 纯玩家
STX / WDC
Seagate / Western Digital — HDD,冷 context 的归档层
03
Compute

Context 处理

芯片和大模型,context 真正被计算的地方。这一层最接近"AI 股"的大众理解。我更看底层——代工、定制化 ASIC、GPU 架构——而不是消费端叙事。

NVDA
NVIDIA — 训练和推理的绝对霸主,定价权仍在
AVGO
Broadcom — 定制 ASIC 的底层设计方(Google TPU、Meta MTIA)
TSM
TSMC — 所有先进芯片最终在这里制造
AMD
AMD — Instinct MI 系列,NVIDIA 最接近的挑战者
04
Transport

Context 传输

Context 越大,对数据中心网络的要求越严苛。GPU 之间要高速互联、训练任务要跨千卡通信。这是 AI 基建里最容易被忽略的那一层。

ANET
Arista Networks — 数据中心网络龙头,AI 集群升级直接受益
05
Power

Context 能源

10M context 推理的耗电是 10K context 的数十倍。AI 的增长最终会撞上电力的物理墙——这不是悲观叙事,是下游能源公司定价权的回归。

CEG
Constellation Energy — 核电龙头,已和微软签 20 年数据中心供电合同
VST
Vistra — 综合电力,数据中心增量需求的承接者
CCJ
Cameco — 铀矿,核电重启的上游
06
Apply

Context 应用层

企业级 context 平台、向量数据库、以及制造这一切的半导体设备。应用层的赢家还没定,但基建的垄断格局已经清晰。

PLTR
Palantir — 企业级 context 的操作系统
SNOW
Snowflake — 数据仓库,context 的静态层
MDB
MongoDB — 向量数据库,RAG 架构受益方
ASML
ASML — 光刻机,卡脖子级垄断
§§§

反驳
"已经充分定价"

很多人一听"买 AI"第一反应是:NVDA 已经涨了这么多,这不都已经定价进去了吗?

这是最常见的反对意见,也是我认为最站不住脚的一个。定价"充分"这个说法建立在一个假设上:AI 的用户规模和使用深度已经接近稳态。而事实是,我们可能只走完了 10%。

Penetration Math
全球智能手机用户 69亿
全球 AI 活跃用户(估计) 5–10亿
AI 相对手机的渗透率 7–15%
仅用户数的
理论扩张空间
6–10×

这还没算"每个用户 context 消耗量的指数增长"——从一次对话到 Agent 全天候在线,单用户的 context 流量会从 MB 级涨到 GB 级。企业侧的渗透更早,几乎还没开始。

把这两层乘在一起:用户数 ×10、人均 context ×10,就是 100 倍的总流量增长潜力。对上游的 HBM、GPU、电力来说,这个"100 倍"中的哪怕 10% 变现,都足以让现有估值看起来像起点而非终点。

1999 年的 Cisco 有一个容易被忽略的事实:互联网用户的数量在那之后十倍增长了——Cisco 股价的回撤不是因为需求没起来,而是因为估值跑在了需求前面,市场要时间消化。但最终的总市值,超过了泡沫顶点。

所以我承认这里有 短期估值风险(可能经历 30-40% 的回撤),但我不接受 长期叙事已终结这个判断。这个区别决定了你是该卖,还是该在回调时继续买。

§§§

目标组合

不是一次性建仓,而是随资金逐步铺开的方向性配置。仓位会随 thesis 验证程度动态调整——跑赢预期的环节加仓、被证伪的环节砍掉。

Target Allocation
入口 AAPL 15%
存储 MU 20%
处理 NVDA 25%
处理 · 定制 AVGO 10%
能源 CEG 10%
网络 ANET 10%
应用 PLTR 10%

我仍然会错的地方

反驳完"充分定价",不代表我认为 thesis 毫无风险。以下是三条我认为真正可能让我出错的理由。

叙事同步回撤

AI 是目前最拥挤的主题之一。不管基本面如何,一次情绪修正可能让整个组合同步回撤 30%+。对冲方式是始终保留 20-30% 现金或稳定币,不在高点满仓。

Scale law 被绕过

如果新架构——更强的压缩、更聪明的检索、或者根本不同的推理范式——能在显著更低的 context 开销下达到相近效果,整个"存储密集型"叙事就要重写。这是真实风险,不是幻觉。我会持续监控论文和开源项目的进展。

地缘 & 监管

半导体出口管制、电力政策、数据主权——这些都可能在 thesis 生效前把某个环节打残。最脆弱的是台积电(地缘)和能源(监管)。

§§§

Thesis 日志

这篇文章每天都在迭代。每一笔建仓、每一次 thesis 修正、每一个印证或打脸的事件,都记录在这里。完整版本历史见 Archive

2026-04-21
Designv4:冰蓝 shader + 编辑风排版
2026-04-21
Thesis加入渗透率反驳章节
2026-04-20
BuyAAPL 建仓 1 股 @ ~$273