BTC 的遥控器换人了
问题
2017 年,比特币从一千涨到两万,驱动它的几乎全是自己的事——矿工算力涨了多少、离减半还有几天、交易所的交易量放大了多少倍。这些内部指标把价格解释得明明白白。
到了 2024 年,比特币从一万六涨到十万,你再去查那些内部指标,发现它们解释不动了。反而是美元指数、道琼斯、人民币汇率这些"隔壁的事"在推着比特币走。
这不是一个细微的漂移。这是一个资产的价格遥控器从自己人手里交给了外人。问题是:这个切换发生在什么时候?是哪个瞬间?还是慢慢过渡的?能不能用数学工具把切换的证据钉死?
这篇论文就是在回答这个问题。
翻译
把 16 个嫌疑人排队
想象一个侦探面对一桩连续八年的价格波动案。他手上有 16 个嫌疑人——8 个是比特币自己的(算力、矿工收入、交易所交易量、减半天数、区块大小),8 个是外来的(标普、道琼斯、纳斯达克、人民币汇率、欧元汇率、日元汇率、黄金、原油、VIX)。
侦探不知道谁在操控价格。更麻烦的是,嫌疑人之间的关系很复杂——标普和道琼斯几乎总是一起行动,欧元和人民币也高度同步。你抓了其中一个,另一个能顶上。
论文的做法是:不靠直觉猜,用贝叶斯方法反复试探。把 16 个变量排成一队,放进隐马尔可夫模型(一种能识别市场"状态"——牛/熊——的统计模型),然后让算法自己跑 10 万次迭代。每次迭代,算法随机把某个嫌疑人加进来或踢出去,看看模型的整体解释力是变好了还是变差了。跑完 10 万次之后,数一数每个嫌疑人被留下的次数,次数越高的越有可能是真凶。
为了更贴近现实,论文把所有变量做了 7 天滞后处理——用的是一周前的数据来解释今天的比特币价格。这个设定模拟了信息在实际操作中的延迟。
侦探的判决
侦探把八年数据劈成两段:2016-2019(早期)和 2019-2024(近期)。判决结果很清晰。
早期(2016-2019):真凶全是比特币内部变量——矿工收入、算力、交易所交易量、减半天数。这四个变量组合在一起,预测表现最好。宏观变量?没它们什么事。
近期(2019-2024):真凶换人了。人民币汇率、道琼斯、黄金期货加上交易所交易量,这个混合组合取代了纯内部变量的位置。纯比特币变量组合的预测表现显著变差。
最戏剧化的是减半天数。这个在 2017 年撑起半边天的变量,在 2019-2024 的子样本中直接没过后验概率门槛,被算法踢出了定价模型。减半确实砍掉一半新增供给,但这是一个所有人都知道精确日期的事件——市场早就提前定价了。
但这群侦探不太会抓现行
论文花大量篇幅测试了模型的预测能力,用滚动窗口从 1 天到 30 天做向前预测。结果不理想。
MAPE(预测误差率)最低也要 15.78%(全样本 1 步 ahead),到了 30 步 ahead 就直接冲过 100%。论文把这归咎于"波动率和外部冲击",但更根本的问题是框架和市场的结构性不匹配。
HMM 的核心假设是"状态有粘性"——一旦进入牛市状态,会持续 30 到 60 天。模型需要累积好几天的异常数据才能判断"状态变了"。但比特币不是这样运行的。比特币的价格跳跃是事件驱动的——一条 SEC 公告、一个交易所爆雷、一个国家的监管政策——这些冲击在几小时内完成,模型还没反应过来,价格已经跳完了。
MAPE 尖峰图印证了这一点:每次重大事件冲击时,误差飙升几十倍。2017 年 Tether 增发、2019 年 PlusToken 诈骗、2023 年 BlackRock 申请 ETF——模型在这些时刻只能事后认出"哦,状态变了",没法事前预警。
替代方法的表现
论文也试了四种常见的变量选择方法,结果都不如贝叶斯 MCMC:
LASSO 和 Elastic Net 几乎不淘汰变量,16 个全留着——说明惩罚系数设得太松,或者这些变量之间的共线性太强,正则化分不清谁真有用。
随机森林选出的最佳因子组合是标普、纳斯达克、道琼斯——三个高度共线的美股指数。放进 HMM 后直接收敛失败,模型跑不下去。这暴露了随机森林的一个经典问题:它能选出"对训练集预测最好"的变量,但不能处理这些变量之间的共线性。
SVM 的预测误差率 29.52%,接近 HMM(15.78%)的两倍。
贝叶斯 MCMC 虽然不是完美的侦探,但在这一群候选人里确实是最不差的。
核心概念
隐马尔可夫模型(HMM)
一种假设系统存在隐藏"状态"的统计模型。你只能看到价格涨跌(观测值),但背后有一个你看不见的"市场状态"(牛市或熊市)在操控。状态之间的切换遵循马尔可夫性质——下一刻的状态只取决于当前状态,跟更早的历史无关。
它的核心假设是状态有粘性(持续 30-60 天),切换概率是固定的或缓慢变化的。这个假设在传统金融市场(股票、外汇)大致成立,但在比特币市场是最大的短板——比特币的跳跃是事件驱动的,不是状态渐变的。
贝叶斯 MCMC 变量选择
一种系统性的"嫌疑排除法"。不是一次性选最优变量组合(16 个变量的子集有 65536 种,穷举不现实),而是通过随机游走的方式在模型空间里探索。每次提出"加一个变量"或"删一个变量"的提案,用概率公式评估接受还是拒绝。跑 10 万次之后,每个变量被留下的频率就是它的"后验包含概率"——频率越高,说明这个变量越可能是真正的定价因子。
它比 LASSO/随机森林更适合这个场景,因为它能处理变量间的共线性(通过惩罚项防止冗余变量同时入选),而且天然支持不确定性量化(给你概率而不是一个硬判断)。
共线性与变量可替代性
标普、道琼斯、纳斯达克——三个美股指数高度正相关,选谁当代表差别不大。人民币汇率和欧元汇率也是一样。论文指出,这些变量在模型中可以相互替换,预测表现差异很小。
真正在 BTC 定价中起作用的不是某个具体指标,而是两个更底层的潜在因子:全球风险偏好(美股指数代理)和美元流动性(汇率代理)。具体用哪个指标来捕捉这两个因子,对结果影响不大。这既是论文的一个发现,也是变量选择的一个挑战——你很难通过后验概率把高度共线的变量区分开来。
洞见
比特币从"自己的货币"变成了"美元流动性的衍生品",而且这个切换在 2019 年就完成了——比大多数人意识到的早了五年。2024 年的现货 ETF 不是切换的原因,只是切换之后的一个确认仪式。
博导审稿
选题眼光:好问题。比特币定价权的转移是 2024-2025 年最实际的问题之一——如果你在管理 crypto 头寸,你必须知道该盯什么指标。这个题目有明确的投资决策价值,不是"为了发论文而发论文"。而且 2019 这个切换时间点的提法,对很多人来说是新的。
方法成熟度:贝叶斯 MCMC 嵌套 HMM 的框架本身是成熟的,论文对 Koki 等人 (2024) 的基础方法做了几个有价值的改进——惩罚项防止过度拟合、缩小初始变量集增加探索灵活性、Pólya-Gamma 增强提升非齐次 HMM 的收敛性。这些改进不花哨但实在。
但有一个硬伤:2019 这个切换时间点是作者手动选的,不是数据驱动的。论文没有做结构性变点检验(比如 Chow test 或 Bayesian change point detection)来确定切换时刻。你说 2019 前后不一样,为什么不是 2018 或 2020?全样本 2016-2024 的结果中,纯 BTC 变量组合反而表现最好(MAPE 15.78%),这个结果跟"定价权转移"的叙事矛盾。论文在讨论部分轻描淡写地说"早期子样本影响太大了",但这恰恰说明切换不是那么干脆。
实验诚意:用 16 个变量覆盖宏观和内部两个维度,数据频率和清洗方法都交代得清楚。四个替代方法(LASSO、Elastic Net、随机森林、SVM)的对比增加了说服力。7 天滞后处理模拟信息延迟,这个设计意识好。
但三个问题:第一,没有拆出 ETF 前后做对比——2024 年 1 月现货 ETF 获批是一个天然的结构性变点,数据已经覆盖了 11 个月,不拆太可惜。第二,NH-HMM 的收敛问题被低估了——96 条 MCMC 链中有 18 条(近 20%)PSRF 超过 1.2,论文说"不影响结果"但没有给出说服力更强的证据。第三,没有引入链上指标(活跃地址数、大额转账、交易所净流入流出),这些对 2020 年后的 BTC 价格可能有更强的解释力。
写作功力:典型的数学期刊风格——公式堆得够多,但叙事节奏一般。SWOT 分析放在讨论部分显得多余,没有增加实质性内容。最该说清楚的地方——为什么全样本结果跟子样本结论矛盾——处理得不够。
判决:weak accept。选题有现实价值,方法框架扎实,核心结论(定价权从内部转移到宏观)跟市场直觉一致。但切换时间点缺乏结构性检验、ETF 前后未拆分、全样本结果自相矛盾,这三条不解决,结论的置信度打折扣。
启发
迁移:贝叶斯 MCMC 变量选择 + 惩罚项的思路可以迁移到 crypto 投资信号筛选。与其用相关性矩阵手动选因子,不如用贝叶斯方法让数据自己选出在当前 regime 下真正有效的信号组合。特别是对于持仓跟踪(CAE),可以用类似的框架做信号的 regime-adaptive 权重分配。
混搭:HMM 的 regime 切换检测和事件驱动的价格跳跃是两个根本不同的时间尺度。也许可以把 HMM 的"慢 regime"和事件检测器的"快冲击"结合成一个双层模型——底层用 HMM 捕捉月度级别的趋势切换,上层用链上异常事件检测器捕捉日级别的冲击。两者叠加,可能比单独用任何一个都好。
反转:论文用 7 天滞后来模拟信息延迟。但如果反过来想——对于散户来说,7 天延迟是劣势;对于有实时数据管道的量化系统来说,7 天延迟根本不存在。这意味着,论文中 15.78% 的 MAPE 是在故意绑着一只手的情况下得到的。如果去掉滞后、引入链上实时指标,预测误差可能大幅降低。这也说明,在 crypto 市场中,数据速度本身就是 alpha 来源。