核心要点

协整是将严谨的配对交易与简单相关性方法区分开来的数学基础。两只股票在某段时期内可能相关性为零,但仍然存在协整关系,这意味着它们的线性组合会回归到一个稳定的均值。恩格尔-格兰杰两步法和约翰森检验为识别这些长期均衡关系提供了正式的统计工具。一旦找到协整配对,误差修正模型就会支配价差的行为,而均值回归的半衰期则决定了交易机会的消解速度。基于协整的配对交易策略比距离法具有结构性优势,因为它检验的是真正的经济关系,而非仅仅依赖历史价格接近度。
醉酒的女人和她的狗
想象一位深夜从酒吧出来的女人,牵着她的狗在走。两者的行动都有些随机——女人沿着不可预测的路径踉跄而行,狗则四处追逐气味左右奔跑。单独来看,两者都不遵循可预测的轨迹。但牵绳约束了它们之间的最大距离。无论各自多么不规则地移动,两者之间的距离始终是有界的,并且倾向于回归到牵绳的长度。
这就是协整的核心意象。女人和狗各自是非平稳过程(时间序列计量经济学中的I(1)序列),意味着它们的位置各自遵循随机游走。但两者位置的差异是平稳的(I(0)),意味着它在一个稳定的均值周围波动,偏离过远时会回归。
这个类比通常归功于Murray (1994),它捕捉了许多交易者忽略的一个微妙区别。相关性衡量的是两个序列在短期内共同运动的程度。协整衡量的是两者之间是否存在长期均衡关系。两只股票可能有高相关性但没有协整关系(日常共同运动但随时间永久性偏离)。相反,两只股票可能短期相关性低但具有强协整关系(短期走不同的路径,但价格的线性组合总是回归均衡)。
平稳性与积分阶数
在检验协整之前,需要理解积分阶数的概念。时间序列是d阶积分的,记为I(d),如果它需要d次差分才能变为平稳。
大多数个股价格是I(1)。在水平值上,它们遵循带漂移的随机游走。但一阶差分(日收益率)近似平稳,围绕均值以恒定方差波动。无法在假设单一I(1)序列会回归到某个特定水平的前提下进行盈利交易,因为它没有固定的水平可供回归。
协整为这个问题提供了解决方案。如果两个I(1)序列X和Y可以组合为Z = Y - beta * X,且结果序列Z是I(0),则X和Y以协整向量(1, -beta)协整。价差Z是可交易的量:它有固定的均值,偏离均值是暂时的。
扩展迪基-富勒(ADF)检验是检验序列是否平稳的标准工具。它检验序列具有单位根(是I(1))的原假设,对照平稳(是I(0))的备择假设。检验回归为:
Delta_Z(t) = alpha + gamma * Z(t-1) + 滞后Delta_Z项之和 + epsilon(t)
如果gamma显著为负(检验统计量低于临界值),则拒绝单位根的原假设并得出序列平稳的结论。协整残差的临界值不同于标准ADF表,因为残差是从估计回归中生成的而非直接观测的。
恩格尔-格兰杰两步法
Engle and Granger (1987),即为Robert Engle和Clive Granger赢得2003年诺贝尔经济学奖的论文,将协整概念正式化并引入了实用的两步检验程序。
第一步:估计协整回归。对一个I(1)变量对另一个进行普通最小二乘法(OLS)回归:
Y(t) = alpha + beta * X(t) + epsilon(t)
该回归的残差代表价差:即Y偏离其与X的估计长期均衡关系的程度。如果Y和X是协整的,这些残差应该是平稳的。
第二步:检验残差的平稳性。对估计残差应用ADF检验。如果检验拒绝单位根的原假设,则支持Y和X之间存在协整的证据。如MacKinnon (1991)所列,该检验的临界值比标准ADF临界值更严格,因为残差是估计的而非观测的。
恩格尔-格兰杰方法直观且易于实现,这就是它作为配对交易研究最常见起点的原因。然而它有重要的局限性。它只能检测两个变量之间的单一协整关系。研究者需要选择哪个变量作为因变量(交换Y和X可能改变结论)。而且第一步的OLS估计量在小样本中可能表现不佳。
约翰森检验:更强大的替代方法
Johansen (1988)开发了一种最大似然方法来解决恩格尔-格兰杰方法的局限性。约翰森检验在向量自回归(VAR)框架内工作,可以同时检验多个变量之间的多个协整关系。
约翰森检验的关键输出是一组变量中协整向量的数量(协整秩)。对于两只股票的配对交易应用,检验确定零个或一个协整关系是否存在。迹统计量和最大特征值统计量提供两种替代检验统计量;两者都检验最多r个协整关系的原假设,对照更多关系存在的备择假设。
约翰森方法为从业者提供了多项优势。不需要选择因变量。同时处理多个时间序列,允许交易者搜索协整篮子(共享均衡的三只或更多股票)。并提供协整向量的最大似然估计,其渐近效率高于恩格尔-格兰杰的OLS估计。
对于股票A和B的二元系统,约翰森秩为1确认协整并直接提供估计的协整向量。秩为0意味着不存在协整,该配对不应作为均值回归价差进行交易。
误差修正模型
一旦协整建立,误差修正模型(ECM)描述了当价差偏离时系统如何调整回均衡。ECM直接来源于Engle and Granger (1987)中的格兰杰表示定理,形式如下:
Delta_Y(t) = alpha_Y + lambda_Y * Z(t-1) + 滞后项 + epsilon_Y(t)
Delta_X(t) = alpha_X + lambda_X * Z(t-1) + 滞后项 + epsilon_X(t)
这里Z(t-1)是滞后价差(误差修正项),lambda系数衡量每只股票向均衡调整的速度。如果lambda_Y为负且显著,意味着当价差为正(Y高于均衡)时Y向均衡回归。如果lambda_X为正且显著,X向相反方向移动。
ECM对配对交易者有价值,因为它揭示了哪只股票在进行调整。在许多真实的配对中,一只股票比另一只调整得更快。交易者可以通过在调整更快的股票上配置更大的头寸,或使用ECM预测未来几个周期的价差方向来利用这种不对称性。
均值回归的半衰期
协整价差回归均值的速度决定了配对交易在实践中是否可行。需要两年才能回归的价差在统计上有趣但在操作上无用;5到15个交易日内回归的价差则是可操作的。
半衰期来源于Ornstein-Uhlenbeck(OU)过程,它是用于建模价差的离散AR(1)过程的连续时间类比。如果价差Z遵循:
Z(t) = phi * Z(t-1) + epsilon(t)
其中phi是自回归系数(平稳过程中0 < phi < 1),则半衰期为:
t_half = -ln(2) / ln(phi)
该公式给出偏离均值衰减一半所需的预期周期数。phi为0.95意味着半衰期约为13.5个交易日。phi为0.99意味着半衰期约为69个交易日。
在实际配对交易中,半衰期在5到60个交易日之间往往效果最佳。低于5天,大多数执行系统在扣除交易成本后难以盈利地捕获价差回归。超过60天,资本被占用太久,协整关系崩溃的风险增加。
| 配对示例 | ADF统计量 | p值 | 协整? | 半衰期(天) | Phi |
|---|---|---|---|---|---|
| KO / PEP | -3.42 | 0.011 | 是 | 18.2 | 0.963 |
| XOM / CVX | -3.89 | 0.003 | 是 | 12.7 | 0.947 |
| JPM / BAC | -2.15 | 0.228 | 否 | 43.1 | 0.984 |
| MSFT / AAPL | -1.87 | 0.347 | 否 | 61.4 | 0.989 |
| HD / LOW | -3.61 | 0.006 | 是 | 15.3 | 0.956 |
| GLD / GDX | -4.12 | 0.001 | 是 | 8.9 | 0.925 |
实践实现:从理论到交易
构建基于协整的配对交易策略涉及一个直接映射上述理论的系统化工作流程。
第一阶段是候选标的识别。与其检验所有可能的股票对(这会产生严重的多重比较问题),从业者使用经济逻辑缩小范围。属于同一行业、拥有相似的商业模式、暴露于相同的大宗商品投入、或受相同监管框架约束的股票更可能共享真正的长期均衡。可口可乐和百事可乐、埃克森美孚和雪佛龙、家得宝和劳氏是经典案例。从经济基本面出发降低了统计显著的协整结果是数据挖掘虚假产物的风险。
第二阶段是在滚动形成窗口(通常为12至24个月的日度数据)上进行协整检验。同时应用恩格尔-格兰杰和约翰森检验,只保留两种方法都在5%显著性水平上确认协整的配对。协整向量(对冲比率beta)从该窗口估计。
第三阶段是价差构建和标准化。计算价差Z(t) = Y(t) - beta * X(t),并使用形成期的均值和标准差将其标准化为z分数。这种标准化使得通用的进入和退出阈值可以跨不同配对应用。
第四阶段是信号生成。标准方法在z分数超过阈值(通常为2.0个标准差)时开仓,在回归到零或穿越止损阈值(通常为3.0到4.0个标准差)时平仓。方向由z分数的符号决定:正z分数意味着Y相对于X偏贵,交易者做空Y买入X;负z分数触发相反的交易。
| 参数 | 保守型 | 中性型 | 激进型 |
|---|---|---|---|
| 形成窗口 | 24个月 | 18个月 | 12个月 |
| 进入阈值(西格玛) | 2.5 | 2.0 | 1.5 |
| 退出阈值(西格玛) | 0.5 | 0.0 | 0.0 |
| 止损(西格玛) | 4.0 | 3.5 | 3.0 |
| 最大持有期 | 60天 | 40天 | 20天 |
| 半衰期过滤 | 5-40天 | 5-50天 | 5-60天 |
实证证据:它有效吗?
Gatev, Goetzmann, and Rouwenhorst (2006)是配对交易领域被引用最多的实证研究,记录了一种简单的距离法配对交易策略在1962至2002年美国股票市场中获得了约11%的年化超额收益。该策略是市场中性的,不需要基本面分析,纯粹基于统计。
然而后续研究呈现了更细致的图景。Do and Faff (2010)将Gatev的样本延伸至2008年,发现利润大幅下降,在考虑现实交易成本后大部分优势消失。到2010年代,简单距离法在扣除成本后产生接近零或负的收益。
Avellaneda and Lee (2010)提出了一个使用主成分分析和Ornstein-Uhlenbeck过程的更精密的框架。该方法更接近本文描述的协整方法论,通过系统性地交易因子模型的残差,在美国股票市场实现了1.0以上的夏普比率。关键洞察是将均值回归速度(OU参数)纳入交易信号显著改善了相较于简单距离法的表现。
| 研究 | 时期 | 方法 | 年化收益率 | 夏普比率 |
|---|---|---|---|---|
| Gatev et al. (2006) | 1962-2002 | 距离法 | ~11% | ~0.75 |
| Do & Faff (2010) | 1962-2009 | 距离法 | ~4%(下降趋势) | ~0.35 |
| Avellaneda & Lee (2010) | 1997-2007 | OU / 因子 | ~8-15% | ~1.0-1.5 |
| Krauss (2017) 综述 | 不同 | 不同 | 下降趋势 | 策略依赖 |
学术共识是明确的:基于协整和考虑均值回归速度的方法显著优于简单距离法,尤其是在市场变得更加有效、量化交易者之间竞争加剧的近期阶段。
协整何时失效
协整是一种统计关系,而非自然法则。它可以而且确实会失效。一家公司商业模式的结构性变化、合并或收购、监管转变、或竞争格局的永久性变化都可能摧毁历史上维持的均衡。当醉酒女人和她的狗之间的牵绳断裂时,价差可能永久性发散,基于均值回归的配对交易将累积无限损失。
这就是配对交易中止损纪律不可妥协的原因。这也是滚动重新估计协整关系至关重要的原因。从业者通常每1至3个月重新估计对冲比率并重新检验协整,剔除不再通过统计检验的配对。
多重比较问题是另一个关键陷阱。检验数千个配对并选择在5%水平上通过协整检验的配对,仅凭偶然就会识别出许多虚假关系。Bonferroni校正或经济过滤(限制为同行业配对)有助于缓解这个问题,但在任何数据驱动的配对选择过程中,某种程度的过拟合是不可避免的。
从配对到篮子:多元扩展
约翰森框架自然地扩展到三只或更多协整资产的篮子。如果三只股票共享两个协整关系,交易者可以构建两个独立的均值回归价差,有望改善分散效果并降低单一配对关系崩溃的风险。
Avellaneda and Lee (2010)使用从PCA导出的特征组合构建了相对于其行业因子构造性平稳的股票篮子。这种方法将配对交易推广为完整的统计套利框架,可交易的均值回归信号数量随着显著特征组合数量的增加而扩展。
数学机制是相同的:协整检验、误差修正动态、半衰期估计。但投资组合构建变得更加复杂,需要仔细关注头寸规模、保证金要求以及多个价差之间的相关结构。
Written by Sam · Reviewed by Sam
本文基于引用的一手文献,并经编辑团队审核以确保准确性和归属。 编辑政策.
参考文献
- Engle, R. F., & Granger, C. W. J. (1987). Co-Integration and Error Correction: Representation, Estimation, and Testing. Econometrica, 55(2), 251-276. https://doi.org/10.2307/1913236
- Johansen, S. (1988). Statistical analysis of cointegration vectors. Journal of Economic Dynamics and Control, 12(2-3), 231-254. https://doi.org/10.1016/0304-4076(88)90041-3
- Johansen, S. (1991). Estimation and Hypothesis Testing of Cointegration Vectors in Gaussian Vector Autoregressive Models. Econometrica, 59(6), 1551-1580. https://doi.org/10.2307/2938278
- Gatev, E., Goetzmann, W. N., & Rouwenhorst, K. G. (2006). Pairs Trading: Performance of a Relative-Value Arbitrage Rule. Review of Financial Studies, 19(3), 797-827. https://doi.org/10.1093/rfs/hhj020
- Avellaneda, M., & Lee, J.-H. (2010). Statistical arbitrage in the US equities market. Quantitative Finance, 10(7), 761-782. https://doi.org/10.1080/14697680903124632
- Do, B., & Faff, R. (2010). Does simple pairs trading still work? Financial Analysts Journal, 66(4), 83-95. https://doi.org/10.1016/j.jbankfin.2010.02.015
- MacKinnon, J. G. (1991). Critical Values for Cointegration Tests. Queen's Economics Department Working Paper No. 1227. https://ideas.repec.org/p/qed/wpaper/1227.html
- Murray, M. P. (1994). A Drunk and Her Dog: An Illustration of Cointegration and Error Correction. The American Statistician, 48(1), 37-39. https://doi.org/10.1057/9780230389625
- Krauss, C. (2017). Statistical Arbitrage Pairs Trading Strategies: Review and Outlook. Journal of Economic Surveys, 31(2), 513-545. https://doi.org/10.1111/joes.12153
- Vidyamurthy, G. (2004). Pairs Trading: Quantitative Methods and Analysis. John Wiley & Sons.