文本資料是量化金融最新的alpha來源
華爾街日報的一個專欄預測了次日股票報酬率。Tetlock (2007)表明,WSJ的「Abreast of the Market」專欄中負面詞彙的比例預測了道瓊工業平均指數在隨後一到兩個交易日內的下行壓力。該效應在統計上顯著,在經濟上有意義,而且對於只關注價格和成交量資料的人來說完全不可見。這篇論文開啟了一個研究計畫,從簡單的詞頻統計發展到詞嵌入,再到基於Transformer的語言模型,每一代都從同樣的文本中提取出更多訊號。累積的證據是明確的:文本資料包含傳統量化因子無法捕捉的關於未來報酬率的資訊。
文本中為何包含alpha
金融市場透過價格處理資訊,但並非所有資訊都以數值形式到達。法說會記錄、監管文件、分析師報告、新聞文章和社群媒體貼文都承載著關於公司前景、管理品質和市場情緒的資訊。效率市場假說意味著這些資訊應該被迅速納入價格,但實際上文本資訊被緩慢且不均勻地吸收。
這有三個原因。第一,文本是非結構化和高維度的,使得人類分析師大規模處理的成本很高。單個季度法說會季就會產生數千份記錄稿,沒有分析師團隊能全部閱讀。第二,語言與資產價格之間的關係是非線性的,且依賴於上下文。「liability」這個詞在法律文件中和在財務報表中的含義完全不同,這一點成為金融專用詞典開發的核心。第三,文本中的許多訊號是微妙的,它存在於語氣、對沖性語言以及管理層選擇不說的內容中,而非明確的預測。
詞典時代:Loughran and McDonald(2011)
早期在金融文本中衡量情緒的嘗試依賴於為心理學和意見探勘開發的通用詞典。哈佛通用詢問器和類似工具根據日常用法將單詞分類為正面或負面。結果令人失望,Loughran and McDonald (2011)解釋了原因。
他們的關鍵洞察是,哈佛詞典標記為負面的詞彙中有近四分之三在金融語境中並非負面。「tax(稅收)」「cost(成本)」「capital(資本)」「liability(負債)」「risk(風險)」等詞在SEC文件中頻繁出現,但並不傳達負面情緒,它們只是標準的金融詞彙。使用這些通用詞典引入了系統性測量誤差,掩蓋了文本情緒與報酬率之間的真實關係。
Loughran和McDonald透過手動分類1994年至2008年間提交給SEC的10-K文件中出現的詞彙,構建了金融專用情緒詞典。該詞典包括六個情緒類別:負面、正面、不確定性、訴訟性、強模態和弱模態。僅負面詞彙列表就包含約2,300個專門為金融話語校準的術語。
改進效果顯著。使用金融專用詞典後,10-K文件中負面詞彙的比例預測了文件提交日前後的異常報酬率、提交後的報酬率漂移、成交量和報酬率波動率。在控制Loughran-McDonald指標後,通用詞典沒有顯示出這種預測力。
| 方法 | 範例 | 速度 | 準確度 | 可解釋性 | 成本 |
|---|---|---|---|---|---|
| 詞典 | Loughran-McDonald | 非常快 | 中等 | 高 | 非常低 |
| 詞嵌入 | Word2Vec, GloVe | 快 | 中-高 | 中等 | 低 |
| Transformer | FinBERT, GPT系列 | 較慢 | 高 | 低-中 | 高 |
超越詞頻統計:嵌入與上下文
詞典方法獨立處理每個詞彙,忽略詞序、否定和上下文。「公司沒有報告虧損」這句話包含「虧損」一詞,可能被判定為負面,儘管這句話實際上是正面的。透過Word2Vec(Mikolov et al. 2013)和GloVe(Pennington et al. 2014)引入的詞嵌入,將詞彙表示為連續空間中的密集向量,其中語義相似性映射為幾何接近性,部分解決了這一局限。
研究人員將這些技術應用於金融語料庫並取得了有前景的結果。在法說會記錄上訓練Word2Vec可以捕獲領域特定的關係:「revenue(營收)」的向量接近「sales(銷售)」和「top-line(營收線)」,而「restructuring(重組)」與「layoffs(裁員)」和「impairment(減損)」聚類在一起。這些嵌入可以在文件中取平均值,生成比簡單詞頻統計捕獲更多細微差別的文件級情緒分數。
Ke, Kelly, Xiu (2019)在其關於使用文本資料預測報酬率的有影響力的論文中進一步發展了這一方法。他們開發了一種監督式學習方法,繞過構建情緒詞典的中間步驟,直接估計報紙文章文本與後續股票報酬率之間的關係。該方法結合了類似嵌入的文本表示和懲罰回歸,生成的樣本外報酬率預測在現有資產定價因子之外增加了顯著的解釋力。關鍵發現是,基於文本的報酬率預測在1至5天的期限內最強,在更長期限內顯著衰減。
Transformer革命:FinBERT和大語言模型
以BERT(Devlin et al. 2019)為起點的Transformer架構的引入代表了質的飛躍。與嵌入不同,Transformer處理整個序列,捕獲長程依賴關係、否定、條件語句和複雜的修辭結構。Transformer可以區分「我們期望強勁成長」和「我們不期望強勁成長」,因為它處理的是完整的上下文窗口而非單個詞彙。
FinBERT(Araci 2019)將BERT架構專門適配於金融文本。在大規模金融新聞和通訊語料庫上預訓練的FinBERT,在金融情緒分類任務上的準確率大幅高於詞典方法和通用BERT。在使用金融短語庫資料的標準基準測試中,FinBERT根據共識閾值達到85%至97%的準確率,而詞典方法約為70%。
Bloomberg的專有模型BloombergGPT(Wu et al. 2023)在通用和金融文本的混合上訓練,證明了大語言模型可以在與專門模型相當或更高的水準上執行金融NLP任務,同時處理更廣泛的任務範圍。最近,在金融語料庫上微調的開源LLM已在情緒任務上接近或達到FinBERT級別的性能,同時提供更大的靈活性。
實際結果是準確度與成本之間的權衡。FinBERT在單個GPU上幾秒鐘內處理一份10-K文件。用大語言模型處理同一份文件的運算成本高出10至100倍,時間也顯著更長,但可能從FinBERT遺漏的複雜敘事結構中提取額外訊號。大多數生產系統採用分層方法:對全部投資組合進行快速的詞典或FinBERT篩選,然後對高確信度訊號的子集進行更深入的LLM分析。
資料來源及其特徵
文本來源的選擇與模型選擇同樣重要。不同的來源在時效性、覆蓋範圍、訊號強度和雜訊之間提供不同的權衡。
| 資料來源 | 時效性 | 覆蓋範圍 | 訊號強度 | 主要挑戰 |
|---|---|---|---|---|
| 新聞源(Reuters, Dow Jones) | 秒級 | 廣泛 | 中等 | 已被快速定價 |
| 法說會記錄 | 季度 | 覆蓋公司 | 高 | 頻率低;取得延遲 |
| SEC文件(10-K, 10-Q, 8-K) | 季度/事件 | 所有上市公司 | 中-高 | 套話;法律約束 |
| 社群媒體(Reddit, StockTwits) | 即時 | 偏向散戶股 | 波動 | 極端雜訊;操縱風險 |
| 分析師報告 | 事件驅動 | 覆蓋公司 | 中等 | 取得成本;覆蓋偏差 |
新聞源提供最高頻率,但也呈現最具挑戰性的訊號提取問題。在新聞文章發布時,其資訊內容的大部分可能已經反映在價格中,特別是對於擁有廣泛分析師覆蓋的大型股。殘餘訊號往往存在於語言的微妙差異中,而非標題事實中。
法說會記錄已成為基於NLP的alpha最豐富的來源之一。問答環節特別有價值,因為管理層對分析師提問的回答比準備好的發言更少被腳本化,更可能揭示關於公司前景的真實資訊。研究表明,管理層回答的語言複雜性、對沖性語言的使用以及偏離典型表述模式都預測了後續報酬率和盈餘意外。
來自Reddit的r/wallstreetbets和StockTwits等平台的社群媒體資料提供即時散戶情緒,但存在嚴重的雜訊問題。訊噪比低,操縱常見,覆蓋範圍嚴重偏向熱門股票的子集。儘管如此,彙總的社群媒體情緒在散戶交易佔總成交量較大比例的中小型股空間中顯示了對短期報酬率的預測力。
alpha生成的實證證據
累積的證據支持文本訊號作為真正的alpha來源,但在期限、容量和衰減方面有重要的注意事項。
Tetlock(2007)確立了基礎性結果:媒體悲觀情緒在日頻率上預測市場報酬率的下行壓力。Tetlock, Saar-Tsechansky, Macskassy (2008)將其擴展到個股,表明公司特定新聞報導中負面詞彙的比例預測了盈餘和報酬率。
Ke, Kelly, Xiu(2019)證明,監督式學習的文本預測為個股生成月度樣本外R平方值1%至2%,這在經濟上是顯著的。他們的文本因子在多空投資組合中取得了年化約0.7的夏普比率,與傳統量化因子相比具有競爭力。至關重要的是,文本因子與現有因子基本正交,意味著它捕獲了真正的新資訊。
Jiang, Kelly, Xiu (2023)透過測量文本資料與預期報酬率橫截面的關係,擴展了從新聞中重新提取資訊的文本方法,發現應用於文本資料的神經網路模型可以顯著改善報酬率預測。
訊號期限通常較短。基於文本的報酬率預測在1至5天的期限內最強,大部分預測力集中在發布後的1至3天。超過一週後,隨著資訊被納入價格,訊號迅速衰減。這種快速衰減意味著文本策略需要低延遲實施並產生相對較高的週轉率。
訊號衰減與容量約束
文本訊號的短期特性引發了關於容量和實施的重要問題。
新聞情緒的訊號衰減最快,因為新聞是最廣泛傳播和最快被處理的文本來源。從路透社標題得出的情緒訊號在大型股中可能具有分鐘到小時的半衰期,因為演算法交易系統專門設計用於提取和交易新聞情緒。對於小型股和流動性較低的市場,衰減較慢,為系統化策略捕獲訊號提供更多時間。
法說會情緒衰減較慢,因為電話會議記錄延遲提供(通常在電話會議後30分鐘到幾小時),且訊號嵌入在語言細微差別中而非標題事實中。然而,季度頻率限制了可交易訊號的總數。
文本策略的容量估計難以精確確定,但一般表明這些策略在中等規模下效果最佳。美國大型股的純新聞情緒策略可能具有數億美元的容量,而非數十億美元,因為訊號短暫且在任何給定時間集中在相對較少的股票上。將多種文本來源與更長期限訊號結合的策略可以擴展到更大規模。
競爭格局至關重要。隨著更多量化公司部署NLP模型,處理新文本的先發優勢正在減弱。軍備競賽已從是否使用NLP轉向模型能以多快和多準確地提取訊號。以秒為單位的延遲優勢可以轉化為有意義的績效差異。
構建生產級NLP管道
用於量化交易的生產級NLP管道通常包括幾個階段。第一,資料取得:為所選文本來源確保可靠的低延遲資料流。第二,前處理:清洗、分詞和規範化文本。第三,特徵提取:應用所選模型(詞典、嵌入或Transformer)將文本轉換為數值特徵。第四,訊號構建:將文本特徵與其他alpha來源結合,應用衰減函數,構建可交易訊號。第五,投資組合整合:將訊號與傳統量化因子一起輸入投資組合最佳化器。
模型選擇取決於使用場景。對於延遲至關重要的即時新聞處理,詞典方法或在專用GPU上運行的輕量級FinBERT模型是首選。對於可以接受數小時處理時間的季度文件或法說會的深度分析,更大的Transformer模型或LLM可以提取更細微的訊號。
文本策略的風險管理需要關注幾個特定的失敗模式。情緒模型可能被諷刺、反語和隨時間變化的領域專用術語所欺騙。文本事件(法說會發布、突發新聞)周圍的市場微觀結構可能造成逆向選擇和滑價,侵蝕理論上的alpha。語言模式的機制變化,如監管變化後更加謹慎的企業溝通轉向,可能導致模型退化。
前沿:多模態與即時LLM分析
量化金融中NLP的當前前沿涉及三個發展方向。第一,將文本與其他資料類型結合的多模態分析:法說會的音訊特徵(聲帶壓力、說話速度)、以自然語言描述的衛星影像、以及財務報表中的結構化資料。第二,能夠在發布後數秒內處理突發新聞、監管文件和社群媒體貼文的即時LLM分析,在較慢的人類驅動流程反應之前生成可執行的交易訊號。第三,LLM不僅用於情緒評分,還用於從非結構化文本中提取結構化資訊:識別供應鏈關係、映射企業網路、從文件語言中偵測監管風險。
這些發展表明NLP在量化交易中的角色將持續擴大,但根本挑戰不變:文本訊號本質上是短暫的,因為文本是為了被閱讀和採取行動而設計的。NLP情緒分析中的alpha不是來自資訊本身(資訊是公開的),而是來自提取、量化和交易資訊的速度和準確度。
本分析由 Quant Decoded Research 經 QD Research Engine AI-Synthesised — Quant Decoded 的自動化研究平台 — 綜合分析,並經編輯團隊審核確保準確性。 了解我們的方法論.
References
-
Araci, D. (2019). "FinBERT: Financial Sentiment Analysis with Pre-Trained Language Models." https://arxiv.org/abs/1908.10063
-
Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." Proceedings of NAACL-HLT 2019. https://arxiv.org/abs/1810.04805
-
Jiang, J., Kelly, B., & Xiu, D. (2023). "(Re-)Imag(in)ing Price Trends." Review of Financial Studies, 36(8), 3173-3216. https://doi.org/10.1093/rfs/hhad083
-
Ke, Z. T., Kelly, B., & Xiu, D. (2019). "Predicting Returns with Text Data." Working paper. https://ssrn.com/abstract=3389884
-
Loughran, T., & McDonald, B. (2011). "When Is a Liability Not a Liability? Textual Analysis, Dictionaries, and 10-Ks." The Journal of Finance, 66(1), 35-65. https://doi.org/10.1111/j.1540-6261.2010.01625.x
-
Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). "Efficient Estimation of Word Representations in Vector Space." https://arxiv.org/abs/1301.3781
-
Tetlock, P. C. (2007). "Giving Content to Investor Sentiment: The Role of Media in the Stock Market." The Journal of Finance, 62(3), 1139-1168. https://doi.org/10.1111/j.1540-6261.2007.01232.x
-
Tetlock, P. C., Saar-Tsechansky, M., & Macskassy, S. (2008). "More Than Words: Quantifying Language to Measure Firms' Fundamentals." The Journal of Finance, 63(3), 1437-1467. https://doi.org/10.1111/j.1540-6261.2008.01362.x
-
Wu, S., Irsoy, O., Lu, S., Daber, V., et al. (2023). "BloombergGPT: A Large Language Model for Finance." https://arxiv.org/abs/2303.17564