From News to Forecast: Integrating Event Analysis in LLM-Based Time Series Forecasting with Reflection

https://arxiv.org/pdf/2409.17515


Abstract

Core Idea

  • What? Text + TS reasoning 기반 forecasting
  • How? LLM + Generative Agents를 활용
  • Details: Language를 매개로 social events를 TS 변화와 align


Method

  • LLM-based agents가 news를 반복적으로 필터링하여 irrelevant news 제거
  • human-like reasoning으로 예측 결과를 평가하고 selection logic를 지속적으로 개선
  • unexpected events, social behavior shifts 같은 복잡한 사건 처리 가능


Model Integration

  • 선택된 news events + TS data를 결합
  • Pre-trained LLM을 fine-tuning하여 digit sequence prediction 수행


1. Introduction

(1) Background

Motivation

  • 기존 TSF은 distribution shift, sudden disruptions, external events에 취약
  • Social events와 TS fluctuation 간의 연결을 체계적으로 다루지 못함


Role of News

  • unexpected incidents, **policy changes, **public sentiment shifts를 반영
  • Quantitative TS가 포착하지 못하는 non-linear, non-numeric influences 제공
  • Real-time context + Qualitative signals로 예측 안정성과 정확도 향상


(2) LLM-based Forecasting Formulation

  • Textual Prompt
    • News + supplementary informationtextual prompts로 TS에 통합
  • Next Token Prediction (NTP)
    • TSF을 next-token prediction 문제로 변환
  • Pre-trained LLM의 inductive reasoning과 multi-modal distribution modeling 활용
  • Few-shot TS prediction 가능


(3) LLM Agents for News Filtering

  • Dynamic news selection이 핵심 과제
  • (단순 keyword 기반이 아닌) human-like reasoning 필요
  • LLM agents가 few-shot learning으로 상황별 뉴스 중요도 판단
  • 결과: Relevant news + TS를 결합한 context-aware dataset 구성


(4) Iterative Self-Reflection

  • LLM agents가 forecast error ↔ news relevance를 비교하며 selection logic 개선
  • CoT prompting으로 누락된 핵심 이벤트 식별
  • External factors가 예측에 미치는 영향 구조적으로 분석


(5) Contributions

  • Unstructured news + numerical TS 통합 forecasting framework 제안
  • LLM agents 기반 news reasoning 및 filtering 도입
  • Multidomain dataset 구축


figure2


2. Related Works

(1) TSF

  • 외부 contextual / external factors는 여전히 충분히 반영 X

  • Text 활용 시도는 존재하나

    • Keyword count, dummy variable 중심
    • Sentiment, word frequency 기반 feature engineering 필요
    • Long-text dependency와 deep contextual understanding 한계
  • LLM은 자동 feature extraction과 context-aware text understanding에 강점

    $\rightarrow$ But, LLM의 text 이해 능력을 TSF에 완전히 활용한 연구는 부족

(2) LLM for TSF

  • GPT, LLaMA는 general knowledge와 reasoning 능력을 학습
  • LLM 기반 TS 접근
    • TEMPO: GPT 기반 temporal representation
    • TimeLLM: reprogramming + Prompt-as-Prefix
    • FPT: frozen LLM 활용
    • Lag-LLaMA: decoder-only probabilistic forecasting
    • next-token prediction 관점의 TS modeling
  • 한계점?
    • 기존 연구는 주로 numerical regression mapping에 집중
    • External textual input & Language reasoning은 활용되지 않음


(3) Reasoning with Language Models

  • Chain-of-Thought (CoT): 단계적 reasoning 강화
  • Tree-of-Thoughts (ToT): 탐색·검증 기반 multi-round reasoning
  • LLM agents: feedback 반영, memory 활용, self-reflection
  • LATM: tool 생성과 reasoning/action interleaving
  • Multi-agent debate로 reasoning 품질 향상
  • 기존 reasoning 연구는 TSF과의 결합은 미흡


3. Methodology

figure2


Overall Framework

  • 목표: News insights + TS 통합 forecasting
  • 핵심 과제
    • a) Unstructured news 처리
    • b) News–TS 간 relevance filtering
    • c) Reasoning 오류에 대한 iterative refinement
  • 구성 요소
    • LLM-based forecasting module
    • Reasoning agent
      • for news filtering & inference
    • Evaluation agent
      • for self-reflection and refinement


(1) Rethinking TS Forecasting Problem and Elements.

a) TS as Conditional Generation

TS forecasting을 conditional sequence generation으로 재정의

  • LLM은 TS를 digit token sequence로 처리
  • Autoregressive modeling: $P(x_{t+1} \mid x_{0:t})$


Pre-trained LLM의 few-shot TS capability 활용

Textual prompt를 통한 TS conditioning 가능성 제시


b) News as Contextual Condition

News event E는 TS 변화의 causal context 제공

Event-conditioned forecasting: $P(x_t \mid x_{0:t}, E)$

  • news를 text tokens로 표현하여 LLM 입력으로 통합
  • multi-event context를 동시에 conditioning 가능
  • prompt engineering으로 TS + news 결합


c) Supplementary Information

  • weather, climate, finance 등 additional context
  • supplementary info도 conditional variable로 취급
  • 수치 정보를 natural language text로 변환하여 입력


d) Fine-Tuning LLMs for TS Forecasting

(Pre-trained LLM의) few-shot 예측의 한계?

  • Long digit sequence 제어 어려움
  • News–TS 관계 학습 부족


Supervised instruction tuning으로 conditional forecasting 학습

  • Input: TS + news + supplementary info

  • Loss: (Pre-training과 동일한) next-token prediction

  • LoRA 적용


(2) Analytical Agent for Aggregation and Reasoning of Contextual News Information

a) Motivation

(1) TS–news matching의 한계점?

  • noise가 많은 internet news 이슈!!

    $\rightarrow$ Irrelevant news는성능을 저하시킴


(2) Agent의 필요성

  • Relevance + causality 판단이 필요함

  • 이를 위해서는, societal knowledge + logical reasoning 필요

    $\rightarrow$ But, 단일 LLM generation으로는 불충분

    → 해결책: Agent-based multi-step reasoning


b) TS–News Pre-Pairing

  • 기준: time frequency, forecasting horizon, geography
  • 지역·기간 정렬을 통한 candidate news 1차 필터링
  • crawler 기반으로 scalable한 rough selection 수행


c) Reasoning Agent for News Selection

  • LLM-based reasoning agent 활용
  • 역할 정의된 prompt로
    • Screening
    • Categorization
    • Interpretation 수행
  • Few-shot + Chain-of-Thought (CoT) 적용
  • Multi-step reasoning으로 complex relevance 판단


d) Three-Phase Prompting Strategy

  • a) Influencer Modeling
    • TS 영향 요인 식별
    • positive / negative, short-term / long-term 분류
    • economic, policy, seasonal, technological factors 고려
  • b) News Filtering & Categorization
    • 자동 생성 or 사전 정의된 reasoning logic 사용
    • relevance 및 impact type 분류 + rationale 생성
  • c) Structured Output
    • JSON 형식
    • summary, region, time, rationale 포함


e) Automated vs Guided Reasoning

  • Open-ended prompt로 agent가 자체 reasoning logic 생성 가능
  • domain knowledge를 prompt에 주입하여 guided reasoning 가능
  • 자동 logic과 user-provided logic 모두 지원


f) Evaluation Agent for Reasoning Update

  • Reasoning agent 단독 사용의 한계 인식
  • Forecasting 결과 기반 평가 수행
  • 단순 metric이 아닌 human-like logical analysis
  • prediction error 패턴을 통해 missing or overlooked news 식별
  • news filtering logic를 feedback loop로 업데이트


g) Evaluation Prompt Phases

  • Task Understanding

    • Forecasting task, horizon, background 입력
    • Evaluation steps 생성
  • Error Analysis

    • Loss(y_pred, y_gt_
    • Selected + historical news 분석
  • Logic Refinement

    • Error–event 관계 기반 logic 업데이트
    • Validation 전체를 종합하여 final reasoning strategy 도출

Updated: