実現ボラティリティ 日本経済学会 2006年10月21日 13:10
Download
Report
Transcript 実現ボラティリティ 日本経済学会 2006年10月21日 13:10
日本経済学会
2006年10月21日
実現ボラティリティ
森棟公夫
京都大学経済学部
45=35+10
13:10-14:00
アウトライン
ボラティリティとは何か?
• 収益率の分散(あるいは標準偏差)
なぜ分散の性質を研究するのか
• 効率的な市場だと,対数価格はランダム・ウォークに従う。
(前期値に乱数が付加されるだけ)
log( p t ) log( p t 1 ) white noise
pt
rt log(
) w hite noise
p t 1
役に立つのか??
•リスク管理
•オプション価格の決定要因
•ボラティリティの取引
2
従来の研究は
•ARCH (ノーベル賞) , GARCH
条件付き不均一分散モデル ,SVなど
(渡辺敏明 ボラティリティ変動モデル 朝倉書店)
実現ボラティリティ(Realized Volatility: RV)とは?
高頻度データを使って計算したボラティリティ推定値,標本分散 (モデル不要)
実現ボラティリティの長所と特徴
•モデルを使わなくて良い。モデルのスペックエラーを避けられる
•容易に計算できる
実現ボラティリティの未解決大問題
•ノイズの影響
実現ボラティリティの将来性
•モデル依存型からモデルに依存しない実現ボラティリティへ:利用度高まる
3
1. ボラティリティ分析の基礎
ボラティリティに関する基礎知識
収益率の図
12
8
4
0
-4
-8
-12
500
1000
1500
2000
2500
RET
5
時系列分析の基礎知識
自己相関係数:同一変数の,t期と(t-k)期の値の相関係
数。無関係なら0,よく似ていると1に近い値を取る。
• 自分のt時点の体重と,一年前の体重の相関係数
kを0とすれば,同じ値だから相関係数は1になる。(図の
最初の棒)
例えば,kとして50以下の正の整数をとり,相関係数をす
べてのkについて計算する,これを自己相関関数という
1 .0
Series : "r"
0 .6
0 .8
時系列の性質自己相関関数に集約
0 .0
0 .2
0 .4
AC F
図は,収益率に時系列構造がないことを示している。つ
まり,効率的市場仮説が支持されている。
0
5
10
Lag
15
20
6
収益率の自己相関関数(k次ラグの相関係数)
0 .0
0 .2
0 .4
AC F
0 .6
0 .8
1 .0
Series : "r"
0
5
10
Lag
15
20
7
ところが,収益率の分散を見てみると,一定とは言えない。
収益率の図をみると理解できるように,収益率の散らば
りの幅は時間と共に変化し,かつ,大きな散らばりは固
まって現れる。これをボラティティ・クラスタリングという。
図 1: 標 準 化 され た日 次 収 益 率
6
4
2
0
-2
-4
-6
0
500
1000
1500
2000
2500
8
ボラティリティが観測できないので,収益率の二乗の自
己相関関数を求める
• 有意な相関がみつかる。自己相関係数に時系列構造が生じる。
ボラティリティ・クラスタリングとは,このような時系列構造。
0 .0
0 .2
0 .4
AC F
0 .6
0 .8
1 .0
Series : "rr"
0
5
10
Lag
15
20
9
ボラティリティ推定法
ARCH, GARCH, SVモデルなど盛りだくさん。
収益率式とボラティリティ式の二式で構成
• 第一式は収益率式:
rt h t
1/ 2
ut
• 収益率
• 条件付き分散(ボラティリティ)
• 分散が1のホワイト・ノイズ(確率変数ということ)
rt
ht
ut
11
もう1個の式はボラティリティ式
分散が,「過去」を所与とした上で,上式により表現でき
るとする。これを条件付き不均一分散 (CH)という。これ
は未知
過去への依存具合をモデル化する事が必要。
最もポピュラーなGARCH(1,1)モデルは,
h t a a 1 h t 1 b1 rt 1
2
ノーベル賞を貰ったEngleのARCH(アーチ)は
2
h t a b1 rt 1
12
二式を結びつけるのは条件付き期待値
rt h t
1/ 2
ut
• 過去を条件とした,収益率の条件付き分散は
V ( rt | p a st ) E ( rt | p a st ) h t E ( u t ) h t
2
2
13
ボラティリティをGARCHで推定
ボラティリティーは観測不可能
先のGARCH(1,1)の推定をする。図の収益率上下の黒線は2シグマ線で,
GARCH推定により得られる。通常2シグマ線は均一分散で,直線
収 益 率 と 2 シ グ マ (G A R C H推 定 )
15
10
5
0
1
51
101
151
-5
-10
14
15
ボラティリティ研究の新展開:
実現ボラティリティ(Realized Volatility,RV)
一日に数十個の日中観測値があれば,一日当たり収益
率と,日中収益率の標本分散=RVが計算できる。モデル
不要!!これが重要!!
理論的な根拠
• Merton (1980)、高頻度のデータから求まる標本分散によって,
任意の時間の条件付き分散が正確に推定できる
2
t
1
nt
nt
( ri r )
2
i 1
17
例:一日当たり収益率と標本標準偏差
収益率と2シグマ= 2 RV の図
収 益 率 と2 シグ マ(2 標 準 偏 差 )
30
20
10
0
-10
-20
-30
18
実現ボラティリティの長所と短所
初等統計における標本分散だから,計算が容易。
• ボラティリティの性質を直接検討することができる
• 従来は,収益率だけ観測可能→GARCH
漸近分布なども利用可能で,実用性が非常に高い。
従来のARCH,GARCH,SVモデルのような高度の知識
や複雑な計算法が不必要である
問題は
• データのavailabilityが低い。高価!!
• 原系列は使えないので,フィルターしないといけない。
• 観測誤差の影響が大
19
実現ボラティリティの数値例
データの基礎的な性質を求めるために便利
• 収益率は裾厚分布,ボラティリティは長期記憶性
20
絵で見る収益率データ:基礎的な性質
データ:N株に関する2843日分の60分足系列から求めた
標準化日次収益率
図 1: 標 準 化 され た日 次 収 益 率
6
4
2
0
-2
-4
-6
0
500
1000
1500
2000
2500
21
N株
収益率:標準正規密度と比較すれば,
ヒストグラムは裾厚、尖度過剰
図 2: 収 益 率 の 密 度
1
0.8
0.6
0.4
0.2
0
-3.5
-2.5
-1.5
-0.5
0.5
1.5
2.5
3.5
22
N株
RVの時系列を見ると,クラスタリング
収益率の二乗ではなくRVを利用
図 3 R V の 系 列
0 .8
0 .6
0 .4
0 .2
0
0
500
1000
1500
2000
2500
23
N株
収益率をRVで標準化する
収益率を各日のRVで標準化すれば,分布は標準正規に近づく
図 4 標 準 化 lo g(R V )の 密 度
0 .6
0 .4
0 .2
0
- 3 .5
- 2 .5
- 1 .5
- 0 .5
0 .5
1 .5
2 .5
3 .5
24
N株
RVとlogRVの自己相関関数
クラスタリング明らか。また長期記憶性も
• 収益率に関しては自己相関関数は有意な値が無かった。収益率の2乗
については,6次まで有意だった。RVに関しては,50次以上有意
図 6: R V (実 線 )とlog(R V )(点 線 )の A C 関 数
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
60
70
25
長期記憶性の検討
自己相関関数の形状から,長期記憶性が明ら
かになる。
長期記憶性:昔の影響が残る
計算ツールの紹介:差分演算子
ラグ:LXt=Xt-1
一階差分:(1-L)Xt=Xt-LXt =Xt-Xt-1
二階差分:(1-L)2Xt=(1-2L+L2)Xt = Xt-2LXt +L2Xt
= Xt-2Xt-1 +Xt-2
小数差分:dが小数だと,2項展開して
(1-L)dXt=Xt +
( 1)
i 1
i
d ( d 1)
( d i 1)
i!
X ti
27
定常性(Stationarity)のまとめ
定常性?Cov(Xt Xt-k)が,時間差kに依存,時点tに依存しない
{Xt} t=1,2,….,T が定常: 原系列が定常
• ARMA (後で紹介)
{(Xt-Xt-1)} ={(1-L) Xt} t=1,2,….,T が定常:差分が定常
• ARIMA
• ARIMA=ARMA×I
小数和分 {(1-L)dXt} t=1,2,….,T が定常:小数差分が定常
• ARFIMA あるいは FARIMA (後で紹介)
• ARFIMA=ARMA×FI
全て分析法が異なる。検定によって調べる。
28
1.
通常の時系列は,原系列 {Xt} が定常。
定常性とは,Cov(Xt Xt-k)が,kに依存し,時点tに依存しないといった性質。
2. 1985-1995年に集中的に研究された単位根系列あるいは和分
過程{Xt}は,(Xt-Xt-1)= (1-L) Xtが定常。ランダムウォーク
一階の差分を取ると定常になる,といわれる。
Granger ノーベル賞
3. 長期記憶過程{Xt}とは小数和分過程ともいわれるが,小数dに
関して, {(1-L)dXt} が定常になる。小数差分が定常
特にd<0.5なら,定常な長期記憶過程となる。
• 参考:蓑谷千凰彦「金融データの統計分析」東洋経済新報社
29
長期記憶性検定 (N株に関する検定結果:0<d<0.5)
修正R/S検定:
• RVは3.9で1%有意,対数RVに関しては5.3でやはり1%有意と
なる
GPH検定:
• RVに関するdは0.36,検定統計量は3.6で1%有意,したがって
定常な長期記憶となる
ハースト係数:
• RVのハースト係数は0.70,対数RVは0.79となり,ともに定常な
長期記憶という結果になる
局所Whittle検定:
• R/S検定の結果と変わらない
パラメトリックモデルの推定:
• 定常な長期記憶という結果になる
30
GARCHなどとRVを比較する
比較の基準:予測平均平方誤差(MSPE)
予測にはモデルが必要。
比較のためのMSPE基準
比較の基準はMSPE(予測の平均平方誤差)
1
1000
t 1843,2842
2
t |t 1
R Vt
2
データ:RVデータは日次で2842個,その内最初の1842日を
用いて推定を行い,まず1843日目だけの一日予測をする。
推定を日々アップデートし,一日予測を1000回繰り返す
RVについても,過去データを推定し,t期のRVを予測する。そ
れをt期の観測値と比較。
32
予測のためのモデルの紹介
GARCH(ボラティリティ h t 観測不可)
収益率式
rt h t
1/ 2
ut
h t a a 1 h t 1 b1 rt 1
ボラティリティ式
2
• RVに関するARMA法 (古典的な時系列法)
収益率式
使わない
ボラティリティ式
ht a 2 d 1ht 1 d 2 ht 2 error
33
RVに関するARFIMA(FARIMA)
長期記憶を扱うためのARMAの改良
ARFIMA=ARMA×FI(小数和分)
• ARFIMAモデルが一番良いということになっている。ABDL論文
– Andersen, Bollerslev, Diebold, Labys (2003) ‘Modeling and
Forecasting Realized Volatility’ Econometrica 71 529-626
34
RVに関するARFIMA(FARIMA)
ARFIMA
• 収益率式使わない
• ボラティリティ式
(ARMAの拡張)
d
d
d
(1 L ) h t a 2 d 1 (1 L ) h t 1 d 2 (1 L ) h t 2
e rro r
35
このような諸推定法の比較を行った
•
•
•
•
EGARCH (追加)
GARCH
ARMA
FARIMA
• これらのモデルのMSPEを比較
36
表1
予測平均平方誤差(MSPE)の比較
37
最初の4モデルの比較
結果:
GARCHよりRVを使うARFIMAがはるかに優れている
• これはABDLの再確認
しかし,RVだけの系列を使った一変数分析。収益率
RETを利用していない。RETとRVの両方使うには
VAR(複数ARMA)が適切
38
VAR
VARモデル
ret t a1 b1ht 1 b2 ht 2 c1 ret t 1 c 2 ret t 2 error
ht a 2 d 1ht 1 d 2 ht 2 e1 ret t 1 e 2 re t t 2 err or
VARを考えると,収益率とボラティリティ間の,Leverage
効果も容易に分析できる。 Leverage =Causality,共相
関関数の分析が利用できる。
39
レバレッジは?
A u to c o rre la tio n s w ith 2 S td .E rr. B o u n d s
C o r(R E T ,R V (- i))
C o r(R E T ,R E T (-i))
.3
.3
.2
.2
.1
.1
.0
.0
-.1
-.1
-.2
-.2
-.3
-.3
10
20
30
40
50
60
70
80
90
10
100
20
30
40
50
60
70
80
90
100
80
90
100
C o r(R V ,R V (- i))
C o r(R V ,R E T (- i))
.3
.3
.2
.2
.1
.1
.0
.0
-.1
-.1
-.2
-.2
-.3
-.3
10
20
30
40
50
60
70
80
90
100
10
20
30
40
50
60
70
40
VARFIMA
収益率式とボラティリティ式のVAR(2式のARMA)。しか
し,小数和分はどうするか??小数差分を取る
長期記憶を処理
• ボラティリティに小数差分表現を使う。簡単なモデルは
ret t a1 b1 (1 L ) h t 1 b2 (1 L ) h t 2
d
d
c1 ret t 1 c 2 re t t 2 error
(1 L ) ht a 2 d 1 (1 L )
d
d
h t 1 d 2 (1 L )
d
ht 2
e1 ret t 1 e 2 ret t 2 err or
41
この式の推定は困難
そこで,小数差分を展開して,有限項で近似する。
• 展開は
(1 L ) h t ( 1)
d
i
d ( d 1)
( d i 1)
i!
i0
ht i
• VAR式は
(1 L ) h t a 2 d 1 (1 L ) h t 1 d 2 (1 L ) h t 2
d
d
d
e1 re t t 1 e 2 ret t 2 err or
42
各 (1 L )
( 1)
i
d
を展開すると,
d ( d 1)
( d i 1)
i!
i0
d 1 ( 1)
i
d ( d 1)
+ d 2 ( 1)
i0
i
( d i 1)
i!
i0
ht i a 2
d ( d 1)
( d i 1)
i!
h t 1 i
ht 2 i
e1 ret t 1 e 2 r et t 2 error
43
この式を整理して
200 ?
ht a 2
i 1
i h t i e1 ret t 1 e 2 ret t 2 error
44
係数に関する制約
係数には制約が含まれる
1 d d1
2
3
d (1 d )
2
d 1d d 2
d (1 d )( 2 d )
3!
d1
d (1 d )
2
d 2d d 3
など,高次まで続く。
推定は,係数制約を無視して最小2乗法で行う。独立変
数の数は211個,一日毎のupdate推定を1000回繰り返
して,MSPEを求めた。
45
表1
5
予測平均平方誤差(MSPE)の比較
RV +収益率
VAR-FIMA
RV=200, RET=10
132%
217
46
結論
この報告では,最近のボラティリティ研究を概説した
RVに関する計算例を示したが,長期記憶性に関す
る性質を含め,最近の諸結果を追認するものとなる
RVに関する応用は,ボラティリティ値が容易に推定
可能になるため,ティックデータの利用可能性が高
まるにつれ急速に広まっていくと予想される
予測では,VARFIMA=高次VARMAが最も優れてい
る
RVを利用する際の最大問題は観測ノイズの処理だ
が,これは困難な諸問題を含む
47