第2部 - 京都大学

Download Report

Transcript 第2部 - 京都大学

集中講義(九州大学数理学研究院)
バイオインフォマティクスにおける
カーネル法およびグラフ理論 (2)
カーネル法
阿久津 達也
京都大学 化学研究所
バイオインフォマティクスセンター
内容



サポートベクタマシンとカーネル法
タンパク質配列分類のためのローカルア
ライメントカーネル
化合物分類のためのグラフカーネル
サポートベクターマシン(1)




カーネル法の一つ、ニューラルネットワークと類似
1990年代に、Cortes と Vapnik が発明
トレーニングデータとして与えられた正例と負例から、
それらを分離する超平面を計算
機械学習、統計学、人工知能、パターン認識、バイオ
インフォマティクスなど様々な分野に応用






配列分類
タンパク質フォールド予測、二次構造構造
遺伝子発現データ解析
タンパク質相互作用予測
化合物の性質推定
c.f. Kernel Methods in Computational Biology, MIT Press,
2004
サポートベクターマシン(2)


正例と負例を与
えて、それらを最
適(マージンを最
大)に分離する超
平面を学習
カーネルを適切に
定義することによ
り超平面以外で
の分離が可能
margin
SVMによるテストデータの分類


学習データより超平
面を学習(SVM)
テストデータは、対
応する点の超平面
に対する位置(上
下)で判定
テストデータ
カーネル




サポートベクターマシン:基本的には超平面で分離
Φ(x) (特徴ベクトル):「非線形曲面⇒超平面」に写像
カーネル: K(x,y)=φ(x)・φ(y)
x と y の類似度が高い ⇔ K(x,y)が大
φ(x)
カーネルの定義

関数 K: X×X→ R がカーネル
iff.
X から内積空間 F への写像φが存在し、
K (x, y )   (x)   (y )
とかける
マーセルの定理 (1)


X を有限空間とし、K(x,y) を X 上の対称関
数とすると、
K(x,y) がカーネル
iff.
行列 K=(K(xi,xj)) (i, j=1,…,n) が半正定値
行列 K が半正定値 iff.
K の固有値がすべて非負 iff.
(x) (xtKx  0)
マーセルの定理 (2):証明


K は対称なので、K=VΛVt とかける。ただし、Λは固
有値λi を対角要素とする対角行列で、V は直交行列。
vij=(V)ij とし、  (x )   v n
とすると
i

k

ki k 1
n
 (x i )   (x j )   k vki vkj  (V Λ V )ij  K (x i , x j )
t
k 1

一方、λs を負の固有値とし、
とすると、
n
z   vsi (x i )  Λ V t v s
i 1
z  z  v V Λ ΛV v s  v Kv s  s  0
t
s
t
t
s
マーセルの定理 (3):連続値の場合

K(x,y) がカーネル iff.
任意の関数 fL2(X) に対して
K
(
x
,
y
)
f
(
x
)
f
(
y
)
d
x
d
y

0

カーネルの性質(1)

K(x,y)=φ(x)・φ(y) のとき、特徴ベクトル間の距
離 ||φ(x)-φ(y)|| は
 ( x)   ( y ) 
K (x, x)  K (y , y )  2 K (x, y )

証明
 ( x)   ( y ) 
2
 (x)   (x)   (y )   (y )  2 (x)   (y )
カーネルの性質(2)

Ki が以下を満たす時、K もカーネル
x, y  X , lim K n (x, y )  K (x, y )
n 
カーネルの例(1)

(x・y+c)d はカーネル

証明(d=2, c=0の場合)
(x  y )  ( x1 y1  x2 y2 )
2
2
 x1 x1 y1 y1  x2 x2 y2 y2  2 x1 x2 y1 y2


 x1 x1 , x2 x2 , 2 x1 x2  y1 y1 , y2 y2 , 2 y1 y2

カーネルの例(2)



K1, K2 がカーネルの時、以下もカーネル
(i)
K1 (x, y )  K 2 (x, y )
(ii)
a K1 (x, y )
(iii)
K1 (x, y ) K 2 (x, y )
(a  0)
(i)(ii)より、カーネルの正係数の線形和もカーネル
(i)(ii)(iii)より、カーネルの正係数の多項式もカーネル
カーネルの例(3)
(i) f(x): X →R ⇒ f(x) f(y) はカーネル

証明
n
n
 v v K (x , x
i 1 j 1
i
j
i
n
j
n
)   vi v j f (x i ) f (x j )
i 1 j 1

 n
 n
   vi f (x i )   v j f (x j )   0
 i 1
 j 1

(ii) exp(K(x,y)) はカーネル

略証: 指数関数は正の係数を持つ多項式により任意の精度
で近似でき、また、カーネルの多項式もカーネルとなるため、
性質(2)によりカーネルとなる
カーネルの例(4)

exp(-||x-y||2/σ2) はカーネル
(Gaussian RBF kernel)

証明
 xy
exp  
2



2




 x2
 y2
 2x  y 




exp  2 exp  2 exp  2 
  
  








最初の二項の積は例(3-i)によりカーネル、
最後の項は例(3-ii)によりカーネル、
それらの積は例(2-iii)によりカーネル
カーネルの例(5)

以下は必ずしもカーネルとはならない
(i)
K ( x, y )

(ii)
log K (x, y ) 
(iii)
K (x, y )  tanh( ax  y   )
(シグモイドカーネル)
サポートベクターマシン: 定式化(1)

学習データ: Rd 上の点とラベルのペアの集合

S  (x i , yi ) | x i  R , yi {1,1}


yi=1 ⇒ 正例
d

yi=-1 ⇒ 負例
最適化問題 (凸二次計画問題)
minimize w  w
w ,b
subject to yi (w  x i  b)  1


(w,b): Rd 上の超平面 h: w・x+b=0 に対応
1/||w||: h から一番近い xi までの距離(=margin)
サポートベクターマシン: 定式化(2)
  1/ w
サポート
ベクター
γ
minimize w  w
(w  xi  b)  1
w ,b
subject to
yi (w  x i  b)  1
( w  x i  b)
h
(w  xi  b)   1
1
( w  x  b)
( w  x i  b)
 1
0
サポートベクターマシン: 双対化(1)

問題の双対化

(|S|=l)
もとの問題のラグランジアンは
L(w, b, α)  w  w  i 1i  yi (w  xi  b) 1
l
1
2


w と b について微分をとり
L(w, b, α )
l
 w  i 1 yi i x i  0
w
L(w, b, α )
l
 i 1 yi i  0
b
上記をもとのラグランジアンに代入し
L(w, b, α)  i 1 i 
l
1
2
 
l
l
i 1
j 1
yi y j i j xi  x j
サポートベクターマシン: 双対化(2)

双対問題 (凸二次計画問題)


l
maximize
i 1
α
subject to
i 
l
i 1
1
2
 
l
l
i 1
j 1
yi y j i j x i  x j
yi i  0
i  0

マージン
1
l
*
*
  * , where w  i 1 yi i x i
w
サポートベクターマシン: 双対化(3)

KKT相補条件
サポート
ベクター
i yi (w*  xi  b* ) 1  0
*

サポートベクター
xi がサポートベクター
⇔ αi * > 0


h
超平面 h
w *  x  b* 

l
i 1
0
yi i x i  x  b
*
*
γ
サポートベクターマシン: カーネル化

xi・xj を K(xi, xj) で置換 (← K(xi, xj) =φ(xi)・ φ(xj) )
maximize
α
subject to





i
i 1
l
l
i 1
 
l
i  0
(SV:サポートベクターの集合)
w x  b 
*
 y
xi SV
i
*
i
K ( x i , x)  b
b*  

y
y


K
(
x
,
x
)
i
j
i
j
i
j
j 1
l
i 1
yi i  0,
識別関数
*
1
2
*
max yi 1 w*  xi  min yi 1 w*  xi
2
利点: 特徴ベクトルを陽に扱わずに、カーネル値のみ
が計算できればOK ⇒ カーネルトリック
ソフトマージン(2-ノルム)

正負例が完全には
分離不可の場合

スラック変数 ξi の導入
h
ξi
min w  w  C  
ξj
subject to
xj
l
w ,b
2
i 1 i
yi ( w  x i  b )  1   i
i  0
xi
xk
ξk
γ
ソフトマージン(2-ノルム): 双対化+カーネル化
maximize
α
 
  y y   K (x , x
 y  0
l
i 1
1
2
subject to
i
l
l
i 1
j 1
l
i 1
i
i  0
i
i
j
i
j
i
1

)

j
C  ij
ソフトマージン(1-ノルム)

1-ノルムの場合、二
乗和でなく、線形和
をとる
h
ξi
min w  w  C i 1  i
ξj
subject to
xj
l
xi
w ,b
yi ( w  x i  b )  1   i
i  0
xk
ξk
γ
ソフトマージン(1-ノルム): 双対化+カーネル化

maximize
α
l
i 1
1
2
subject to

i 
 
l
l
i 1
j 1
y


0
i
i
i 1
l
0  i  C
yi y j i j K (x i , x j )
カーネル法


古くから多くの研究
SVM以外にも様々な応用


KPCA: カーネル主成分分析
KCCA: カーネル正準相関分析
SVMによる多数のクラスの分類法(一例)

各クラスごとにSVMを構成


そのクラスの例を正例、それ以外の例を負例とする
新たなデータをそれぞれのSVMに入力し、スコ
アが最も良いクラスを出力
実問題に対するカーネル
データから特徴ベクトル(feature vector)を
作るのが一般的、かつ、
多くの場合に実用的
 特徴ベクトル: 実数値の列
 例えば、各化合物 x に対し、


Φ(x) = (分子量, 容積, 表面積, logP,…)
とすれば、化合物 x,y に対するカーネルは
Φ(x) と Φ(y) の単なる内積
内容



サポートベクタマシンとカーネル法
タンパク質配列分類のためのローカルア
ライメントカーネル
化合物分類のためのグラフカーネル
タンパク質立体構造予測



アミノ酸配列から、
タンパク質の立体
構造(3次元構造)
をコンピュータによ
り推定
実験よりは、精度が
悪い
だいたいの形がわ
かれば良いのであ
れば、4~5割の予
測率
アミノ酸配列
T C A V F G L G G V R L S D
V
コンピュータ
タンパク質
立体構造
フォールド予測 (Fold Recognition)
アミノ酸配列


精密な3次元構造
ではなく、だいたい
の形(fold)を予測
立体構造は1000
種類程度の形に分
類される、との予
測(Chotia, 1992)
に基づく
T C A V F G L G G V R L S D
V
1000個のテンプレート構造
SCOPデータベース

タンパク質立体構造を形状を中心に、人手で、
階層的に、分類したデータベース
SCOP
Root
‥‥‥‥‥
Class.1 Class.2
‥‥‥‥‥
Fold.1 Fold.2
Super
Super
Family.1 Family.2
Family.1
‥‥‥‥‥
Family.2
mkkrltitlsesvlenlekmaremglsksam
ispqarafleevfrrkqslnskekeevakkcg
isvalenykkgq
itplqvrvwfinkrmrs
Family.3
Super Family 予測

入力配列が SCOP のどのスーパーファミリー
に属するかを予測
Super Family.1
タンパク質配列
madqlteeqiaefkeafslfdkdgdgtittkel
gtvmrslgqnpteaelqdminevdadg
Super Family.2
ngtidfpefltmmark
:
:
Super Family.3
既存手法の主なターゲット
Class
Secondary Structure Prediction
Fold
Threading
Super
Family
HMM, PSI-BLAST, SVM
Family
SW, BLAST, FASTA
配列解析のためのカーネル


配列を実数ベクトルに変換
様々なカーネルの提案

Marginalized kernel, Fisher kernel, Local alignment kernel, …
ACCGTA
φ(x)
CACGTA
TCCGTCC
CCACCG
CCACCGA
TCCGTTC
CTACCA CTACCGG
GACCGTA
GACCTC
AGCGTG
AGCGTAA
TACCGTA
タンパク質配列解析のための既存カーネル

HMMから特徴ベクトルを抽出



配列から直接特徴ベクトルを抽出



Fisher カーネル (Jaakkola et al., 2000)
Marginalized カーネル (Tsuda et al., 2002)
Spectrum カーネル (Leslie et al., 2002)
Mismatch カーネル (Leslie et al., 2003)
他の配列とのスコアを特徴ベクトルとして利用

SVM pairwise (Liao & Noble, 2002)
Spectrumカーネル
AA AC AG
A CCT A C
( 0
φ(x)
2
0
CC CG CT
1
0
1
TA
1
)
配列アライメント




バイオインフォマティクス
の最重要技術の一つ
2個もしくは3個以上の配
列の類似性判定に利用
文字間の最適な対応関
係を求める(最適化問題)
配列長を同じにするよう
に、ギャップ記号(挿入、
欠失に対応)を挿入
A L G F G S L Y G
A L G G V S V G
A L G F G
A L G
S L Y G
G V S V
G
ローカルアライメント(1)
(Smith-Watermanアルゴリズム)



配列の一部のみ共通部分があることが多い
⇒共通部分のみのアラインメント
配列検索において広く利用されている
例えば、HEAWGEH と GAWED の場合、
AWGE
A W -E
というアライメントを計算
ローカルアライメント(2)
動的計画法
の式
0
F ( i  1, j  1)  s ( x y )

,
F ( i , j )  max 
F ( i  1, j )  d
F ( i , j  1)  d
LAカーネル



SWアルゴリズムをカーネルとして利用したい
⇒ MAX 操作のためカーネルとならない
一方、ペアHMMはカーネルとなることが既知
本研究



SWアルゴリズムを模倣するペアHMMを構成
SWアルゴリズム: 最適なパスのみ
LAカーネル:

全てのローカルアライメントの(重みつき)和
隠れマルコフモデル(HMM)


HMM≒有限オートマトン+確率
定義



出力記号集合Σ
状態集合
S={1,2,…n}
遷移確率(k→l)
0.4
0.3
akl

2
1
出力確率
0.5
0.5
ek(b)
A: 0.2
B: 0.8
0.6
3
0.7
A: 0.1
B: 0.9
A: 0.7
B: 0.3
HMMにおける基本アルゴリズム

Viterbiアルゴリズム



出力記号列から状態
列を推定
Parsing(構文解析)
0.4
BABBBAB

出力記号列からパラ
メータを推定
Learning(学習)
0.3
1
0.5
0.7
A: 0.2
B: 0.8
0.6
A: 0.1
B: 0.9
A: 0.7
B: 0.3
0.5
Baum-Welchアルゴ
リズム
(EMアルゴリズム)

2
3
2312131
2
1
0.4
0.3
3
BABBBAB
ABBABBAAB
BBBABBABAB
BAABBBBA
2
1
0.5 0.7
0.5
A: 0.2
B: 0.8
0.6
3
A: 0.1
B: 0.9
A: 0.7
B: 0.3
ペアHMM




2
通常のHMM
1状態から1記
号を出力列
配列を出力
ペアHMM


A: 0.1
C: 0.9
1
2312131
3
A: 0.2
C: 0.8
A: 0.7
C: 0.3
1状態から記
号ペアを出力
アライメントを
出力
CACCCAC
2
(A,-) : 0.5
(C,-): 0.5
1
(A,A): 0.2
(A,C): 0.3
(C,A): 0.4
(C,C): 0.1
2312131
3
(-,A) : 0.5
(-,C): 0.5
C-ACA- A
-AA -CAA
LAカーネルの定義(1)

文字(残基)ペアのスコア: Kaβ (x,y)
if | x | 1 or | y | 1
0
K a ( x, y )  
 exp( s( x, y )) otherwise


ギャップのスコア: Kgβ (x,y)
K g ( x, y )  exp  ( g (| x |)  g (| y |) )

ただし、g (0)  0, g (n)  d  e(n  1)
LAカーネルの定義(2)

カーネルの畳み込み(convolution)
K1  K 2 ( x, y) 


K1 ( x , y ) K 2 ( x , y )
x x  x, y y  y
アラインされる文字が n 個ある場合のスコア



K( n) ( x, y)  K0  K a  K g


 n 1
 K a  K0
ただし、 K 0  1
LAカーネル

K LA ( x, y )   K (i ) ( x, y )

i 0

F V- - EKL GAV- - T
F L L DDRL - - VL L T
Kaβ Kgβ Kaβ Kgβ Kaβ Kgβ Kaβ
n=7
LAカーネルとSWスコアの関係



π:(ローカル)アラ
イメント
s(x,y,π): x,yの
アライメントπの
スコア
Π:可能なアライメ
ントの集合
定理
lim
1
  
SW ( x, y )  max s( x, y,  )
  ( x , y )
 1 ln  max exp(  s( x, y,  )) 
   ( x , y )


K LA
( x, y ) 

 exp(  s( x, y,  ))
  ( x , y )
ln( K LA ( x, y))  SW ( x, y)
LAカーネルとSWスコア


SWスコア: 1個の最適なアライメントのみを考慮
LAカーネル: すべての可能なアライメントを考慮
配列 x
HAWGEG
配列 y
AGEHV
SWスコア
AWGE
A - GE
LAカーネル
π1
AWGE
A - GE
p(x,y,π)=0.003
π2
AWGE
AG - E
p(x,y,π)=0.001
π3 HAWGE
p(x,y,π)=0.0006
π4 HAWGE - G
p(x,y,π)=0.0001
A -G -E
A -G EHV -
SVM-pairwise vs. LA kernel
SVM-pairwise
入力配列
データ
ベース配
列群
特徴ベク
トル
カーネル値
x
LA kernel
y
x
SWスコア
y
Pair HMM
(0.2, 0.3, 0.1, 0.01)
(0.9, 0.05, 0.3, 0.2)
内積
0.227
0.253
SVM-pairwise vs. LA-kernel
Positive and
Negative training
data (sequences)
SVM-pairwise
SWalignment
Single protein
Feature
Vector
(φ(x))
LA-Kernel
Single protein x
Single protein y
Local Alignment
by Pair-HMM
K(x,y)
対角優位性問題への対処



2つの配列 x と y について、K(x,x) と K(x,y)
のスケールが違う問題
この時サポートベクターマシンは正負の例を
記憶するだけでうまく学習できない。
(実際上の)回避法
~

K LA ( x, y )   ln K LA ( x, y )
~
K LA ( x, y )
K norm  ~

1
~

K LA ( x, x) K LA ( y, y )
並列計算機の利用

LA kernel の計算

1回あたりO(n2)時間だが数万回の計算が必要



並列計算機



SGI ORIGIN 3800 (R14000(500MHz) × 256CPU)
PCクラスタ HPC (2.8GHz Xeom × 8CPU)
並列化



学習データ中のすべての配列ペアに対して計算
1CPUだと数十日を要する
LSF (Load Sharing Facility) と script の組み合わせ
単純なデータ分割(分割されたデータごとに別CPUで計算)
半日程度でKernel計算が終了

並列化手法は単純だが、大変有効
提案手法の評価法
ROCによる性能評価
カーブが
上にある
ほど良い
性能
mRFPによる性能評価
カーブが
上にある
ほど良い
性能
結論

タンパク質ホモロジー検出のための新たなカーネル


Smith-WatermanアルゴリズムとペアHMMの組み合わせ
ベンチマークテストにおいては最高クラスの性能
課題

タンパク配列の個数(学習データ数)が少ないスー
パーファミリーの予測
内容



サポートベクタマシンとカーネル法
タンパク質配列分類のためのローカルア
ライメントカーネル
化合物分類のためのグラフカーネル
カーネル法による化合物の分類・性質予測
Marginalized グラフ・カーネル(1)

Kashimaらが2003年に提案
K (G1,G2 )    p(h) p(h')K '(l (h),l (h'))
hV1* h'V2*




h: グラフ G1 におけるパス
h’: グラフ G2 におけるパス
l(h): パス h のラベル(原子名)の列
K’(x,y): ラベル列間のカーネル関数
(例: K’(x,y)=1 if x=y, otherwise 0
)
Marginalized グラフ・カーネル(2)
G1
u3
u1
H
u2
C
O
u4
Cl
G2
v1 v2
H
h  (u1 , u2 , u3 ), h'  (v1 , v2 , v5 ) 
l (h)  (H, C, O), l (h' )  (H, C, O)
K ' (l (h), l (h' ))  1
H
v4
C
v3
v5
O
v6
H
H
h' '  (u1 , u 2 , u3 , u 2 , u 4 ) 
l ( h' ' )  ( H, C, O, C, Cl)
h' ' '  (v1 , v2 , v5 , v2 , v1 ) 
l ( h' ' ' )  ( H, C, O, C, H )
K ' (l (h' ' ), l ( h' ' ' ))  0
Marginalized グラフ・カーネル(3)
x
H
O
C
φ(x)
Cl
H
C
( 0.03 0.03
N
H
C
H
O
C
H
H
C
H
0.0
0.02
0.0
0.01
0.002
)
Marginalized グラフ・カーネル(4)
p(v1 , v2 , v3 ) 
0.25  0.9  0.3  0.1
G1
p(v2 , v4 , v2 , v3 ) 
0.25  0.3  0.9  0.3  0.1
p0 (vi )  0.25
pq (vi )  0.1
pa (v2 | v1 )  1.0
(1  pq ) pa (v2 | v1 )  0.9
pa (v3 | v2 )  1 / 3
(1  pq ) pa (v3 | v2 )  0.3
START
0.25
0.25
0.25
0.25
O
0.3
v1
H
0.3
v2
0.9
C
0.3
0.9
0.9
0.1
v3
0.1
v4
Cl
0.1
END
0.1
Marginalized グラフ・カーネル(5)
p s ( v )  p0 ( v ) p q ( v )
pt (u | v) 
1  pq (v )
pq ( v )
pa (u | v) pq (u )
n
p (v1 ,  , vn )  ps (v1 ) pt (vi | vi 1 )
i2
Marginalized グラフ・カーネル(6)
 s (u1 , v1 )  ps(1) (u1 )  ps( 2 ) (v1 )
 t ((ui , vi ) | (ui 1 , vi 1 ))  pt(1) (ui | ui 1 )  pt( 2) (vi | vi 1 )
n
 ((u1 , v1 )(u2 , v2 )  (u n , vn ))   s (u1 , v1 )  t ((ui , vi ) | (ui 1 , vi 1 ))
i2
G1 u 1
H
G2
Cl
K
O
v1
u2 G1×G2 ( u1 , v1 ) ( u1 , v2 ) ( u1 , v3 )
v2
v3
H
H,K
H,O
H,H
Cl,K
Cl,O
Cl,H
( u2 , v1 ) ( u2 , v2 ) ( u2 , v3 )
Marginalized グラフ・カーネル(7)
K (G1,G2 )    p(h) p(h')K '(l (h),l (h')) 
hV1* h'V2*
 s  ( s (v)) vV (V  V1  V2 )
 t  ( t (u ' | u )) u 'V ,uV


 (h)
h(V1V2 )*
 ( h)   s  ( t )
n 1
1
hV * , |h|  n



 
n 1


K (G1, G2 )  
 (h)    s ( t ) 1


 n 1
n 1 hV * , |h| n

1  x  x 2    1 /(1  x)
  s  ( I  t )1 1


Marginalized グラフ・カーネル⇒逆行列の計算
Marginalized グラフカーネルの問題点

パス(の集合)だけを用いて化学構造を表現


反応中心などの情報を十分に取り入れることが困
難?
行列のサイズが大きく(数千×数千)なるため、
逆行列の計算に時間がかかる

すべてのトレーニングデータのペア(化合物のペア)
について、それぞれ、逆行列を計算することが必要
⇒ 構造情報(Morgan Index)との組み合わせ
Morganインデックス

化学構造の一意名を計算機により計算するために
1960年代に考案



CAS(Chemical Abstract Service)で利用
等価な原子に同じ番号(整数値)が与えられるような、
各原子への番号づけを計算
簡単な繰り返し計算による番号づけ

等価で無い原子にも同じ番号がつく可能性(でも、低い)
⇒ Marginalized グラフカーネルにおいて、原子名ととも
に、モーガンインデックスを利用
原子名およびモーガンインデックスの両者が一致するパス
のみを考慮
⇒ 部分構造に関する特徴も、ある程度、取り入れられる

Morganインデックスの計算法


すべての原子に番号1を割り当てる
すべての原子 x について以下を実行

x に結合している原子の番号を総和を、x の番号とする
1
2
1
1
1
1
1
1
1
1
N
O
1
2
2
1
4
3
2
2
3
2
2
1
5
4
3
7
5
5
7
5
6
7
1
1
N
1
3
N
3
O
O
3
O
O
5
O
計算機実験

MUTAG データを利用





標準的ベンチマークテストの一つ
化合物のサルモネラ菌の変異性への影響データ
125個の正例、63個の負例を利用
各例1個のみをテストデータとし、他を学習データと
したテストを繰り返した
ソフトウェア
SVMソフトとして、GIST
(http://microarray.cpmc.columbia.edu/gist)
を利用
 他は C++ で記述

計算機実験の結果: 予測精度
Marginalized
カーネル
+
モーガン法
計算機実験結果: 他手法との比較
データセット1
データセット2



Lin Reg: 線形回帰、 DT: 決定木、 NN: ニューラルネット
Prolog: 帰納論理プログラミング
Sebag, Kramer: 多くの feature を利用、複雑
計算機実験結果: 計算時間
結論

モーガンインデックスの利用により以下を達成



Marginalizedカーネルと、同様の精度
他手法と比べても同等以上
数十倍以上、高速
今後の課題



他のインデックス手法の利用、開発
他手法との比較
大規模な計算機実験
特徴ベクトルからの化学構造の推定

カーネル法(SVM, etc.)


(Akutsu, Fukagawa, CPM 2005)
データ (配列, 化合物)  特徴ベクトル
本研究


特徴ベクトル  データ
新規配列や化合物のデザイン,創薬への利用の可能性
Inverse function
本研究の結果と応用可能性

理論的成果

文字列の場合  多項式時間で計算可能
木の場合  ある制約のもとで多項式時間で計算可能
グラフの場合  一般には強NP困難

創薬へ応用可能性




A
二つの化合物の中間構造を
持つ新たな化合物の設計
CH3
CH3
(A+B)/2
B
参考文献

SVMおよびカーネル一般


バイオインフォマティクスにおけるカーネル


Kernel Methods in Computational Biology, MIT Press, 2004.
Marginalized Kernel + Morgan Index


N. Cristianini & J. Shawe-Taylor: An Introduction to Support Vector
Machines and Other Kernel-based Learning Methods, Cambridge Univ.
Press, 2000.
(日本語訳: 大北(訳)サポートベクターマシン入門、共立出版, 2005)
P. Mahe, N. Ueda, T. Akutsu, J-L. Perret, J-P. Vert: Extensions of
marginalized graph kernels, Proc. 21st Int. Conf. Machine Learning,
552-559, 2004.
LAカーネル

H. Saigo, J-P Vert, N. Ueda, T. Akutsu: Protein homology detection
using string alignment kernels, Bioinformatics, 20:1682-1689, 2004.