3.1 A システムのモデリング

Download Report

Transcript 3.1 A システムのモデリング

3.1.A (1)~(4)
4402040 土金礼次郎
1
(1)意味ネットワーク
機械翻訳や自然言語処理の分野
文や会話の意味内容をコンピュータが取り扱い
やすいように表現しなおす
文や言葉が持つ意味のモデリング
‘知識表現’と呼ばれる
知識表現の一つにグラフを用いた意味ネットワークがある。
2
例文で説明する
(ア)『彼女はユタカが芦毛の馬に乗るのを
見る』
を例文とすれば、
(イ)『馬の毛は芦毛』
(ウ)『ユタカは(イ)の馬に乗る』
(エ)『彼女は(ウ)を見る』
の基本的な3つの命題から構成される。
3
命題の分析


命題を「実体」,実体の「性質」,実体間の「関係」
の3つで表現する。
例文(ア)では
「実体」 ・・・ 「彼女」、「ユタカ」、「馬」
「性質」 ・・・ 「芦毛」
「関係」 ・・・ 「乗る」、「見る」
となっている。
4
図の書き方のポイント

関係はある行為の述部になっている。
性質も述部として取り扱う。

述部によって結合つけられる各実体を項という。
一つの命題が項になることもある。
実体・性質・関係をノードでノード間の結合関係
をアーク(リンク)で表現したグラフを意味ネット
ワークと呼ぶ。
5
意味ネットワークの図式化
図3.1 意味ネットワークとリスト
6
(2)リスト



情報プログラミングは一般にデータ構造とアルゴ
リズムとの両方を考慮して行われる。
データ構造とはプログラム上での処理対象の表
現形式を言う。
データ構造をコンピュータのメモリに記憶させる
形式を記憶構造という
7
データ構造の表示

モデルがグラフで表現される場合,その
データ構造として関係表示行列などの配
列がある。
→しかし,配列は大きなグラフになると効率的でなくなる。
一つの属性とそれに対応付けられた属性値との組を
フィールドと呼び、複数のフィールドが1次元的に並んだ
データ構造を線形リストと呼ぶ。
8
リストの記憶構造①




リストに対する記憶構造として,単位節を用いる
方法がある。
単位節は識別符,頭部,尾部の3つのフィールド
からなる。
単位節の頭部にはレコードまたはその単位節に
接続する。ほかの単位節の格納アドレスを示す
ポインタが入る。
識別符は頭部の情報がレコードであるかポイン
タであるかを表す。
9
リストの記憶構造②


尾部には他の単位節へのポインタ,または空レコード
が入る。
図1のリストの記憶構造を図2に示す。
図3.2 リストの記憶構造
10
(3)微分方程式モデル


微分方程式による対象の状態の記述は理学や
工学で馴染み深いモデルである。
対象の状態変化に関係する諸要素間の相互関
係が表現されている。
11
1自由度線形システム

1自由度線形システムの運動方程式は
mX´´+cX´+kX=R(t)
・・・ (3.1)
ただし,Xは運動の変位,X’はXの時間微分であ
り,m,c,kは係数,Rは時間についてのみの関
数。

式(3,1)は励振力を受けるばね系の運動のモデ
ルである。
12
n自由度への応用


式(3,1)でXとRをn次元ベクトルに,m,c,kは
(n×n)行列に拡張する。
ベクトル・行列を用いて
X´=AX+BR
・・・
(3.2)
ここで,X=(X,X’)Tであり,A,B、Rはそれぞ
れ行列,ベクトル,スカラーに相当する。

式(3.2)を線形システムの状態方程式と呼ぶ
13
状態方程式の一般化


式(3.2)を一般化すると
X´=F(X,R) ・・・ (3.3)
ただし,X´=(X1,・・・,Xn)T,F=[F1,・・・,F
n]Tである。
式(3.2)(3.3)の形式で状態のモデリングができ
るものを力学系と呼ぶ。ベクトル関数Fの要素に
非線形関数が含まれる場合は,非線形力学系と
呼ばれる
14
(4)ニューラルネットワークのモデル


脳は非常に多くの神経細胞(ニューロン)が結合
したもの。
非線形力学系の例として,神経回路網(ニューラ
ルネットワーク)のモデルを示す。
15
ニューロンのモデル①


各ニューロンの状態は0から1までの実数値をと
る。
時刻tでのi番目のニューロンの状態Vi(t)は次の
方程式
(3.5)
Vi(t )  Φ[Ui(t )]
dUi n
 TijVj(t )  Ii
dt j 1
(3.6)
16
ニューロンのモデル②
J番目のニューロンよりの入力
TijVj
Tij:j番目のニュー
ロンからi番目の
ニューロンへのシ
ナプス荷重
入力の
総和
Ui
状態
Vi
自己バイアス
出力
Vi
図3.5 ニューロンとそのモデル
Ii
•Uiは他のニューロンよりの入力の総和,Iiは自己バイアスと呼ばれる信号。
•係数Tijはj番目のニューロンからi番目のニューロンへ伝達される信号にか
かる重みで,シナプス荷重と呼ばれる。
17
ニューロンの入出力関数

ニューロンの入出力関数Φは,0から1までの値をとる単調増加関
数であり
1
Φ(U )=
1 eU
(3.7)
のようなシグモイド型の関数が用いられる。
Φ
(U)
1
図3.6 ニューロンの入出力関数
0
U
このように入力が大きくなるにつれてニューロンの状態は1に近づき,
入力が小さくなるにつれて状態は0に近づく
18
ニューラルネットワークの状態方程式

式(3.5),(3.6),(3.7)から次式が導き出される
N
dVi dVi dUi
 Vi(1Vi)[TijVj Ii]

dt dUi dt
j 1

(3.8)
各ニューロンiについて式(3.8)を連立させたものが,非線形力
学系としての各ニューラルネットワークの状態方程式となる
19