第四章投影片

Download Report

Transcript 第四章投影片

Chapter 4
人工智慧演算法
曾憲雄、黃國禎
人工智慧與專家系統
4-1
Case-based Reasoning
(案例式推論)

案例式推論解決問題的流程:
1.
2.
3.
4.
確認問題的狀態
由過去案例中找尋相似的案例
由相似的案例獲取經驗以解決目前的問題
將目前的問題及解決的方法加入案例中
曾憲雄、黃國禎
人工智慧與專家系統
4-2
案例式推論解題的關鍵因素

案例特徵(參數)之訂定

案例特徵(參數)權重之訂定

案例特徵(參數)比對演算法之訂定
曾憲雄、黃國禎
人工智慧與專家系統
4-3
案例式推論運作流程
新案例
重複案例
案例知識庫
案例建制
調整參數
案例調整
結果
需求
案例擷取
查詢模式
適合的
案例
查詢
使用者
曾憲雄、黃國禎
人工智慧與專家系統
4-4
案例式推論實例:
自動化郵件回覆客戶服務系統


以郵件進行客戶服務己成趨勢
現有的郵件客服有下列缺點




郵件回覆為人工進行
需要浪費人力回答重覆問題
無法保證即時回覆
目標:




將傳統郵件回覆自動化
縮短客戶等待時間
提高客戶的滿意度
節省客服中心的人力應用
曾憲雄、黃國禎
人工智慧與專家系統
4-5
自動化郵件客服系統功能





曾憲雄、黃國禎
自動辨識郵件目的及問題
搜尋最適合客戶的解決方案
即時產生回覆郵件
調查客戶滿意度
從雙方面調整資料庫
人工智慧與專家系統
4-6
自動化郵件客服系統架構
Q&A儲
存機制
詞庫
問題分析
機制
網
使用者
Q&A
資料庫
際
客服人員
介面
網
路
Mail
Server
解答機制
自我學習
機制
曾憲雄、黃國禎
客戶
資料庫
人工智慧與專家系統
客服人員
4-7
客服系統權重演算法

權重調整:


一名詞在所有集合中出現的頻率愈多,代表
此詞為一冗詞
一名詞在所屬集合中出現的頻率愈多,其他
集合中出現的頻率愈少,即有可能就是關鍵
詞
曾憲雄、黃國禎
人工智慧與專家系統
4-8
客服系統權重演算法(cont.)
Wij=(pij – nij)/N
wij
N
pij
nij
關鍵字i對在文章j的權重
取樣總篇數
關鍵字i在文章j出現的次數
關鍵字i在文章j之外出現的次數
曾憲雄、黃國禎
人工智慧與專家系統
4-9
客服系統關鍵詞比對演算法

FAQ關鍵詞比對:


比對客戶詢問問題與資料庫中的資料相似程
度
給予一個問題與資料庫中各筆資料介於0至1
的分數,並找出分數最高的資料
曾憲雄、黃國禎
人工智慧與專家系統
4-10
模糊邏輯(Fuzzy Logic)


1965年由加州大學柏克萊分校的L. A.
Zadeh教授提出
目前廣泛使用於控制、預測、分析、決
策等領域
曾憲雄、黃國禎
人工智慧與專家系統
4-11
Definition 1



若A為X的一個模糊子集,對每個x∈X都
指定一個數μA(x) ∈[0,1],用它表示x對
A的歸屬度,而μA(x)被稱做A的成員函
數:
μA:X→[0,1],x→ μA(x) , x∈X
分別以100、85、65、54、0分為一個測
驗是否理想的集合,則模糊子集為
{100/1, 85/0.8, 65/0.6, 54/0.4, 0/0}
曾憲雄、黃國禎
人工智慧與專家系統
4-12
Definition 2



假設有兩個模糊集合F與M,其相似程度
S(F,M)可以下面公式求得:
S(F,M)= F·M / max(F·F, M·M)
其中F = < μF(x1) , μF(x2) , μF(x3) ,…>
M = < μM(x1) , μM(x2) , μM(x3) ,…>
X = {x1, x2, x3,…}
S(F,M)的值將在[0,1]之間,若為1則代表
兩個模糊集合集合完全一樣
曾憲雄、黃國禎
人工智慧與專家系統
4-13
Fuzzy Logic example 1


F={0/0, 0/20, 0.8/40, 0.9/60, 1/80, 1/100}
M={0/0, 0/20, 0.6/40, 0.8/60, 0.2/80, 0/100}
則F·F=0.64+0.81+1+1=3.45
M·M=0.36+0.64+0.04=1.04
F·M=0.48+0.72+0.2=1.4
S(F,M)= 1.4/max(3.45, 1.04)
= 1.4 / 3.45
= 0.41
曾憲雄、黃國禎
人工智慧與專家系統
4-14
Fuzzy Logic example 2


集合A={0, 20, 40, 60, 80, 100}
五個評核等級(優秀的→不滿意的):





E = {0, 0, 0.8, 0.9, 1, 1}
V = {0, 0, 0.8, 0.9, 0.9, 0}
G = {0, 0.1, 0.8, 0.9, 0.4, 0.2}
S = {0.4, 0.4, 0.9, 0.6, 0.2, 0}
U = {1, 1, 0.4, 0.2, 0, 0}
曾憲雄、黃國禎
人工智慧與專家系統
4-15
Neural Networks (類神經網路)

1943
McCulloch 與 Pitts首度提出正式的類神經計算單元。

1949
Donald Hebb提出第一個學習法則---Hebbian learning rule。

1954
Minsky 首度建造類神經電腦並測試。

1958
Frank Rosenblatt 發明感知機 (Perceptron)﹐可調整連接值。

1960
Bernard Widrow 與 Marcian Hoff 提出 Widrow-Hoff 學習法則

1965
Nils Nilsson 綜合當代研究並提出學習機所受的限制。

1972
Sun-Ichi Amari 提出有關臨界值的數學理論。

1982
Kohonen 研究非監督模式網路﹐建立陣列式神經元。

1982
Stephen Grossberg 與 Gail Carpenter研究調適性迴響網路。

1986
James McClelland 與 David Rumelhart加入平行分散式計算技巧。
曾憲雄、黃國禎
人工智慧與專家系統
4-16
類神經網路的優缺點

Advantages





prediction accuracy is generally high
robust, works when training examples contain errors
output may be discrete, real-valued, or a vector of
several discrete or real-valued attributes
fast evaluation of the learned target function
Criticism



long training time
difficult to understand the learned function (weights)
not easy to incorporate domain knowledge
曾憲雄、黃國禎
人工智慧與專家系統
4-17
A Neuron
x0
w0
x1
w1
xn

f
output y
wn
Input
weight
vector x vector w

- mk
weighted
sum
Activation
function
The n-dimensional input vector x is mapped into
variable y by means of the scalar product and a
nonlinear function mapping
曾憲雄、黃國禎
人工智慧與專家系統
4-18
Training a Neural Network


To obtain a set of weights that makes almost
all the tuples in the training data classified
correctly
Steps



Initialize weights with random values
Feed the input tuples into the network one by one
For each unit




Compute the net input to the unit as a linear combination
of all the inputs to the unit
Compute the output value using the activation function
Compute the error
Update the weights and the bias
曾憲雄、黃國禎
人工智慧與專家系統
4-19
Back-Propagation Neural Network
(倒傳遞類神經網路)
y1
y2
y3
ym-1 ym
Output Layer
V11
Vmq
zq
z1
W11
Hidden Layer
Wqn
Input Layer
x1
x2
x3
xn-1 xn
zi = f (  j 1W ij x j ) and yk = f ( i1V ki z i )
n
曾憲雄、黃國禎
q
人工智慧與專家系統
f ( ) 
1

1e
4-20
範例-圖形辨識
A
001011101
010010101
A
>0
>0
y1
B
<0
y2
y3
ym-1 ym
Output Layer
V11
Vmq
zq
z1
W11
Hidden Layer
Wqn
Input Layer
x1
曾憲雄、黃國禎
x2
x3
xn-1 xn
人工智慧與專家系統
4-21
倒傳遞類神經網路演算法
Step 1: 以最小化能量函數的結果為目標,計算訓練資料輸入向量與目標輸
出向量之間的平均平方差(Mean square error)。
1
E  X
2

m
i 1
(di ( X )  yi ( X ))
(t )
(t )
Step 2: 以下列公式調整修正權重值: Wij
其中
Wij  
2
 Wij  Wij
E 且  為學習率(Learning rate)。
Wij
Step 3: 以類似的方式調整修正門檻值。
Step 4: 重複Step 1到Step 3,計算所有的訓練資料輸入向量。
Step 5: 利用測試資料測試以上訓練的網路,假如收斂,則停止;否則跳到
Step 1。
曾憲雄、黃國禎
人工智慧與專家系統
4-22
範例- B型肝炎檢驗分類
(劉威良提供)
抽血檢驗
表面抗原
(HBsAg)
陽性者
為
帶原者
曾憲雄、黃國禎
表面抗原
(HBsAg)
陰性者
為
非帶原者
人工智慧與專家系統
4-23
研究問題(B型肝炎感染後的演變 )
成人B型肝炎
病毒感染
5%~10%
慢性帶原者
慢性肝炎
50%~60%
無病狀感染
健康帶原者
慢性
活動性肝炎
慢性
持續性肝炎
肝硬化
恢復
恢復
肝癌
曾憲雄、黃國禎
人工智慧與專家系統
30%~40%
有病狀急性肝炎
1%~3%
猛爆性肝炎
恢復
4-24
研究問題(1/2)


轉態
的意思並非B型肝炎好了,而是指感染
情況有改善(肝臟的發炎情況有改善),
此時必需停藥
抗藥性
當B型肝炎一但轉態而繼續使用藥物則
會使藥物漸漸失去效用
曾憲雄、黃國禎
人工智慧與專家系統
4-25
研究問題(2/2)
轉態
用
藥
不
用
藥
錯
是
不轉態
是
錯
轉態
預
測
轉
態
預
測
不
轉
態
不轉態
生命危害
抗藥性
病毒不轉態必需用藥控制,轉態則必需停止用藥以免產生抗藥性
預測轉態失誤將對人體造成嚴重後果
曾憲雄、黃國禎
人工智慧與專家系統
4-26
特徵擷取


依照醫師診斷重要參數,再加以推廣
醫師診斷重要參數







anti-HBs (B型肝炎表面抗體)
anti-HBe (B型肝炎e抗體)
anti-HBc (B型肝炎核心抗體)
HBsAg (B型肝炎表面抗原)
HBeAg (B型肝炎e抗原)
HBcAg (B型肝炎核心抗原)
HBV DNA (B型肝炎病毒DNA)
曾憲雄、黃國禎
人工智慧與專家系統
4-27
以倒傳遞網路預測B型肝炎檢驗分
類的主要建置步驟







步驟一:輸入抽血樣本資料(訓練範例)
步驟二:將抽血資料予以正規化
步驟三:依照資料屬性相關程度分為若干類
步驟四:計算類神經網路節點數
步驟五:分別給予各類別之個別目標值
步驟六:設定輸入值與輸出值並且開始訓練
步驟七:進行測試,觀察是否符合理想的預測
率
曾憲雄、黃國禎
人工智慧與專家系統
4-28
正規化

(Berry and Linoff, 1997)
actual value - minimum value
massaged value 
maximum value - minimum value
曾憲雄、黃國禎
人工智慧與專家系統
4-29
正規化範例


以ALT(肝發炎指數)為例
正常值Range :5.00 - 55.00
調整後Range :4.95 - 55.05
正規化
ALT=5 ( 正常)
5 - 4.95
massaged value 
 0.000998
55.05 - 4.95
ALT=60 ( 不正常) massaged value 
60 - 4.95
1
55.05 - 4.95
ALT=4.5 ( 不正常) massaged value  4.5 - 4.95  0
55.05 - 4.95
曾憲雄、黃國禎
人工智慧與專家系統
4-30
取二個參數為範例(設定初始值)











X1=1
X2=1
w13=0.5
w14=0.9
w23=0.4
w24=1.0
w35=-1.2
w45=1.1,
θ3=0.8
θ4=-0.1
θ5=0.3,
曾憲雄、黃國禎
1
2
人工智慧與專家系統
4-31
計算隱藏層
3
4
y3  sigmoid(x1w13  x 2 w 23 -3 )  1/[1 e-(10.510.4-10.8) ]  0.5250
y4  sigmoid(x1w14  x 2 w 24 - 4 )  1/[1 e-(10.911.010.1) ]  0.8808
曾憲雄、黃國禎
人工智慧與專家系統
4-32
計算輸出層
5
y5  sigmoid(y3 w 35  x 4 w 45 - 5 )
 1/[1 e-(0.52501.20.88081.110.3) ]  0.5097
曾憲雄、黃國禎
人工智慧與專家系統
4-33
計算輸出層輸出值誤差和誤差梯度
及調整隱藏層-輸出層權重值
曾憲雄、黃國禎
人工智慧與專家系統
4-34
計算輸出層輸出值誤差和誤差梯度
及調整隱藏層-輸出層權重值(公式)
e  yd,5 - y5  0 - 0.5097 -0.5097
 5  y5 (1- y5 )e
 0.5097 (1- 0.5097) (-0.5097) -0.1274
W35    y3   5  0.1 0.5250 (-0.1274) -0.0067
W45    y4   5  0.1 0.8808 (-0.1274) -0.0112
5    (-1) 5  0.1 (-1) (-0.1274) 0.0127
曾憲雄、黃國禎
人工智慧與專家系統
4-35
計算隱藏層輸出值誤差和誤差梯度
及調整隱藏層-輸出層權重值
曾憲雄、黃國禎
人工智慧與專家系統
4-36
計算隱藏層輸出值誤差和誤差梯度
及調整隱藏層-輸出層權重值(公式)
3 = y3 (1- y3 )  5  w35 = 0.5250 (1- 0.5250) (-0.1274) (-1.2)= 0.0381
 4 = y4 (1- y4 )  5  w 45 = 0.8808 (1- 0.8808) (-0.1274)1.1= -0.0147
W13 =   x1  3 = 0.11 0.0381= 0.0038
W23 =   x 2   3 = 0.11 0.0381= 0.0038
3    (-1)  3  0.1 (-1) 0.0381 -0.0038
W14 =   x1   4 = 0.11 (-0.0147)= - 0.0015
W24 =   x 2   4 = 0.11 (-0.0147)= - 0.0015
4    (-1)  4  0.1 (-1) (0.0147) 0.0015
曾憲雄、黃國禎
人工智慧與專家系統
4-37
更新所有權重及門檻值並進行
下一個樣本(公式)
W13  w13  w13  0.5 0.0038 0.5038
W14  w14  w14  0.9 0.0015 0.8985
W23  w 23  w 23  0.4 0.0038 0.4038
W24  w 24  w 24  1.0  0.0015 0.9985
W35  w35  w35  1.2  0.0067 1.2067
W45  w 45  w 45  1.1  0.0112 1.0888
3  3  3  0.8- 0.0038 0.7962
4  4  4  -0.1 0.0015 -0.0985
5  5  5  0.3- 0.0127 0.3127
曾憲雄、黃國禎
人工智慧與專家系統
4-38
完成權重調整 進行下一個樣本參數
0.7962
0.5038
 1.2067
0.4038
0.3127
W13  w13  w13  0.5 0.0038 0.5038
0.8985
1.0888
0.9985
- 0.0985
曾憲雄、黃國禎
人工智慧與專家系統
4-39
停止條件

每一組樣本數皆計算錯誤(Error)值,當所有樣
本測試完,則計算平方誤差總和SSE(Sum of
Squared Errors) ,直到SSE < 0.001為止
曾憲雄、黃國禎
人工智慧與專家系統
4-40
Genetic Algorithm(基因演算法)




源自於John Holland在1975 年出版的著作
Adaptation in Nature and Artificial Systems
仿效自然界生物進化過程
透過基因的選擇(selection)交換(crossover)及突
變(mutation)產生更好的下一代
選擇(selection)過程



較高合適值(fitness value)就有較大機會獲得保留
較低合適值的解答,可能會遭到淘汰
較不易陷入local optimal
曾憲雄、黃國禎
人工智慧與專家系統
4-41
Genetic Algorithm(基因演算法)






Population (族體):
Encoding (編碼):
Crossover (交配):
Mutation (突變):
Selection (適者生存):
Fitness Function (適合度公式):
曾憲雄、黃國禎
人工智慧與專家系統
4-42
Crossover randomly selects one-cut-point and
exchanges the right parts of two parents to generate
offspring.
基因演算法交配運算
Mutation alters one or more genes with a
probability equal to the mutation rate.
基因演算法突變運算
基因演算法流程圖
曾憲雄、黃國禎
人工智慧與專家系統
4-43
多目標最佳化配題機制


從大量試題中,選取符合出題方向和條件的試
題,進行配置,組成最佳鑑別度試卷

指定測驗時間範圍的試題配置問題模型
(Dedicated Range of Assessment Time Problem-DRAT)
 符合期望測驗時間最高界限和最低界限的多目標配
題機制。

固定題數的試題配置問題模型
(Fixed Number of Test Items Problem – FNTI)
 符合固定試卷試題數量的多目標配題機制。
曾憲雄、黃國禎
人工智慧與專家系統
4-44
指定測驗時間範圍的試題配置問題
(DRAT)

x1 x2 x3 x4
0 1 1 0
DRAT目標函式:
n
Maximize Z =

x98 x99 x100
… 0 1 0
n
d x x
i
i
i 1
i
i 1
DRAT限制式:
n

i 1
r x  h , j  1,2,, m;
ij
i
j
t x  l;
 t x  u;
n

i 1
i
i
i
i
n
i 1
Xi = 0 or 1, i = 1, 2, …, n
曾憲雄、黃國禎
人工智慧與專家系統
4-45
DRAT的試題配置基因演算法 (1/5)

概念程度下限先決基因演算法
(Concept Lower-bound First Genetic approach – CLFG)

CLFG的進行步驟
1.建立母體(Encoding)



X 為染色體,包含有 n 個基因
X = [x1 , x2 , …, xn]
X = [0, 0, 1, …, 0]
第i個試題被選取時,xi 為1 ;否則,為0;
曾憲雄、黃國禎
人工智慧與專家系統
4-46
DRAT的試題配置基因演算法 (2/5)
2.適配等級(Fitness ranking)

R = dc  ipt


dc =

 ( r x  h )
m
n
j 1
i 1
 = w  dtl  ipt_l
ij
i
w = ( in di xi) / average(u, l)

dtl =
dtu = in1 t x
i
i
u
l tx
i
適配函數 v(Sk) =
 d x      R  x
i
n
i 1
曾憲雄、黃國禎

j

n
i 1

 = w  dtu  ipt_u
n
i
i
人工智慧與專家系統
i 1
i
4-47
DRAT的試題配置基因演算法 (3/5)
3.物競天擇(Selection)

計算各染色體的適配值
v(Sk),k = 1,2, … , pop_size + offspring_size

加總所有染色體Sk的適配值和選取機率
V
pop _ size  offspring _ size

k 1
v( s )
k
Pk = v(Sk) / V

計算各染色體Sk的累積選取機率
 P
k
q
曾憲雄、黃國禎
k
j 1
j
人工智慧與專家系統
4-48
DRAT的試題配置基因演算法 (4/5)
Cut point
4.交配(Crossover)
A[1110011001]
A’[1110011011]
B[0100100011]
B’[0100100001]
Procedure: crossover
Begin
k=0
while (k ≤ c / 2) do
flag = 0
while flag = 0 do
Generate random numbers R1 and R2 from discrete interval [1,K].
If R1 ≠ R2 then flag=1
end while
crossover function(R1,R2)
end while
End
曾憲雄、黃國禎
人工智慧與專家系統
4-49
DRAT的試題配置基因演算法 (5/5)
5.突變(Mutation)
A[1110011001]
A’[1110011011]
P=(1/n)
Procedure: mutation
Begin
for(i=1, i ≤ nk, i++){
Generate random number yi from discrete interval [0, 1].
Mutation function(P, yi) }
End
重覆2~5步驟,直到連續10代解無進步或已產生了1500代
曾憲雄、黃國禎
人工智慧與專家系統
4-50
固定題數的試題配置問題 (FNTI)

FNTI目標函式:
q _ num
Maximize Z =

 d
i 1
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
12 18 9 45 82 6 2 34 65 71
xi
FNTI限制式:
q _ num
 r  h, j  1,2,..., m
i 1
xi j
x1 ≥ 1
xi+1 > xi , 1 ≤ i ≤ q_num – 1
xq_num ≤ n
曾憲雄、黃國禎
人工智慧與專家系統
4-51
FNTI的試題配置基因演算法 (1/5)

試題數目先決基因演算法
(Feasible Item First Genetic approach – FIFG)

FIFG的進行步驟
1.建立母體




X 為染色體,包含有 q_num 個基因
X = [x1 , x2 , …, xq_num]
X = [25, 118, …., 803]
基因值代表著一題試題的編號
xi ≠ xj ,且 i ≠ j 和 1 ≤ i, j ≤ q_num
曾憲雄、黃國禎
人工智慧與專家系統
4-52
FNTI的試題配置基因演算法 (2/5)
2.適配等級(Fitness ranking)

R = dc  ipt

dc = 
m
j 1
(  r  h)
n
i 1
x ij
n

適配函數 v(Sk) =  d xi  R
i 1
曾憲雄、黃國禎
人工智慧與專家系統
4-53
FNTI的試題配置基因演算法 (3/5)
3.物競天擇(Selection)

計算各染色體的適配值
v(Sk),k = 1,2, … , pop_size + offspring_size

加總所有染色體Sk的適配值和選取機率
V
pop _ size  offspring _ size

v( s )
k
k 1
Pk = v(Sk) / V

計算各染色體Sk的累積選取機率
 P
k
q
曾憲雄、黃國禎
k
j 1
j
人工智慧與專家系統
4-54
FNTI的試題配置基因演算法 (4/5)
4.交配(Crossover) Cut point


A[12,15, 96,112,193,243]
A’[12,15,96,185,256,356]
B[3,56,108,185,256,356]
B’[3,56,108,112,193,243]
有兩相同基因值時,隨機更換其中一值,直到
沒有相同基因值為止
試卷中不可有二題相同的試題
曾憲雄、黃國禎
人工智慧與專家系統
4-55
FNTI的試題配置基因演算法 (5/5)
5.突變(Mutation)
A[3,8,56,66,256,515]
A’[3,8,56,66,346,515]
P=(1/n)
Procedure: mutation
Begin
for (m = 1, m ≤ q_num  k, m++){
Generate random number rm from discrete interval [0, 1]
Generate random number RC from discrete interval [1, n]
mutation function(P, rm, RC) }
End
重覆2~5步驟,直到連續10代解無進步或已產生了1500代
曾憲雄、黃國禎
人工智慧與專家系統
4-56
試題參數調整演算法

鑑別度
S S
D
N(X  X )
H
L
max

min
難度
S  S  (2 N  X )
P
2N ( X  X )
H
L
min
max
曾憲雄、黃國禎
min
人工智慧與專家系統
4-57
實驗題庫樣本資料

每一個情況進行二十次實驗處理後,採用平均求解時
間和平均鑑別度建立
實驗樣本
Item
Bank
Loading time
(second)
N
Average
Discrimination
1
25
5.067
0.63267
2
30
5.308
0.65331
3
40
5.217
0.66602
4
250
8.522
0.60985
5
500
8.703
0.60920
6
1000
13.599
0.61208
7
2000
28.361
0.61339
8
4000
60.887
0.61534
曾憲雄、黃國禎
人工智慧與專家系統
4-58
CLFG實驗結果及分析 (1/3)
l = 30
N
CLFG
Random Selection
Time(sec) Discrimination
Optimum Solution
Time(sec)
Discrimination
Time(min)
Discrimination
25
0.13275
0.754664
0.03
0.63704
5
0.754664
30
0.14265
0.818120
0.03
0.69388
187
0.818120
40
0.27880
0.880276
0.03
0.64978
163840
0.881440
250
0.96815
0.943386
0.03
0.54248
>106
N/A
500
1.98875
0.952377
0.03
0.60500
N/A
N/A
1000
3.75490
0.957359
0.03
0.69753
N/A
N/A
2000
7.96650
0.956658
0.03
0.54342
N/A
N/A
4000
23.89610
0.957550
0.03
0.48540
N/A
N/A
曾憲雄、黃國禎
人工智慧與專家系統
4-59
CLFG實驗結果及分析 (2/3)
l = 60
CLFG
N
Random Selection
Optimum Solution
Time(sec)
Discrimination
Time(sec)
Discrimination
Time(min)
Discrimination
30
0.13210
0.707622
0.03
0.64321
187
0.707622
40
0.22985
0.806201
0.03
0.63240
163840
0.806390
250
1.64565
0.924587
0.03
0.62150
>106
N/A
500
2.85260
0.942419
0.03
0.55859
N/A
N/A
1000
4.36935
0.950709
0.03
0.63284
N/A
N/A
2000
10.12005
0.952650
0.03
0.60746
N/A
N/A
4000
27.90960
0.954701
0.03
0.62240
N/A
N/A
曾憲雄、黃國禎
人工智慧與專家系統
4-60
CLFG實驗結果及分析 (3/3)
l = 120
N
CLFG
Random Selection
Time(sec) Discrimination
Optimum Solution
Time(sec)
Discrimination
Time(min)
Discrimination
250
2.93420
0.896015
0.03
0.59964
>106
N/A
500
4.01775
0.927922
0.03
0.66515
N/A
N/A
1000
6.37270
0.940930
0.03
0.62918
N/A
N/A
2000
14.80980
0.944458
0.03
0.59838
N/A
N/A
4000
35.31320
0.947673
0.03
0.61402
N/A
N/A
曾憲雄、黃國禎
人工智慧與專家系統
4-61
CLFG與最佳解的實驗數據圖表 (1/2)
l = 30
10000000
time(min)
100000
1000
CLFG
Optimum
10
0.1
25
30
40
250
500
1000 2000 4000
0.001
Number of cadidate test items
曾憲雄、黃國禎
人工智慧與專家系統
4-62
CLFG與最佳解的實驗數據圖表 (2/2)
l = 60
10000000
time(min)
100000
1000
CLFG
Optimum
10
0.1
30
40
250
500
1000
2000 4000
0.001
Nnumber of candidate test items
曾憲雄、黃國禎
人工智慧與專家系統
4-63
time(sec)
CLFG在不同測驗時間下限的試題配置
40
35
30
25
20
15
10
5
0
l=30
l=60
l=120
25
30
250
500
1000
2000
4000
Nnumber of candidate test items
曾憲雄、黃國禎
人工智慧與專家系統
4-64