CPE 332 Computer Engineering Mathematics II

Download Report

Transcript CPE 332 Computer Engineering Mathematics II

CPE 332
Computer Engineering
Mathematics II
Chapter 12
Curve Fitting
Curve Fitting
• บ่อยๆครัง้ เราได ้ข ้อมูลจากการวัดในสนาม ซงึ่ มี
ลักษณะเป็ นจุด และเราจะต ้องการหา Function
ื่ มต่อจุดเหล่านี้
ทางคณิตศาสตร์เพือ
่ เชอ
• Function ง่ายๆทีใ่ ชกั้ นคือ Polynomial ที่
Degree ต่างๆ
ั ซอนขึ
้
• Function ทีส
่ ลับซบ
น
้ ได ้แก่ Cosine
Function
• กรรมวิธเี หล่านี้ เพือ
่ ทีจ
่ ะหาค่าของ Function ทีอ
่ ยู่
ระหว่างจุดทีเ่ ราวัด ซงึ่ เราเรียก Interpolation
Interpolation
y
x
Linear Interpolation
y
x
Second Degree Piecewise
Interpolation
y
x
Third Degree Piecewise
Interpolation
y
x
Higher Order Degree
• ไม่นย
ิ มใช ้ เพราะจะเกิดการ Oscillate ได ้
• Function ทีร่ อยต่อของ Polynomial จะไม่
ต่อเนือ
่ ง
• N Degree จะใช ้ N+1 จุดสาหรับหาค่าของ
Function
Spline Interpolation
• เป็ นการใช ้ Polynomial Degree ตา่ ๆ ทีน
่ ย
ิ มคือ Third
Degree หรือ Cube
– เรียก Cubic Spline
• Cubic Spline จะหา Polynomial จากทีละ 2 จุด(ไม่ใช ่ 4)
แต่บงั คับให ้รอยต่อระหว่างแต่ละ Polynomial มีความ
ต่อเนือ
่ ง โดยกาหนดให ้ Polynomial ทีต
่ อ
่ กันมี First
Derivative และ Second Derivative เท่ากัน
• 2 จุดได ้ 2 สมการ บวกกับอีกสองสมการของ First และ
Second Derivative เป็ น 4 สมการ 4 Unknown
• ทีป
่ ลายและหัวจะสมมุต ิ First Derivative จากสมการ
้
เสนตรง
และสมมุต ิ Second Derivative เท่ากับศูนย์ วิธน
ี ี้
เราเรียก Natural Spline
• เป็ นวิธท
ี น
ี่ ย
ิ มมากกว่า
Spline Interpolation
y
x
การคานวณ Cubic Spline
Interpolation (1)
• พิจารณาจากจุดของตัวอย่าง ( xi , yi ); i  0,...,n  1
• เราต ้องการลาก Curve ผ่านจุดเหล่านี้ โดยใช ้
Third Degree Polynomial
y  f3 ( x)  a0  a1x  a2 x  a3 x
2
3
– มี 4 Unknown ทีต
่ ้องหา ดังนัน
้ ต ้องสร ้าง 4 สมการ และ
ใช ้ 4 จุดของ Data ในการแก ้
– ผลคือ 3rd Degree Polynomial จะลากผ่านทีละ 4 จุด
ดังนัน
้ จะมีรอยต่อทุกๆ 4 จุด ทีไ่ ม่ราบเรียบ เนือ
่ งจากแต่
ละ 4 จุดจะใช ้ Polynomial คนละตัวกัน
– Polynomial ทีต
่ อ
่ กันจะใชจุ้ ดร่วมกันทีร่ อยต่อ
การคานวณ Cubic Spline
Interpolation (2)
• Example: กาหนด Data 7 จุดดังนี้
– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]
• จงคานวณ Third Degree Polynomial ที่
จะ Fit Data เหล่านี้
การคานวณ Cubic Spline
Interpolation (3)
y0
y1
เราต้องใช ้ Cubic Polynomial 2 ต ัวแรก Fit 4 จุดแรก
ต ัวที่ 2 Fit 4 จุดถ ัดไป โดยจุดที่ 4 เป็นจุดร่วม
Cubic Spline Int.(4)
• Polynomial ตัวแรก คานวณได ้ดังนี้
2  a0
0  a0  a1  a2  a3
3  a0  2a1  4a2  8a3
4  a0  3a1  9a2  27a3
• แก ้สมการได ้
y0  2  6.8333x  6x2  1.1667x3
Cubic Spline Int.(5)
• Polynomial ตัวทีส
่ อง คานวณได ้ดังนี้
4  a0  3a1  9a2  27a3
5  a0  4a1  16a2  64a3
3  a0  5a1  25a2  125a3
1  a0  6a1  36a2  216a3
• แก ้สมการได ้
y1  47  35x  7.5x 2  0.5x3
Cubic Spline Int.(6)
Cubic Spline Int.(7)
Cubic Spline Int.(8)
Cubic Spline Int.(9)
• สงิ่ ทีเ่ ราต ้องการคือทาให ้รอยต่อราบเรียบ
– โดยการกาหนดให ้ค่า First Derivative ทีป
่ ลายของ
Polynomial ตัวแรก เท่ากับค่า First Derivative ทีจ
่ ด
ุ
ต ้นของ Polynomial ตัวที่ 2
– อีกนัยหนึง่ คือบังคับให ้ค่า First Derivative ทีจ
่ ด
ุ ร่วม
ของสอง Polynomial ทีม
่ าต่อกัน มีคา่ เท่ากัน
– ในกรณีเราสามารถสร ้าง 4 สมการ เพือ
่ หา 4
Coefficient ได ้จากเพียงค่าของ Function ทีส
่ องจุด
และค่าของ First Derivative ทีส
่ องจุดนัน
้ (4 ค่า รวม)
• กล่าวคือ แต่ละชว่ งของ Data (ระหว่างสองจุด) เราจะคานวณ
Third Degree Polynomial หนึง่ ตัว
Cubic Spline Int.(10)
• พิจารณาจาก Data n จุดของ xii=1,..,n คือ yi;
i=1,..,n เราต ้องการหา Cubic Polynomial,
Si(x) ทัง้ หมด n-1 function เพือ
่ ทาการ
Interpolate ค่าระหว่างจุด ในแต่ละชว่ งของ
สองจุดทีต
่ ด
ิ กัน
 s1 ( x); x1  x  x2
 s ( x); x  x  x
 2
2
3
S( x)  


sn 1 ( x); xn 1  x  xn
si ( x)  ai ( x  xi )3  bi ( x  xi ) 2  ci ( x  xi )  di ; i  1,2,..., n  1
Cubic Spline Int.(11)
้ นแค่การเปลีย
• สมการ Polynomial ทีใ่ ชเป็
่ น
Variable โดยเลือ
่ น (Delay) สมการจากจุด
xi ให ้มาอยูท
่ ต
ี่ าแหน่ง ศูนย์
• ค่า First และ Second Derivative ของ
แต่ละ Polynomial สามารถแสดงได ้ดังนี้
si ( x)  ai ( x  xi )  bi ( x  xi )  ci ( x  xi )  di
3
2
si ' ( x)  3ai ( x  xi )  2bi ( x  xi )  ci
2
si ' ' ( x)  6ai ( x  xi )  2bi
Cubic Spline Int.(12)
• ถ ้าจุด xi เป็ นจุดร่วมระหว่างสอง
Polynomial กล่าวคือ
si ( xi )  si 1 ( xi )
• และทีจ
่ ด
ุ xi เราจะได ้ค่าของ Function คือ
yi  si ( xi )  ai ( xi  xi )3  bi ( xi  xi )2  ci ( xi  xi )  di
yi  di
่
• นอกจากนี้ เราได ้(สมมุตวิ า่ แต่ละจุดสุม
ตัวอย่างด ้วยระยะห่างเท่ากัน)
yi  si 1 ( xi )  ai 1 ( xi  xi 1 )3  bi 1 ( xi  xi 1 ) 2  ci 1 ( xi  xi 1 )  d i 1
yi  di  ai 1h3  bi 1h 2  ci 1h  d i 1 ; h  xi  xi 1 ; i  2,3,...,n
Cubic Spline Int.(13)
• เราสร ้างสมการจากการกาหนด First
Derivative ของจุดต่อให ้เท่ากัน
si ' ( xi )  si 1 ' ( xi )
• ดังนัน
้ เราได ้
si ' ( x)  3ai ( x  xi ) 2  2bi ( x  xi )  ci
si ' ( xi )  ci  si 1 ' ( xi )  3ai 1h 2  2bi 1h  ci 1; i  2,3,...,n  1
• นอกจากนีแ
้ ล ้ว ค่า Second Derivative
จะต ้องต่อเนือ
่ งกันตลอดชว่ ง
si ' ' ( xi 1 )  si 1 ' ' ( xi 1 ); i  1,2,...,n 1
Cubic Spline Int.(14)
• แต่คา่
• ดังนัน
้
si ' ' ( xi )  2bi
si 1 ' ' ( xi 1 )  2bi 1
• และ
• จาก
si ' ' ( x)  6ai ( x  xi )  2bi
si ' ' ( xi 1 )  6ai ( xi 1  xi )  2bi  6ai h  2bi
• เราได ้
si ' ' ( xi 1 )  si 1 ' ' ( xi 1 ); i  1,2,...,n  1
2bi 1  6ai h  2bi
Cubic Spline Int.(15)
• เพือ
่ ให ้สมการดูงา่ ย เรากาหนด
M i  si ' ' ( xi )
• ดังนัน
้
bi  M i / 2
• และทีไ่ ด ้ก่อนหน ้านี้ di  yi
• สว่ น ai และ ci สามารถเขียนใหม่ได ้เป็ น
M i 1  M i
6h
di  ai 1h3  bi 1h 2  ci 1h  di 1
2bi 1  6ai h  2bi  ai 
yi 1  yi  M i 1  2M i 
di 1  ai h  bi h  ci h  di  ci 

h
h
6


3
2
Cubic Spline Int.(16)
• เราสรุปสูตรในการคานวณดังนี้
M i 1  M i
6h
M
bi  i
2
yi 1  yi  M i 1  2 M i 
ci 

h
h
6


di  yi
ai 
• เมือ
่ เขียนในรูปของ Matrix เราได ้
Cubic Spline Int.(17)
• จาก
si ' ( xi 1 )  3ai h 2  2bi h  ci  si 1 ' ( xi 1 )  ci 1
yi 1  yi  M i 1  2M i 
yi  2  yi 1  M i  2  2M i 1 
M  Mi  2
 Mi 
3 i 1
h

2
h


h




h

 2 
6h
h
6
h
6


 




h
M i  4M i 1  M i 2   yi  2 yi 1  yi 2
6
h
6  y  2 yi 1  yi  2 
M i  4M i 1  M i  2   i
; i  1,2,3,..,n  2
h
h

• สามารถเขียนเป็ นสมการ Matrix ได ้ดังนี้
Cubic Spline Int.(18)
•
1
0

0


0

0
0

4 1 0  0 0 0
1
0

0
0
0
4
1

0
0
0
1
4

0
0
0






0
0

4
1
0
0
0

1
4
1
0
0

0
1
4
 M1 
0  M 2 
 y1  2 y2  y3 
 y  2y  y 
0  M 3 
2
3
4




 y3  2 y4  y5 
0  M 4 
6 



     2 


 h
 yn  4  2 yn  3  yn  2 
0  M n  3 



y

2
y

y
0  M n  2 
 n 3
n2
n 1 


 y  2y  y 
1  M n 1 
n 1
n 
 n2
M 
 n 
• ระบบประกอบไปด ้วย n-2 สมการและ n unknown
ดังนัน
้ เราต ้องการอีก สอง Condition เพือ
่ ที่
สามารถจะแก ้สมการได ้
– สอง Condition สามารถเลือกได ้หลายแบบ ทาให ้เกิด
Variation ของ Cubic Spline Interpolation หลาย
วิธ ี
Cubic Spline Int.(19)
• ในทีน
่ จ
ี้ ะกล่าวถึง Spline สามแบบ ตาม
สอง Condition ทีก
่ าหนดเพิม
่ เติม
– Natural Spline
• โดยการกาหนด M1=Mn=0
– Parabolic Runout Spline
• โดยการกาหนด M1=M2 และ Mn=Mn-1
– Cubic Runout Spline
• โดยการใช ้ M1=2M2-M3 และ Mn=2Mn-1-Mn-2
• ในทีน
่ จ
ี้ ะกล่าวรายละเอียดเฉพาะ Natural
Spline
Cubic Spline Int.(20)
• Natural Spline
– เมือ
่ ให ้ M1=Mn=0 Matrix จะลดรูปเหลือ n-2
สมการ และ n-2 Unknown ดังนี้
4
1

0


0

0
0

1 0  0 0 0  M 2 
 y1  2 y2  y3 
 y  2y  y 
4 1  0 0 0  M 3 
2
3
4


 y3  2 y4  y5 
1 4  0 0 0  M 4 
 6 



          2 

h
 y n  4  2 y n 3  y n  2 
0 0  4 1 0   M n 3 




M
y

2
y

y
0 0  1 4 1  n2 
 n 3
n2
n 1 
 y  2y  y 
0 0  0 1 4  M n 1 
n 1
n 
 n2
– เมือ
่ เราแก ้สมการได ้ค่า Mi เราสามารถคานวณ
ค่า Coefficient ของแต่ละ Polynomial ได ้
Cubic Spline Int.(21)
• สงั เกตุวา่ Coefficient Matrix ของระบบมีคา่ ใน
สว่ น Diagonal ทีเ่ ป็ นค่าคงที่ ซงึ่ Matrix นีเ้ ป็ น
Matrix พิเศษ เรียก Toeplitz Matrix
– Toeplitz Matrix สามารถแก ้ปั ญหาได ้ โดยใช ้ O(n2)
Computation Time แทนทีจ
่ ะเป็ น O(n3)
• Algorithm ทีใ่ ชคื้ อ Levinson Algorithm
– Toeplitz Matrix สามารถทา LU Decomposition
่ เดียวกัน
โดยใช ้ O(n2) เชน
• รายละเอียดของคุณสมบัตพ
ิ เิ ศษของ Matrix นี้
และ Levinson Algorithm อยูน
่ อกขอบเขตของ
ึ ษาเพิม
วิชานี้ ผู ้สนใจสามารถศก
่ เติมได ้จากตารา
ด ้าน Linear Algebra และ Numerical Method
Example: Natural Spline
• จากตัวอย่างเดิม เราจะใช ้ Spline มาทาการ Fit
Data ในกรณีนี้ n=7, h = 1, M0=M7=0
– Yi = [2 0 3 4 5 3 1]; Xi = [0 1 2 3 4 5 6]
• เราแก ้สมการ Matrix ดังนี้
4
1

0

0
0
1 0 0 0  M 2 
2  2  0  3
5
0  2  3  4 
  2
4 1 0 0  M 3 


 
1 4 1 0   M 4   6 3  2  4  5   6  0 
 


 
0 1 4 1  M 5 
4

2

5

3


  3
 5  2  3  1 
 0 
0 0 1 4  M 6 
• และได ้คาตอบคือ
M  [0, 8.9923,5.9692,2.8846,5.5692,1.3923, 0]T
M  [0, 8.9923,5.9692,2.8846,5.5692,1.3923, 0]T
• ดังนัน
้ Coefficient ของ Cubic ทัง้ 6 จะ
เป็ น
M i 1  M i
ai 
 [1.4987 ,2.4936 ,1.4756 ,1.4090 ,1.1603,.2321]
6h
bi  M i / 2  [0,4.4962,2.9846,1.4423,2.7846,0.6962]
yi 1  yi  M i 1  2M i 
ci 

h
h
6


 [3.4987,0.9974,2.5090,0.9667,0.3756,2.4641]
di  yi  [2,0,3,4,5,3]
Polynomial Coefficient Matrix
• >> p=[a b c d]
• p =
•
1.4987
0 -3.4987 2.0000
•
-2.4936 4.4962 0.9974
0
•
1.4756 -2.9846 2.5090 3.0000
•
-1.4090 1.4423 0.9667 4.0000
•
1.1603 -2.7846 -0.3756 5.0000
•
-0.2321 0.6962 -2.4641 3.0000
่ ง
• ต่อไปเราจะลอง Plot แต่ละ Polynomial ในแต่ละชว
่ ง
ทงหมด
ั้
6 Polynomial และ 6 ชว
Natural Spline Interpolation
Natural Spline Interpolation = R;
First Der = G; Second Der = B
Natural Spline Interpolation = R;
First D = G; Second D = B vs 6th D Poly = K
ปกติแนวโน ้มของ Polynomial ทีม
่ ี Degree สูงจะเกิด Overshoot
แต่ Spline จะให ้ Curve ทีร่ าบเรียบกว่า และใกล ้เคียงความจริง
y  0.0347 x6  0.6375x5  4.4931x 4  15.3125x3  25.4722 x 2  16.05x  2
Regression
• บางครัง้ Data ทีเ่ ราเก็บได ้ กระจาย และการ
ทา Interpolation ด ้วย Polynomial จะไม่
เหมาะสม
• การกระจายของ Data อาจจะเกิดจากความ
ไม่แน่นอนในการวัด หรือเป็ นลักษณะ
Random
• อาจจะเกิดจาก Noise ในการวัด
– การ Fit ด ้วย Polynomial หรือแม ้แต่ Spline
จะให ้คาตอบทีไ่ ม่ตรงกับความจริง
Regression: Data with Noise
Y
X
Polynomial Fit Noise Data
Y
X
Ordinary Simple Linear
Least-Squares Regression
่
• ในการนี้ การประมาณค่าโดยใช ้ Function ง่ายๆ เชน
้
เสนตรง
หรือ Exponential จะเหมาะสมกว่า
– โดยเฉพาะถ ้าเรารู ้พฤติกรรมของระบบอยูบ
่ ้าง และคาดหวังว่า Data
ทีไ่ ด ้ควรจะมีลก
ั ษณะอย่างไร
• การหาสมการทีจ
่ ะ Fit ทีส
่ ด
ุ โดยมีคา่ Error ตา่ สุด เรา
เรียกเป็ นการทา Regression
้
• กรณีของสมการเสนตรง
(สาหรับตัวแปรเดียว)เราเรียก
Linear Regression
– ทีถ
่ ก
ู ควรเรียก Simple Linear Regression ใชส้ าหรับตัวแปรเดียว
้
จะเป็ นสมการเสนตรงในสองมิ
ติ
• เนือ
่ งจากมี Multiple Linear Regression ด ้วยสาหรับกรณีหลายตัว
แปร ซงึ่ ผลจะเป็ น Linear Equation ในหลายมิต ิ
้
– สมการเสนตรงคื
อ y=ax+b (บางตาราใช ้ y = a + bx ซงึ่ ในกรณีนี้
ต ้องสลับค่า a และ b ในการคานวณทีจ
่ ะกล่าวต่อไป)
– Parameter 2 ตัวทีต
่ ้องหาคือ a = slope และ b = y-intercept
Ordinary Simple Linear
Least Square Regression
• สมการที่ Fit ทีส
่ ด
ุ คือให ้ Error รวมตา่ สุด
เรามักจะใชวิ้ ธข
ี อง Least-Square เรียก
Ordinary Least Square Regression
(OLS) (หรือ Linear Least Square)
– ผลรวมของ Error ยกกาลังสองของแต่ละจุด
้
ของ Data เทียบกับเสนตรงที
ใ่ ช ้ มีคา่ ตา่ สุด
• Linear Regression ใชกั้ นมากในทางสถิต ิ
ั พันธ์แบบเสนตรงของ
้
เพือ
่ หาความสม
Random Variable สองตัว
• Linear Regression ประเภทอืน
่ ๆก็มใี ชกั้ น
อยู่ แต่ OLS จะนิยมทีส
่ ด
ุ
Linear Least-Squares
Regression
Y
Error
X
Ordinary Linear Least
Square Regression (OLS)
• ค่า a และ b หาได ้จากสมการ Summation ของ
Error ยกกาลังสอง ของทุกจุด
– ค่าทีต
่ า่ สุดหาได ้จากการหาค่า Derivative ของสมการ
และตัง้ ให ้เท่ากับ 0 (จุด Minima)
• ทัง้ สอง Unknown คือ a และ b หาได ้จากสมการ
Derivative สองสมการทีต
่ งั ้ ให ้เท่ากับ 0 ดังนี้
– df(a,b)/da = 0
– df(a,b)/db = 0
– f(a,b) คือ Sum of Square Error Function
้
• อีกค่าทีใ่ ชในทางสถิ
ตค
ิ อ
ื ค่า r = correlation
้
coefficient เป็ นตัวบอกว่าเสนตรงที
ใ่ ชมั้ น Fit
ได ้ดีเพียงไร, r จะมีคา่ ระหว่าง [-1,1]
Linear Least-Squares
Regression
ei  yi  axi  b; i  1,2,..., n
n
Regression line
n
f (a, b)   e   ( yi  axi  b) 2
i 1
2
i
i 1
n
df
 2 ( yi  axi  b)  0
db
i 1
a
n x  ( xi )
2
i
b  y  ax
r
2
ei
axi+b
n
df
 2 [( yi  axi  b) xi ]  0
da
i 1
n xi yi   xi  yi
yi
(xi,yi)
xi
สมมุตเิ ราได้ Data Pair (xi,yi);
i = 1,2,…,n ทงหมด
ั้
n จุด
n xi yi   xi  yi
n xi2  ( xi ) 2 n yi2  ( yi ) 2
Variable X และ Y อาจจะเป็น
ได้ทงั้ Continuous และ
Discrete
n
n
 2 [( yi  axi  b)]  0
 2[( yi  axi  b) xi ]  0
i 1
i 1
n
n
 y x  a x
i 1
i i
n
2
i
i 1
n
 b xi  0
(1)
i 1
y
i 1
replace b in (1)
i
n
 a  xi  nb  0
i 1
1 n
1 n
b   yi  a  xi  Y  a X
n
n
n
n
n


1
1
n i 1
n i 1
 yi xi  a xi2    yi  a  xi  xi  0
i 1
n
i 1
i 1
n
i 1
 i 1
n
 n 2 1  n 2 
1 n
yi xi   yi  xi  a  xi    xi  

 i 1
n i 1 i 1
n  i 1  
i 1

n
n
n
 n 2  n 2 
n yi xi   yi  xi  a n xi    xi  
 i 1
i 1
i 1
i 1
 i 1  

n
a
n
n
n
i 1
i 1
i 1
n xi yi   xi  yi
 n 
2
n xi    xi 
i 1
 i 1 
n
2
R, r : Correlation Coefficient
่ น Correlation Coefficient คือ
สว
Pearson Product-Moment Correlation Coefficient
่ นของค่า Covariance ต่อผลคูณของค่า
นิยามว่าเท่าก ับอ ัตราสว
Standard Deviation ของทงสอง
ั้
Variable (ของต ัวอย่าง)
และ สามารถแสดงได้วา
่ มีคา
่
C XY
r
S X SY
r
n xi yi   xi  yi
n xi2  ( xi ) 2 n yi2  ( yi ) 2
ั พันธ์แบบเสนตรง
้
r = 1 หรือ -1 แสดงว่ามีความสม
อย่างสมบูรณ์ (ในเชงิ บวก หรือในเชงิ ลบ)
ั พันธ์กน
ถ ้า r เป็ นศูนย์แสดงว่าไม่มค
ี วามสม
ั เลย
Nonlinear Regression
้
• ในกรณีทเี่ สนตรงไม่
เหมาะสมทีจ
่ ะนามาใช ้
เราสามารถจะใช ้ Function อืน
่ มาทา
่
Regression เชน
–
–
–
–
Exponential Model
Power Equation
Saturation-Growth-Rate Equation
Polynomial Regression
• รายละเอียดอยูน
่ อกเหนือวิชานี้
Example
• 1. จากการเก็บข ้อมูลตัวอย่าง วิชา CPE 332 ระหว่าง
ึ ษาได ้ กับจานวนรวมเป็ นชวั่ โมงที่
คะแนน ทีน
่ ั กศก
ึ ษาขาดเรียน หรือมาสาย ได ้ข ้อมูลดังตาราง
นั กศก
ข ้างล่าง
Data
Hour
Grade
Data
Hour
Grade
1
2
3
4
5
5
8
2
6
4
72
51
86
75
88
6
7
8
9
10
10
7
6
12
8
40
68
63
46
65
ั พันธ์ระหว่างตัวแปรทัง้
– จงใช ้ OLS Regression แสดงสม
้
สอง ทาการ Plot Scatter Diagram และเสนตรงที
ไ่ ด ้
จากนัน
้ ให ้หาค่า Correlation Coefficient
Example
Example
10
1 10
X   xi  6.8
10 i 1
n  10;  xi  68;
i 1
10
1 10
yi  654; Y   yi  65.4

10 i 1
i 1
10
x y
i
i 1
a
i
10
x
 4068;
2
i
i 1
n
n
n
i 1
i 1
i 1
 538;
n xi yi   xi  yi


n xi2    xi 
i 1
 i 1 
n
n
2
10
y
i 1

2
i
 45084;
10 4068 68 654
 5.0159
2
10 538 68
b  Y  a X  65.4  (5.0159)  6.8  99.5079
r

n xi yi   xi  yi
n xi2  ( xi ) 2 n yi2  ( yi ) 2
10 4068 68 654
10 538 68
2
10 45084 654
2
 0.9069
y=-5.0159x + 99.5079
r = -0.9069
End of Chapter 12
• Download
• Homework 12 สง่ ก่อนวันพุธหน ้า 12.00
่ ล่อง ห ้อง 5-310)
น.(สง่ ทีส
่ าขา ใสก
Course Ends
• Prepare For Exam
– ข ้อสอบมี 6 ข ้อ ทาทุกข ้อ (นาเครือ
่ งคิดเลขมาด ้วย)
– เรือ
่ งก่อน Midterm จะตัดทิง้
• 1. Function Approximation (1 ข ้อ)
– Taylor Series/McLauren Series
• 2. Roots of Function (1 ข ้อ)
– Bisection
– Newton-Ralphson
• 3. Linear Equations (1 ข ้อ) เรือ
่ งใดเรือ
่ งหนึง่
–
–
–
–
Gauss Elimination
Gauss Jordan (Including Matrix Inverse)
Gauss Seidel
LU Decomposition (Crout Decomposition)
Course Ends
• Prepare For Exam
• 4. Numerical Integration (1 ข ้อ) ไม่ออก Finite
Difference
– Trapezoidal Rule
– Simpson 1/3 Rule
– Richardson Extrapolation
• 5. ODE (1 ข ้อ)
– Classical Forth Order RK Method เรือ
่ งเดียว
• 6. Curve Fitting (1 ข ้อ)
– Natural Spline
– OLS Regression
Formulas
END OF CPE 332 T1-56
• Minimum 40% เพือ
่ ทีจ
่ ะผ่านวิชานี้
้ ไป
• A จะต้องได้ 80% ขึน