Presentation is loading. Please wait.

Presentation is loading. Please wait.

숭실대 전기공학과 C ontrol I nformation P rocess L ab 김경진.

Similar presentations


Presentation on theme: "숭실대 전기공학과 C ontrol I nformation P rocess L ab 김경진."— Presentation transcript:

1 숭실대 전기공학과 C ontrol I nformation P rocess L ab 김경진

2  Variety of Neural Network  Feedforward Network – Perceptron  Recurrent Network - Hopfield Network ▪ 입력과 출력을 동일하게 하는 Network ▪ Optimization Problem 에 이용  Competitive Network - Hamming Network ▪ Feedforward + Recurrent Network ▪ 입력에 대하여 Hamming distance 를 최소화 하는 Network ▪ Target 불필요함  Recurrent Layer  Layer with Feedback  초기조건 필요 2009-10-23 2

3  W = [w 11 w 12 w 13 w 21 w 22 w 23 w 31 w 32 w 33 ]  b = [b 1 b 2 b 3 ] T  P 1 = [-1 1 -1] T (banana)  P 2 = [-1 -1 1] T (pineapple)  T 1 = [-1 1 -1] T, T 2 = [-1 -1 1] T 2009-10-23 3

4  W 1 = [P 1 T P 2 T] T, b = [R R] T, (R = 입력의 개수 )  W 2 = [1 -ε;- ε 1], 0< ε<1/s-1 (s = Recurrent Layer 의 Neuron 개수 ) 2009-10-23 4

5  The Perceptron is a binary classifier.  Single Neuron Perceptron 2009-10-23 5

6  Learning Rule – Perceptron  e = t – o (t = target, o = output, e = error)  W = W + eX = W + (t – o)X  b = b + e = b + (t – o)  초기값에 따라 Weight, Bias 값이 달라짐. 2009-10-23 6

7  X = [1 1 -1 -1  1 -1 1 -1]  O = [1 -1 -1 -1]  Simulation Result1  Initial Weight : [0 0]  Initial Bias : 0  Iteration Number : 3  Weight : [2 2]  Bias = -2  Simulation Result2  Initial Weight : [-1.5 -1.5]  Initial Bias : -10  Iteration Number : 4  Weight : [4.5 4.5]  Bias = -4 2009-10-23 7

8  ADA ptive LI near NE uron  Perceptron 과의 차이  Transfer Function : Hard Limit vs Linear  Algorithm(L east M ean S quare )  W(k+1) = W(k) + 2αe(k)p T (k)  b(k+1) = b(k) + 2αe(k) 2009-10-23 8

9  X = [1 1 -1 -1  1 -1 1 -1]  O = [1 -1 -1 -1]  Simulation Result1  Initial Weight : [0 0]  Initial Bias : 0 α α : 0.5  Iteration Number : 2  Weight : [0.5 0.5]  Bias = -0.5  Simulation Result2  Initial Weight : [-1.5 -1.5]  Initial Bias : -10 α α : 0.5  Iteration Number : 2  Weight : [0.5 0.5]  Bias = -0.5 2009-10-23 9

10  Simulation 시 주의사항  적정한 α 값 찾기 ▪ α 가 크면 발산 ▪ α 가 작으면 반복 횟수 증가  error 가 더 이상 줄어들지 않으 면 멈추기 ▪ ADALINE 은 선형시스템  Simulation Result3  Initial Weight : [0 0]  Initial Bias : 0 α α : 1.2  Weight : [-5.2 -5.2]*e153  Bias = 5.2e153  Simulation Result4  Initial Weight : [0 0]  Initial Bias : 0 α α : 0.1  Iteration Number : 162  Weight : [0.5 0.5]  Bias = -0.5 2009-10-23 10

11  Linearly Separable  직선으로 구분 가능한 것  AND Problem  Not Linearly Separable  직선으로 구분 불가능 한 것  XOR Problem  ADALINE Network 로는 분류 불가능  해결 방법 1 - Multi Neuron 사용  해결방법 2 - Multi Layer 사용 2009-10-23 11

12  해결방법 1. Multi Neuron 사용  Target 의 차원을 늘린다. ▪ Ex) 1, 0 -> [0;0], [0;1], [1;0], [1;1]  Simulation 결과 ▪ Initial Weight : [1 2;-1 -5] ▪ Initial Bias : [3;-2], α : 0.5 ▪ Iteration Number : 2 ▪ W = [0 0;0 0], b = [0;0]  한계점 - ① 차원 늘리기 ② 선형적 분류  ∴ 해결방법 2. Multi Layer Perceptron 사용 2009-10-23 12

13  MLP 의 장단점  Not Linear Separable 문제 해결, 함수 근사화  복잡한 구조 및 알고리즘, 국소적 최소값 수렴 2009-10-23 13

14  B ack P ropagation 1. Forward Propagation 2. Backward Propagation ▪ (Sensitivity) 3. Weight Bias Update 2009-10-23 14

15  Weight, Bias  Rand 함수로 임의의 값 선정  Hidden Layer Neuron  은닉층 뉴런의 개수 (HDNEU)  HDNEU 가 많을수록 복잡한 문제 해결 가능  Alpha  Steepest Descent Method 에서와 같은 개념  Stop Criteria  수치적인 Algorithm 이므로 학습을 중단할 기준이 필요함  M ean S quare E rror 로 판단함 2009-10-23 15

16  HDNEU = 20  α = 0.1  Stop Criteria = 0.005  Iteration Number : 480  MSE : 4.85e-3  Elapsed Time : 113.65[sec] 2009-10-23 16

17  BP Algorithm  HDNEU= 20  α = 0.2  Stop Criteria = 0.005  Iteration Number : 3000  3000 번에 수렴 못 함  4710 번에 수렴  MSE : 0.0081  Elapsed Time : 739[sec]  그림 띄우지 않을 시 7.76[sec] 2009-10-23 17

18  MO mentum B ack P ropagation  Backpropagation Algorithm + Low Pass Filter  Weight, Bias Update  Variable  Gamma(γ) – 전달함수에서의 pole 2009-10-23 18

19  MOBP Algorithm  HDNEU = 20  α = 1  γ = 0.9  Stop Criteria = 0.005  Iteration Number : 625  MSE : 0.005  Elapsed Time : 150[sec] 2009-10-23 19

20  C onjugate G radient B ack P ropagation  최적화 이론의 Conjugate Gradient Method 인용  복잡한 알고리즘이지만 수렴속도는 빠름  Variable  α, γ 불필요  HDNEU, Stop Criteria  Algorithm  Step1. Search Direction( )  Step2. Line Search( )  Step3. Next Search Direction( )  Step4. if Not Converged, Continue Step2 2009-10-23 20

21  CGBP Algorithm  HDNEU = 20  Stop Criteria = 0.005  Iteration Number : 69  MSE : 0.0046  Elapsed Time : 22[sec] 2009-10-23 21

22  HDNEU = 20  Stop Criteria = 0.0005  Iteration Number : 125  MSE : 0.0005  Elapsed Time : 37[sec] 2009-10-23 22

23  HDNEU = 10  Stop Criteria = 0.001  Iteration Number : 3000  MSE : 0.2461  Elapsed Time : 900[sec]  Global Minima : 전역적 최소값  LMS Algorithm 은 언제나 Global Minima 보장  Local Minima : 국소적 최소값  BP Algorithm 은 Global Minima 보장 못 함  여러 번의 시뮬레이션이 필요함 2009-10-23 23

24  Over Parameterization  신경회로망에서 은닉층 내의 뉴런의 개수가 필요이상으로 많을 때, 학습 데 이터는 제대로 학습 시키지만 그 외의 데이터에서는 오차가 발생하는 것  Generalization Performance( 일반화 성능 )  학습 데이터가 아닌 다른 입력을 통해 신경회로망의 성능을 시험하는 것 2009-10-23 24

25  모든 입력의 attribute 를 0~1 사이의 값으로 만드는 것  학습 데이터로 Scaling 할 때, 최대 · 최소값을 저장하고 그 값을 통해 검증 데이터를 Scaling 한다.  Nearest Neighbor 에서의 normalize 개념과 유사  선택사항 – Target 값의 Scaling 유무  Target 값이 백단위 이상이라면 Scaling 필요  Ex) 전력수요 예측 [ 어제 전력수요 ; 요일 ; 최고온도 ; 최저온도 ] – 하루치 데이터 Origin Data [34780 31252 39317 7 1 2 34 32 33 20 23 24] Modification Data [0.4374 0 0 1 0 0.1667 1 0 0.5 0 0.25 1] 2009-10-23 25

26  전력수요 예측 Simulation  HDNEU = 20, Stop Criteria = 0.01, Max Iteration Number = 1000  Case1. Not Scaling  Iteration Number : 1000, Train Set MSE : 11,124,663, Test Set MSE : 20,425,686  Case2. Scaling  Iteration Number : 1000, Train Set MSE : 11,124,663, Test Set MSE : 20,425,686  Case3. Target Scaling  Iteration Number : 6, Train Set MSE : 0.008628, Test Set MSE : 0.0562 2009-10-23 26

27  Overfitting  Stop Criteria 를 지나치게 작게 선정하여 학습 데이터의 에러는 작아지도록 Weight, Bias 를 학습시키나 검증 데이터의 에러는 오히려 커져서 일반화 성 능이 떨어지는 것을 말한다.  Stop Criteria : 0.01 / 0.001  Test Set MSE : 0.0562 / 0.1697 ☆ Issue 1. Stop Criteria 를 얼마로 선정해야 하는가 ? 2. HDNEU 는 몇 개가 적당한가 ? 2009-10-23 27

28  Machine Learning, Tom Mitchell, McGraw Hill.  Introduction to Machine Learning, Ethem Alpaydin, MIT press.  Neural Network Design, Martin T.Hagan, Howard B.Demuth, Mark Beale, PWS Publishing Company.  Neural Networks and Learning Machine, Simon Haykin, Prentice Hall. 2009-10-23 28


Download ppt "숭실대 전기공학과 C ontrol I nformation P rocess L ab 김경진."

Similar presentations


Ads by Google