Presentation is loading. Please wait.

Presentation is loading. Please wait.

מנחה הקורס ד"ר לרי מנביץ' 1. נושאים  מה זה נוירון ? 3 דורות של מודל הנוירון נוירון ביולוגי סימולציה לנוירון IPSP/EPSP LSM  סקירת מאמרים 2.

Similar presentations


Presentation on theme: "מנחה הקורס ד"ר לרי מנביץ' 1. נושאים  מה זה נוירון ? 3 דורות של מודל הנוירון נוירון ביולוגי סימולציה לנוירון IPSP/EPSP LSM  סקירת מאמרים 2."— Presentation transcript:

1 מנחה הקורס ד"ר לרי מנביץ' 1

2 נושאים  מה זה נוירון ? 3 דורות של מודל הנוירון נוירון ביולוגי סימולציה לנוירון IPSP/EPSP LSM  סקירת מאמרים 2

3 Man versus Machine (hardware) 3 NumbersHuman brainVon Neumann computer # elements10 10 - 10 12 neurons10 7 - 10 8 transistors # connections / element10 4 - 10 3 10 switching frequency10 3 Hz10 9 Hz energy / operation10 -16 Joule10 -6 Joule power consumption10 Watt100 - 500 Watt reliability of elementslowreasonable reliability of systemhighreasonable

4 Man versus Machine (information processing) 4 FeaturesHuman BrainVon Neumann computer Data representationanalogdigital Memory localizationdistributedlocalized Controldistributedlocalized Processingparallelsequential Skill acquisitionlearningprogramming No memory management, No hardware/software/data distinction

5 Biologically Inspired  Electro-chemical signals  Threshold output firing 5

6 The Perceptron  Binary classifier functions  Threshold activation function 6 Y j : output from unit j W ij : weight on connection from j to i X i : weighted sum of input to unit i x i = ∑ j w ij y j y i = f(x i –  i) Threshold

7 Type 1. Perceptron  feedforward  Structure: 1 input layer 1 output layer  Supervised learning  Hebb learning rule  Able : AND or OR.  Unable: XOR

8 Learning in a Simple Neuron Perceptron Learning Algorithm: 1. Initialize weights 2. Present a pattern and target output 3. Compute output : 4. Update weights : Repeat starting at 2 until acceptable level of error

9 Computing other functions: the OR function  Assume a binary threshold activation function.  What should you set w 01, w 02 and w 0b to be so that you can get the right answers for y 0 ? 9 i1i1 i2i2 y0y0 000 011 101 111

10 Many answers would work y = f (w 01 i 1 + w 02 i 2 + w 0b b) recall the threshold function the separation happens when w 01 i 1 + w 02 i 2 + w 0b b = 0 move things around and you get i 2 = - (w 01/ w 02 )i 1 - (w 0b b/w 02 ) 10 i2i2 i2i2 i1i1 i1i1

11 The XOR Function 11 X1/X2X2 = 0X2 = 1 X1= 001 X1 = 110 i2i2 i2i2 i1i1 i1i1

12 12

13 Type 2. Multi-Layer-Perceptron  feed forward  1 input layer, 1 or more hidden layers, 1 output layer  supervised learning  delta learning rule, backpropagation (mostly used)  Able : every logical operation

14 The Perceptron 14

15 Type 3. Backpropagation Net  feedforward  1 input layer, 1 or more hidden layers, 1 output layer  supervised  backpropagation  sigmoid  Used :complex logical operations, pattern classification, speech analysis

16 The Back-propagation Algorithm On-Line algorithm: 1. Initialize weights 2. Present a pattern and target output 3. Compute output : 4. Update weights : Repeat starting at 2 until acceptable level of error

17 Pattern Separation and NN architecture 17

18 סימולציות של רשתות נוירונים דור I McCulloch-Pitts threshold מסוגל לחשב משוואות בוליאניות דור II feed-forward, recurrent neural networks and backward propagation מסוגלות לחשב משוואות פולינומיאלית ונקראים גם universal approximation מכיוון שמסוגלים לחקות כל משוואה אנלוגית. בהשוואה לנוירון הביולוגי הדור 2 מסוגל ל"דבר" ב-rate coding או frequency coding שזה תדירות היריות (המרחק בין ירייה לירייה) 18

19 סימולציות של רשתות נוירונים דור III עליה נוספת בקירוב הסימולציות לנוירון הביולוגי. הנוירונים מסוגלים לרבב multiplexing תדרים יריות ו"לדבר" ב - pulse coding במקום ב – rate coding ובכך להעביר כמה "מילים" באותו זמן "שעון" עצמי לכל יחידה 19

20 20

21 21

22 22

23 23

24 24

25 25

26 26

27 27

28 28

29 29

30 Hodgkin-Huxley Model 100 mV 0 stimulus inside outside Ka Na Ion channels Ion pump Cglgl gKgK g Na I K = אשלגן Na = נתרן 30

31 Hodgkin-Huxley Model stimulus inside outside Ka Na Ion channels Ion pump u u h 0 (u) m 0 (u) pulse input I(t) 31

32 דוגמאות  Integrate & Fire Neural Network.htm  actionpotential.swf 32

33 מבנה נוירולוגי כללי  בגופנו יש שני סוגי מערכות, ממריץ (אנדרנלין) מרגיע\מאיט (אציטין חולין)  יש לפחות שני סוגי סינפציות: מעקבות : לרוב מתחברת לגוף התא מעוררת : לרוב מתחברות בסופי העצים  מרווח בין הסינפצות הוא 20 ננומטר.  מימד הזמן- ניתן ליראות את הלמידה אסוציאטיבית היא שימוש במימד הזמן, - שני מאורעות שקורים בו זמנית הן בדרך כלל קשורים אחד לשני. לדוגמא ניסוי פאבלוב טעם גירוי וזמן. 33

34 34

35 35

36 36

37 37

38 38

39 39

40 40 השלב השני בחיזוק הקשר בין תאים נובע מיצירת סינפסות חדשות, מתמשך לטווח ארוך ומצריך שפעול גנים.

41 41

42 42

43 פלט / קלט טיפוסי 43

44 44

45 Generation of multiple Action Potentials  Rate is dependent on depolarization  Firing frequency  1 per second is 1 Hz  Maximum is about 1000Hz  Absolute refractory period  Relative refractory period  I(ion)=g(ion)(Vm-Eion) 45

46 תגובה אינסטינקטיבית 46

47 Mapping from biological neuron Nervous SystemComputational Abstraction NeuronNode DendritesInput link and propagation Cell BodyCombination function, threshold, activation function AxonOutput link Spike rateOutput Synaptic strengthConnection strength/weight 47

48 EPSP excitatory postsynaptic potential IPSP Inhibitory postsynaptic potential 48

49 חוק Hebb: הקשר בין תאים הפועלים בו זמנית יתחזק 49

50 Liquid State Machine (LSM) 50

51 Liquid State Machine (LSM) Maass’ LSM is a spiking recurrent neural network which satisfies two properties –Separation property (liquid) –Approximation property (readout) LSM features –Only attractor is rest –Temporal integration –Memoryless linear readout map –Universal computational power: can approximate any time invariant filter with fading memory –It also does not require any a-priori decision regarding the ``neural code'' by which information is represented within the circuit. 51

52 Maass’ Definition of the Separation Property The current state x(t) of the microcircuit at time t has to hold all information about preceding inputs. Approximation Property Readout can approximate any continuous function f that maps current liquid states x(t) to outputs v(t). 52

53 2 motors, 1 minute footage of each case, 3400 frames Readouts could utilize wave interference patterns 53

54 Zero One 54

55 סקירת מאמרים  Spiking neural networks, an introduction.pdf הקדמה וסיכום על רשתות נוירונים ומבנה של דור 3 במודלים  is the integrate-and-fire model good enough – a review.pdf השוואה בין מודל I&F לבין מודל HH כולל הרחבה של מודל I&F למודל שמשלב את שניהם  LSM (Liquid State Machine) Liquid State Machines,a review.pdf Liquid State Machine Built of Hodgkin–Huxley Neurons.pdf The Echo State approach to analysing and training recurrent neural networks.pdf  LSM  Turing Maching On the Computational Power of Circuits of Spiking neurons.pdf The Echo State approach to analysing and training recurrent neural networks.pdf 55

56 סקירת מאמרים  The Tempotron מודל לנוירון LIF המסוגל למיין סדרות פולסים עם לימוד  Spike Timing Dependent Plasticity Finds the Start of Repeating Patterns in Continuous Spike Trains2.PDF מודל LIF המסוגל לזהות רצף של חזרות בפולסים ללא לימוד, רק ע"י שינוי משקלי הקלטים  Hubb’s Rule Hebbian learning and spiking neurons.pdf Competitive Hebbian learning through spike-timing dependent synaptic plasticity.pdf Spike-Timing-Dependent Hebbian Plasticity as Temporal Difference Learning.pdf  Pitch Perception Models.pdf מודל המנסה לחקות ולהבין שמיעה ע"י קימוט של התדרים 56


Download ppt "מנחה הקורס ד"ר לרי מנביץ' 1. נושאים  מה זה נוירון ? 3 דורות של מודל הנוירון נוירון ביולוגי סימולציה לנוירון IPSP/EPSP LSM  סקירת מאמרים 2."

Similar presentations


Ads by Google