Mutual informatiom Royi Itzhak Compobio course. Entropy מדד למידת אי הוודאות של מ"מ אקראי בהתפלגות מסוימת במדעי המחשב אנטרופיה היא מדד למספר הביטים הדרושים.

Slides:



Advertisements
Similar presentations
Patient information extraction in digitized X-ray imagery Hsien-Huang P. Wu Department of Electrical Engineering, National Yunlin University of Science.
Advertisements

Photography and CS Philip Chan. Film vs Digital Camera What is the difference?
 Image Characteristics  Image Digitization Spatial domain Intensity domain 1.
© red ©
Presentation by Dudu Yanay and Elior Malul 1.  מה משותף לכל אלגוריתם המשתמש ב -Bucket Elimination: ◦ נתון מודל הסתברותי ורשת ביסיאנית מתאימה. ◦ נתונה.
מתמטיקה בדידה תרגול 3.
CS430 © 2006 Ray S. Babcock CS430 – Image Processing Image Representation.
מבני בקרה לולאות. שאלה #1 שאלה ב' – תכתוב תוכנה הכותבת את תפריט הבאה Type 1 to find the area of a circle Type 2 to find the circumference of a circle.
1 תרגול : קודי קו בינאריים בסיסיים. 2 יצירת קוד קו יצירת הלמים לפי קוד קו מסנן בעל תגובה להלם h(t) ביטי כניסה X(t)Y(t) a1 a2 a3 a4 t Ts.
עיבוד שפות טבעיות – שיעור חמישי N-grams with smoothings יעל נצר מדעי המחשב אוניברסיטת בן גוריון.
Ray 7 דוגמא אלגוריתם 1.קבל דוגמאות 2. פלט f a עבור הדוגמה a המינימלית החיובית ?
תוחלת ושונות בהתפלגויות אחרות התפלגות בינומית : X~B(n,p) E(X)=np, σ 2 (x)=np(1-p) התפלגות היפרגיאומטרית : X~H(N,n,M) E(X)=n*M/N, σ 2 (x)=n*M/N(1-M/N)[(N-n)/N-1)]
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א מודל הלמידה מדוגמאות Learning.
Markov Decision Processes (MDP) תומר באום Based on ch. 14 in “Probabilistic Robotics” By Thrun et al. ב"הב"ה.
מודל הלמידה מדוגמאות Learning from Examples קלט: אוסף של דוגמאות פלט: קונסיסטנטי עם פונקציה f ב- C ז"א קונסיסטנטי עם S ז"א.
מתמטיקה בדידה תרגול 2.
Eddie Bortnikov/Aran Bergman, Principles of Reliable Distributed Systems, Technion EE, Spring Principles of Reliable Distributed Systems Recitation.
1 מבוא למדעי המחשב רקורסיה. 2 רקורסיה היא שיטה לפתרון בעיות המבוססת על העיקרון העומד ביסוד אינדוקציה מתמטית: אם ידועה הדרך לפתור בעיה עבור המקרים הבסיסיים.
Entropy and some applications in image processing Neucimar J. Leite Institute of Computing
Introduction to VGA 數位電路實驗 TA: 吳柏辰 Author: Trumen.
Image Processing Edge detection Filtering: Noise suppresion.
MAT 150 – Class #24 Topics: Graphing Rational Functions Asymptotes Vertical Slanted Horizontals Holes.
Probability and Statistics Review Thursday Mar 12.
Computer Vision Introduction to Digital Images.
LBR & WS LAB 1: INTRODUCTION TO GIS.
Autonomous Robots Vision © Manfred Huber 2014.
Visual Computing Computer Vision 2 INFO410 & INFO350 S2 2015
Data Structures Hanoch Levi and Uri Zwick March 2011 Lecture 3 Dynamic Sets / Dictionaries Binary Search Trees.
Demosaicking for Multispectral Filter Array (MSFA)
Name(s): _______________________ Encoding LEGO Blocks Additional Practice You’ve already tried encoding instructions to build a LEGO tower into binary.
MAT 150 – Class #16 Topics: Graphing Rational Functions Asymptotes Vertical Slanted Horizontals Holes.
Detection of nerves in Ultrasound Images using edge detection techniques NIRANJAN TALLAPALLY.
Finding The Slope of a Line Slope! What is it? How do we use it? Is it ever used in the “ real world ” ?
Learning from Observations
Last update on June 15, 2010 Doug Young Suh
From: Contour extracting networks in early extrastriate cortex
Figure Legend: From: Spatial structure of contextual modulation
Business Management Courses Gives Competitive Edge.
Dmitriy Aronov, David W. Tank  Neuron 
The Geometry of Visual Cortical Maps
Volume 32, Issue 2, Pages (October 2001)
Marina Kogan Sadetsky –
A Motion Direction Map in Macaque V2
Soumya Chatterjee, Edward M. Callaway  Neuron 
Pattern Recognition Binding Edge Detection
Graph Transformations
Volume 19, Issue 2, Pages (August 1997)
Spatiochromatic Properties of Natural Images and Human Vision
Volume 87, Issue 6, Pages (September 2015)
Andrea Benucci, Robert A. Frazor, Matteo Carandini  Neuron 
A Motion Direction Preference Map in Monkey V4
Hongbo Yu, Brandon J. Farley, Dezhe Z. Jin, Mriganka Sur  Neuron 
Using Slope Intercept Form to Graph Day 2
What Color is it?.
Attentional Modulations Related to Spatial Gating but Not to Allocation of Limited Resources in Primate V1  Yuzhi Chen, Eyal Seidemann  Neuron  Volume.
Volume 21, Issue 1, Pages (July 1998)
Gordon B. Smith, David E. Whitney, David Fitzpatrick  Neuron 
A Map for Horizontal Disparity in Monkey V2
Prediction of Orientation Selectivity from Receptive Field Architecture in Simple Cells of Cat Visual Cortex  Ilan Lampl, Jeffrey S. Anderson, Deda C.
Neural Circuit Components of the Drosophila OFF Motion Vision Pathway
Volume 23, Issue 21, Pages (November 2013)
ECOM method recovers time correlation with 2-ms precision from 219-ms imaging frames. ECOM method recovers time correlation with 2-ms precision from 219-ms.
Gordon B. Smith, David E. Whitney, David Fitzpatrick  Neuron 
Volume 26, Issue 14, Pages (July 2016)
Volume 87, Issue 6, Pages (September 2015)
Using Slope Intercept Form to Graph Day 2
Neuronal Mechanisms for Illusory Brightness Perception in Humans
Sung Jun Joo, Geoffrey M. Boynton, Scott O. Murray  Current Biology 
Binary Conversion Resource by Andrea LaRosa.
DIGITAL IMAGE PROCESSING Elective 3 (5th Sem.)
Presentation transcript:

Mutual informatiom Royi Itzhak Compobio course

Entropy מדד למידת אי הוודאות של מ"מ אקראי בהתפלגות מסוימת במדעי המחשב אנטרופיה היא מדד למספר הביטים הדרושים להעברת מידע לדוגמא נתון מטבע הוגן מהי מידת האנטרופיה של התוצאות אם המטבע לא הוגן ו10% פעמים יוצא עץ אם המטבע לא הוגן ו1% פעמים יוצא עץ

Mutual Entropy מה האנטרופיה של שני הטלות של מטבע הוגן,באופן פשוט 0.25 עבור כל צירוף, עץ ועץ,עץ ופלי, פלי עץ,פלי פלי. לכן האנטרופיה תהיה -4*0.25*-2=2. אם המטבע לא הוגן והסיכוי להגריל עץ הוא 0.9 אזי ההסתברות המשותפת היא והאנטרופיה המשותפת תהיה -0.81*log2(0.81)-2*0.09*log2(0.09)-0.01*log2(0.01)=0.936 TH T 0.9*0.9= *0.1= 0.09 H 0.1*0.1= 0.01

Mutual information אינפורמציה משותפת של שני משתנים x,y היא מדד להורדת אי הוודאות של כל משתנה בנפרד בהנתן המשתנה השני I(x,y)=H(x)+H(y)-H(x,y)

Mutual information of 3 states

example for example feature 1 H(y)=-3*0.333*log(0.333)=1.58 H(x)=[1/15*log(1/15)+0+0.2*log(0.2)+0.2*log(0.2)+0.333*log(0.333)+0.2*log(0.2)]*- 1= H(x,y)= -[5*1/15*log(1/15)+3*log(2/15)+0.2*log(0.2)]=2.922 I(x,y)= = / /15 2/15 1/152/15 01/150

example for example feature 4 H(y)=-3*0.333*log(0.333)=1.585 H(x)=[0.333*log(0.333)+1/15*log(1/15)+4/15*log(4/15)+2/15*log(2/15)+2/15*log(2/15)+ 1/15*log(1/15)]*-1=2.339 H(x,y)= -[6*1/15*log(1/15)+2/15*log(2/15)+0.2*log(0.2)+0.4*log(0.4)]=2.943 I(x,y)= = /151/ / /15 001/15

Ixy=Hx+Hy-Hxy i H(x)H(y)H(x,y) I(x,y)=H(x)+H(y)- H(x,y)

Mutual informaion feature 8 The real values of the data in the 8 th row

Continues mutual information- Uniform decoder Blank condition Vs two visual stimuli of full field two orientations one is horizontal and the other vertical orientation

Spatial map of mutual information The map presents the mutual information content in areas V1 and V2; Red stands for high and blue for low mutual information values.

Clustering 3 kind of orientations using the average of the signal value across frames Represnted only by three highest mutual information pixels that not localized on the edges of blood vessels. Pink-blank, green – horizontal, black - vertical