Στην θεωρία πληροφορίας, η απόκλιση Kullback-Leibler (KL)σχετική εντροπία) μεταξύ δύο κατανομών πιθανότητας και ορίζεται ως[1]:19

Για διακριτές τυχαίες μεταβλητές με πεδίο ορισμού , αυτή η ποσότητα είναι ίση με

και για συνεχείς τυχαίες μεταβλητές είναι ίση με

Η ποσότητα αυτή μπορεί να ερμηνευτεί ως η αναμενόμενη τιμή της έξτρα πληροφορίας που χρειάζεται για να κωδικοποιήσουμε την τυχαία μεταβλητή με κατανομή υποθέτοντας ότι στην πραγματικότητα έχει κατανομή .

Η συνάρτηση είναι απόκλιση και όχι μετρική απόσταση καθώς δεν ικανοποιεί την τριγωνική ανισότητα ούτε είναι συμμετρική.[2]

Παράδειγμα Επεξεργασία

 
Οι κατανομές πιθανότητας   και  .

Για τις κατανομές   και  , η απόκλιση KL δίνεται από

 

και

 

Από αυτό το παράδειγμα φαίνεται ότι η απόκλιση δεν είναι συμμετρική.

Ιδιότητες Επεξεργασία

  • (Μη-μηδενικότητα) Για οποιεσδήποτε δύο κατανομές   και  , ισχύει ότι
 
  • (Κυρτότητα) Η απόκλιση Kullback-Leibler είναι κυρτή συνάρτηση στα ζεύγη των κατανομών  , δηλαδή για κάθε ζεύγη κατανομών   και   και για κάθε πραγματικό αριθμό  , ισχύει ότι[3]
 
  • (Ανεξάρτητες μεταβλητές) Η απόκλιση Kullback-Leibler είναι αθροιστική για τις ανεξάρτητες τυχαίες μεταβλητές   και  , δηλαδή με   και  ,[4]
 

Δείτε επίσης Επεξεργασία

Παραπομπές Επεξεργασία

  1. Cover, T. M. (2006). Elements of information theory (2η έκδοση). Hoboken, N.J.: Wiley-Interscience. ISBN 9780471241959. 
  2. Αντωνίου, Ιωάννης. «Εξαρτηση από εντροπία» (PDF). Θεωρία πληροφορίας, εντροπία, πολυπλοκότητα. Τμήμα Μαθηματικών, ΑΠΘ. Ανακτήθηκε στις 9 Μαΐου 2023. 
  3. «Proof: Convexity of the Kullback-Leibler divergence». The Book of Statistical Proofs. Ανακτήθηκε στις 9 Μαΐου 2023. 
  4. «Proof: Additivity of the Kullback-Leibler divergence for independent distributions». The Book of Statistical Proofs. Ανακτήθηκε στις 9 Μαΐου 2023.