Θεωρία πληροφορίας: Διαφορά μεταξύ των αναθεωρήσεων

Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
μικρή επιμέλεια
Yuliexi (συζήτηση | συνεισφορές)
Χωρίς σύνοψη επεξεργασίας
Γραμμή 46:
*στο πρακτικό αποτέλεσμα του νόμου Shannon-Hartley για την χωρητικότητα του καναλιού ενός Gaussian καναλιού,καθώς επίσης
*στο [[bit]]- ένας νέος τρόπος οπτικής για την πιο θεμελιώδη μονάδα πληροφοριών.
 
==Ποσότητες πληροφορίας==
 
 
Η Θεωρία της πληροφορίας βασίζεται στην [[θεωρία πιθανοτήτων]] και στην [[στατιστική]].Οι σημαντικότερες ποσότητες της πληροφορίας ειναι η [[Εντροπία πληροφοριών|εντροπία]],η πληροφορία σε μία [[τυχαία μεταβλητή]],και η κοινη πληροφορία:η ποσότητα απο κοινού της πληροφορίας αναμεσα σε δύο τυχαίες μεταβλητές.Η πρότερη ποσότητα υποδεικνύει το πόσο εύκολα [[Συμπίεση δεδομένων|συμπιέζονται]] τα δεδομένα μηνύματος ενώ η τελευταία χρησιμοποιείται για να διαπιστωθεί το ποσοστό της επικοινωνίας δια μέσου ενός [[Κανάλι μετάδοσης|καναλιού μετάδοσης]].
 
Η επιλογή της βάσης του λογαρίθμου στην φόρμουλα που επακολουθεί καθορίζει το σύνολο της πληροφορίας της [[Εντροπία πληροφοριών|εντροπίας]] που χρησιμοποιήθηκε.Η συνηθέστερη μονάδα της πληροφορίας ειναι το [[Bit]],βασιζόμενο στον δυαδικό λογάριθμο(log<sub>2</sub>&nbsp;''n'') .Άλλες μονάδες συμπεριλαμβανομένου του nat,το οποίο βασίζεται στον φυσικό λογάριθμο(λογάριθμος με βαση το e),και στο hartley(ή ban) το οποίο βασίζεται στον κοινό λογάριθμο(λογάριθμος με βαση το 10).
 
Σ αύτα που ακολουθούν,η έκφραση της μορφής <math>p \log p \,</math> θεωρείται συμβατικά να είναι ίση με 0 όταν <math>p=0.</math>.Αυτό δικαιολογείται επειδή <math>\lim_{p \rightarrow 0+} p \log p = 0</math> για οποιαδήποτε λογαριθμική βάση.
 
 
==Παραπομπές==