Διακύμανση: Διαφορά μεταξύ των αναθεωρήσεων
Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
Δημιουργήθηκε από μετάφραση της σελίδας "Variance" |
|||
Γραμμή 1:
Στη [[θεωρία πιθανοτήτων]] και τη [[στατιστική]],η '''διακύμανση''' είναι η [[αναμενόμενη τιμή]] της τετραγωνικής απόκλισης της [[Τυχαία μεταβλητή|τυχαίας μεταβλητής]] από τη [[μέση τιμή]], και άτυπα μετρά πόσο μακριά ένα σύνολο (τυχαίων) αριθμών απλώνεται από τη μέση τιμή του. Η διακύμανση έχει κεντρικό ρόλο στη στατιστική. Χρησιμοποιείται στην [[περιγραφική στατιστική]], [[
== Ορισμός ==
Η διακύμανση μιας τυχαίας μεταβλητής ''Χ'' είναι η [[αναμενόμενη τιμή]] της τετραγωνικής απόκλισης από τη [[Μέσος όρος|μέση τιμή]] του ''X'',
: <math> \operatorname{Var}(X) = \operatorname{E}\left[(X - \mu)^2 \right]. </math>
Ο ορισμός αυτός περιλαμβάνει τυχαίες μεταβλητές που δημιουργούνται από διαδικασίες που είναι [[διακριτές]], συνεχείς, ούτε διακριτές ούτε συνεχείς, ή μικτές. Η διακύμανση μπορεί επίσης να θεωρηθεί ως η [[συνδιασπορά]] μιας τυχαίας μεταβλητής με τον εαυτό της:<span class="cx-segment" data-segmentid="43"></span>
: <math>\operatorname{Var}(X) = \operatorname{Cov}(X, X).</math>
Η διακύμανση είναι επίσης ισοδύναμη με το δεύτερο [[αθροιστικό]] από μια κατανομή πιθανότητας που παράγει την X. Η διακύμανση τυπικά συμβολίζεται Var(X), ή απλά σ2 (προφέρεται "
: <math>\begin{align}
\operatorname{Var}(X) &= \operatorname{E}\left[(X - \operatorname{E}[X])^2\right] \\
Γραμμή 13:
&= \operatorname{E}\left[X^2 \right] - (\operatorname{E}[X])^2
\end{align}</math>
=== Συνεχής τυχαία μεταβλητή ===
Αν η τυχαία μεταβλητή X αντιπροσωπεύει δείγματα που παράγονται από μια [[συνεχή κατανομή]] με
: <math>\operatorname{Var}(X) =\sigma^2 =\int (x-\mu)^2 \, f(x) \, dx\, =\int x^2 \, f(x) \, dx\, - \mu^2</math>
όπου <math>\mu</math> είναι η αναμενόμενη τιμή,
Γραμμή 77:
=== Ρίψη ζαριού ===
Ένα εξάεδρο
: <math>
\begin{align}
Γραμμή 109:
: <math>\operatorname{Var}(aX-bY)=a^2\operatorname{Var}(X)+b^2\operatorname{Var}(Y)-2ab\, \operatorname{Cov}(X,Y),</math>
όπου
: <math>\operatorname{Var}\left(\sum_{i=1}^N X_i\right)=\sum_{i,j=1}^N\operatorname{Cov}(X_i,X_j)=\sum_{i=1}^N\operatorname{Var}(X_i)+\sum_{i\ne j}\operatorname{Cov}(X_i,X_j).</math>
Αυτά τα αποτελέσματα οδηγούν στη διακύμανση ενός [[γραμμικού συνδιασμού]]:
Γραμμή 135:
Γενικά,αν οι μεταβλητές είναι [[συσχετισμένες]],τότε η διακύμανση του αθροίσματός τους είναι το άθροισμα των [[συνδιασπορών]] τους:
: <math>\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \sum_{j=1}^n \operatorname{Cov}(X_i, X_j) = \sum_{i=1}^n \operatorname{Var}(X_i) + 2\sum_{1\le i}\sum_{<j\le n}\operatorname{Cov}(X_i,X_j).</math>
(Σημείωση : Η δεύτερη ισότητα προκύπτει από το γεγονός ότι
Εδώ
Έτσι, αν οι μεταβλητές έχουν την ίδια διακύμανση ''σ''<sup>2</sup>και η μέση συσχέτιση διακριτών μεταβλητών είναι ''ρ'', τότε η διακύμανση της μέσης τιμής τους ειναι
Γραμμή 143:
Αυτό συνεπάγεται ότι η διακύμανση της μέσης τιμής αυξάνει με το μέσο όρο των συσχετισμών . Με άλλα λόγια , πρόσθετες συσχετιζόμενες παρατηρήσεις δεν είναι τόσο αποτελεσματικές όσο πρόσθετες ανεξάρτητες παρατηρήσεις στη μείωση της [[αβεβαιότητας του μέσου όρου]]. Επιπλέον, εάν η διακύμανση των μεταβλητών είναι μονάδα, για παράδειγμα , αν είναι σταθεροποιημένες , τότε αυτό απλοποιείται<span class="cx-segment" data-segmentid="335"></span>
: <math>\operatorname{Var}(\overline{X}) = \frac {1} {n} + \frac {n-1} {n} \rho.</math>
Αυτός ο τύπος χρησιμοποιείται στον
: <math> \lim_{n \to \infty} \operatorname{Var}(\overline{X}) = \rho.</math>
Κατά συνέπεια, η διακύμανση της μέσης τιμής ενός μεγάλου αριθμού σταθεροποιημένων μεταβλητών είναι περίπου ίση με τη μέση συσχέτιση τους . Αυτό καθιστά σαφές ότι η μέση τιμή του δείγματος των συσχετισμένων μεταβλητών γενικά δεν συγκλίνει προς τη μέση τιμή του πληθυσμού, παρόλο που ο
=== Σημειογραφία πίνακα για τη διακύμανση ενός γραμμικού συνδυασμού ===
Γραμμή 152:
=== Σταθμισμένο άθροισμα μεταβλητών ===
Η ιδιότητα της κλιμάκωσης και ο τύπος Bienaymé , μαζί με την ιδιότητα της συνδιασποράς
: <math>\operatorname{Var}(aX \pm bY) =a^2 \operatorname{Var}(X) + b^2 \operatorname{Var}(Y) \pm 2ab\, \operatorname{Cov}(X, Y).</math>
Αυτό σημαίνει ότι σε ένα σταθμισμένο άθροισμα μεταβλητών , η μεταβλητή με το μεγαλύτερο βάρος θα έχει ένα δυσανάλογα μεγάλο βάρος στη διακύμανση του συνόλου.Για παράδειγμα,αν ''X'' και ''Y'' είναι ασυσχέτιστα και το βάρος του ''X'' είναι δύο φορές το βάρος του ''Y'', τότε το βάρος της διακύμανσης του ''X'' θα είναι τέσσερις φορές το βάρος της διακύμαμσης του ''Y''.
Γραμμή 181:
\end{align}</math>
=== Ανάλυση ===
Ο γενικός τύπος για την ανάλυση διακύμανσης ή [[νόμος ολικής διακύμανσης]] είναι: Αν <math /> και <math /> είναι δύο τυχαίες μεταβλητές, και η διακύμανση της <math /> υπάρχει, τότε
{{Reflist|30em}}▼
: <math />
όπου <math>\operatorname E(X|Y)</math> είναι η υπό συνθήκη αναμενόμενη τιμή του <math>X</math> δοθέντος του <math>Y</math>, και <math>\operatorname{Var}(X|Y)</math> είναι η [[υπο συνθήκη διακύμανση]] του <math>X</math> δοθέντος του <math>Y</math>. (Μία πιο διαισθητική εξήγηση είναι ότι για μία δεδομένη τιμή του <math>Y</math>, τότε το <math>X</math> ακολουθεί μια κατανομή με μέση τιμή <math>\operatorname E(X|Y)</math> και διακύμανση <math>\operatorname{Var}(X|Y)</math>. Καθώς <math>\operatorname E(X|Y)</math> είναι μία συνάρτηση της μεταβλητής <math>Y</math>, η αναμενόμενη τιμή της διακύμανσης βρίσκεται σε σχέση με το Y. Ο παραπάνω τύπος περιγράφει το πως να βρούμε <math>\operatorname{Var}(X)</math> βασισμένη στις κατανομές αυτών των δύο ποσοτήτων όταν το <math>Y</math> μπορεί να αλλάζει.Ένας παρόμοιος τύπος εφαρμόζεται στην [[ανάλυση διασποράς]],όπου ο αντιστοιχος τύπος είναι<span class="cx-segment" data-segmentid="439"></span>
: <math />
εδώ το <math /> αναφέρεται στη Μέση τιμή των Τετραγώνων. Στην [[ανάλυση γραμμικής παλινδρόμησης]] ο αντίστοιχος τύπος είναι
: <math />
== See also ==
== Notes ==
▲{{Reflist|30em}}
|