Διακύμανση: Διαφορά μεταξύ των αναθεωρήσεων

Περιεχόμενο που διαγράφηκε Περιεχόμενο που προστέθηκε
μ Αναστροφή της επεξεργασίας από τον 80.228.186.125 (συνεισφ.), επιστροφή στην τελευταία εκδοχή υπό [[Χρ...
Δημιουργήθηκε από μετάφραση της σελίδας "Variance"
Γραμμή 1:
Στη [[θεωρία πιθανοτήτων]] και τη [[στατιστική]],η '''διακύμανση''' είναι η [[αναμενόμενη τιμή]] της τετραγωνικής απόκλισης της [[Τυχαία μεταβλητή|τυχαίας μεταβλητής]] από τη [[μέση τιμή]], και άτυπα μετρά πόσο μακριά ένα σύνολο (τυχαίων) αριθμών απλώνεται από τη μέση τιμή του. Η διακύμανση έχει κεντρικό ρόλο στη στατιστική. Χρησιμοποιείται στην [[περιγραφική στατιστική]], [[Στατιστική συμπερασματολογία]], [[έλεγχο υποθέσεων]],[[έλεγχο καλής προσαρμογής]], [[Monte Carlo (μέθοδος)|Μόντε Κάρλο δειγματοληψίας]], μεταξύ πολλών άλλων. Αυτό την καθιστά μία κεντρική ποσότητα σε πολλά πεδία όπως η [[Φυσική]], [[Βιολογία]], [[Χημεία]], [[Οικονομικά]], και [[Χρηματοοικονομικά]]. Η διακύμανση είναι το τετράγωνο της τυπικής απόκλισης, η δεύτερη [[κεντρική ροπή]] της κατανομής, και η [[συνδιασπορά]] της τυχαίας μεταβλητής με τον εαυτό της, και συχνά συμβολίζεται σ² ή Var(X).<span class="cx-segment" data-segmentid="25"></span>
{{Infobox
|name = Επιστημονικό πεδίο
|bodystyle =
|title = Διακύμανση
|titlestyle =
 
== Ορισμός ==
|image =
Η διακύμανση μιας τυχαίας μεταβλητής ''Χ'' είναι η [[αναμενόμενη τιμή]] της τετραγωνικής απόκλισης από τη [[Μέσος όρος|μέση τιμή]] του ''X'', {{Πρότυπο:Nowrap|1=''μ'' = E[''X'']}}:
|imagestyle =
: <math> \operatorname{Var}(X) = \operatorname{E}\left[(X - \mu)^2 \right]. </math>
|caption =
Ο ορισμός αυτός περιλαμβάνει τυχαίες μεταβλητές που δημιουργούνται από διαδικασίες που είναι [[διακριτές]], συνεχείς, ούτε διακριτές ούτε συνεχείς, ή μικτές. Η διακύμανση μπορεί επίσης να θεωρηθεί ως η [[συνδιασπορά]] μιας τυχαίας μεταβλητής με τον εαυτό της:<span class="cx-segment" data-segmentid="43"></span>
|captionstyle =
: <math>\operatorname{Var}(X) = \operatorname{Cov}(X, X).</math>
|headerstyle = background:#ccf;
Η διακύμανση είναι επίσης ισοδύναμη με το δεύτερο [[αθροιστικό]] από μια κατανομή πιθανότητας που παράγει την X. Η διακύμανση τυπικά συμβολίζεται Var(X), ή απλά σ2 (προφέρεται "[[σίγμα]] στο τετράγωνο"). Ο τύπος για τη διασπορά μπορεί να αναπτυχθεί: <span class="cx-segment" data-segmentid="52"></span>
|labelstyle = background:#ddf;
: <math>\begin{align}
|datastyle =
\operatorname{Var}(X) &= \operatorname{E}\left[(X - \operatorname{E}[X])^2\right] \\
&= \operatorname{E}\left[X^2 - 2X\operatorname{E}[X] + (\operatorname{E}[X])^2\right] \\
&= \operatorname{E}\left[X^2\right] - 2\operatorname{E}[X]\operatorname{E}[X] + (\operatorname{E}[X])^2 \\
&= \operatorname{E}\left[X^2 \right] - (\operatorname{E}[X])^2
\end{align}</math>
Ένα μνημονικό για τον παραπάνω τύπο είναι το "μέσο του τετραγώνου μείον το τετράγωνο του μέσου". Στην υπολογιστική αριθμητική κινητής υποδιαστολής, η εξίσωση αυτή δεν πρέπει να χρησιμοποιείται, γιατί πάσχει από [[έλλειψη σημασίας]] αν τα δύο μέρη της εξίσωσης είναι παρόμοια σε μέγεθος. Υπάρχουν [[αριθμητικά σταθερές εναλλακτικές λύσεις]]. <span class="cx-segment cx-highlight" data-segmentid="60"></span>
 
=== Συνεχής τυχαία μεταβλητή ===
|header1 = Ταξινόμηση
Αν η τυχαία μεταβλητή X αντιπροσωπεύει δείγματα που παράγονται από μια [[συνεχή κατανομή]] με [[συνάρτηση πυκνότητας πιθανότητας]] f(x),τότε η διακύμανση του πληθυσμού δίνεται από
|label1 =
: <math>\operatorname{Var}(X) =\sigma^2 =\int (x-\mu)^2 \, f(x) \, dx\, =\int x^2 \, f(x) \, dx\, - \mu^2</math>
|data1 =
όπου <math>\mu</math> είναι η αναμενόμενη τιμή,
|header2 =
: <math>\mu = \int x \, f(x) \, dx\, </math>
|label2 = Dewey
και όπου τα ολοκληρώματα είναι [[Ολοκλήρωμα|ορισμένα ολοκληρώματα]] που λαμβάνονται για x που κυμαίνονται πάνω στο εύρος τιμών του X.
|data2 = {{#if:519|[http://dewey.info/class/519/2009/08/about.en 519]}}
|header3 =
|label3 = MSC2010
|data3 = {{#if:97Kxx|[http://msc2010.org/mscwiki/index.php?title=97Kxx 97Kxx]}}
|header4 =
|label4 =
|data4 =
|header5 =
|label5 =
|data5 =
 
Αν μια συνεχής κατανομή δεν έχει αναμενόμενη τιμή, όπως στην περίπτωση της [[Cauchy κατανομής|Κωσύ κατανομής]], δεν έχει ούτε διακύμανση. Πολλές άλλες κατανομές, για τις οποίες η αναμενόμενη τιμή δεν υπάρχει, επίσης, δεν έχουν πεπερασμένη διακύμανση, επειδή το ολοκλήρωμα στον ορισμό της διακύμανσης αποκλίνει. Ένα παράδειγμα είναι μια[[Κατανομή Pareto| κατανομή Παρέτο]] της οποίας ο δείκτης k ικανοποιεί την 1 < k ≤ 2.<span class="cx-segment" data-segmentid="83"></span>
|belowstyle =
|below =
}}
Η '''διακύμανση''' ή διασπορά μίας [[τυχαία μεταβλητή|τυχαίας μεταβλητής]] <math>\, X </math> συμβολίζεται συνήθως με <math>\,Var[X]</math> και δηλώνει πόσο συγκεντρωμένες γύρω από τη [[μέση τιμή]] είναι οι τιμές της τυχαίας μεταβλητής.
 
=== Διακριτή τυχαία μεταβλητή ===
== Ορισμός ==
Αν η γεννήτρια της τυχαίας μεταβλητής X είναι [[διακριτή]] με [[συνάρτηση μάζας πιθανότητας]] ''x''<sub>1</sub>&#x20;↦&#x20;''p''<sub>1</sub>,&#x20;...,&#x20;''x''<sub>''n''</sub>&#x20;↦&#x20;''p''<sub>''n''</sub>, τότε
Έστω μία τυχαία μεταβλητή <math>\, X </math> με [[μέση τιμή]] <math>\,\mu =E[X]</math> και [[συνάρτηση κατανομής]] <math>\,F</math>.
: <math>\operatorname{Var}(X) = \sum_{i=1}^n p_i\cdot(x_i - \mu)^2,</math>
Η διακύμανση ορίζεται ως:
ή ισοδύναμα
:<math>Var[X]=\int_{-\infty}^{\infty}(x-\mu)^2dF(x)=E[(X-\mu)^2],</math>
: <math>\operatorname{Var}(X) = \sum_{i=1}^n p_i x_i ^2- \mu^2,</math>
όταν το ολοκλήρωμα συγκλίνει.
όπου <math>\mu</math> είναι η αναμενόμενη τιμή, δηλ.
: <math>\mu = \sum_{i=1}^n p_i\cdot x_i. </math>
(Όταν μια διακριτά [[σταθμισμένη διακύμανση]]  καθορίζεται από βάρη των οποίων το άθροισμα δεν είναι 1, τότε ένα διαιρεί το άθροισμα των βαρών.)
 
Η διακύμανση ενός συνόλου n  ισοπίθανων τιμών μπορεί να γραφτεί ως
Η θετική τετραγωνική ρίζα της διακύμανσης ονομάζεται '''τυπική απόκλιση''' και συμβολίζεται με <math>\,\sigma</math>.
: <math> \operatorname{Var}(X) = \frac{1}{n} \sum_{i=1}^n (x_i - \mu)^2. </math>
όπου <math>\mu</math> είναι η αναμενόμενη τιμή, δηλ.
: <math>\mu = \frac{1}{n}\sum_{i=1}^n x_i </math>
Η διακύμανση ενός συνόλου ''n'' ισοπίθανων τιμών μπορεί  να εκφράζεται ισοδύναμα, χωρίς να αναφέρεται άμεσα η μέση τιμή,με τους όρους των τετραγώνων των αποκλίσεων όλων των σημείων,του ενος απο του αλλου:<ref>{{Πρότυπο:Cite conference|authors=Yuli Zhang,Huaiyu Wu,Lei Cheng|title=Some new deformation formulas about variance and covariance|conference=Proceedings of 4th International Conference on Modelling, Identification and Control(ICMIC2012)|date=June 2012|pages=987–992}}</ref>
: <math> \operatorname{Var}(X) = \frac{1}{n^2} \sum_{i=1}^n \sum_{j=1}^n \frac{1}{2}(x_i - x_j)^2 = \frac{1}{n^2}\sum_i \sum_{j>i} (x_i-x_j)^2. </math>
 
== Παραδείγματα ==
=== Διακριτές τυχαίες μεταβλητές ===
Έστω <math>\,X</math> μία διακριτή τυχαία μεταβλητή που παίρνει τις τιμές <math>x_i, i \in N, N \sub \N</math> με αντίστοιχες πιθανότητες <math>\,p_i=P(X=x_i)</math>. Η διακύμανσή της είναι:
:<math>Var(X)=\sum_{i \in N}(x_i-\mu)^2p_i.</math>
 
=== Κανονική κατανομή ===
=== Συνεχείς τυχαίες μεταβλητές ===
ΈστωΗ <math>\,X</math>[[κανονική κατανομή]] με παραμέτρους μ και σ είναι μίαμια συνεχής τυχαίακατανομή μεταβλητήτης μεοποίας η [[συνάρτηση πυκνότητας πιθανότητας]] <math>\,f(x)</math>δίνεται ηαπό διακύμανσήτον της είναιτύπο:
: <math>
:<math>Var(X) = \int_{-\infty}^{\infty} (x-\mu)^2 f(x)dx\,</math>.
f(x) = \frac{1}{\sqrt{2\pi \sigma^2}} e^{ -\frac{(x-\mu)^2}{2\sigma^2} }.
</math>
Σε αυτή την κατανομή, E(X) = μ και διακύμανση Var(X) σχετίζεται με το σ μέσω της σχέσης
: <math>
\operatorname{Var}(X) = \int_{-\infty}^\infty \frac{(x - \mu)^2}{\sqrt{2\pi \sigma^2}} e^{ -\frac{(x-\mu)^2}{2\sigma^2} } \, dx = \sigma^2.
</math>
Ο ρόλος της κανονικής κατανομής στο [[Θεώρημα κεντρικού ορίου|κεντρικό οριακό θεώρημα]] είναι εν μέρει υπεύθυνος για την επικράτηση της διακύμανσης στις πιθανότητες και τη στατιστική.
 
=== Εκθετική κατανομή ===
Η [[εκθετική κατανομή]] με παράμετρο λ είναι μια συνεχής κατανομή η υποστήριξη της οποίας είναι το ημι-άπειρο διάστημα [0,∞). Η [[συνάρτηση πυκνότητας πιθανότητας]] δίνεται από τον τύπο:
: <math>f(x) = \lambda e^{-\lambda x},\,</math>
και έχει αναμενόμενη τιμή μ = λ<sup>-1</sup>. Η διακύμανση είναι ίση με:
: <math> \operatorname{Var}(X) = \int_0^\infty (x - \lambda^{-1})^2 \, \lambda e^{-\lambda x} dx = \lambda^{-2}.\,</math>
Έτσι, για μία εκθετικά κατανεμημένη τυχαία μεταβλητή σ<sup>2</sup> = μ<sup>2</sup>.
 
=== Κατανομή Πουασσόν ===
Η [[κατανομή Πουασσόν]] με παράμετρο λ είναι μια διακριτή κατανομή για ''k'' = 0, 1, 2, ... Η [[:en:Probability_mass_function|συνάρτηση μάζας πιθανότητας]] δίνεται από τον τύπο:
: <math>p(k) = \frac{\lambda^k}{k!} e^{-\lambda},</math>
και έχει αναμενόμενη τιμή μ = λ. Η διακύμανση είναι ίση με:
: <math> \operatorname{Var}(X) = \sum_{k=0}^\infty \frac{\lambda^k}{k!} e^{-\lambda} (k-\lambda)^2 = \lambda,</math>
Έτσι, για μια Πουασσόν-κατανεμημένη τυχαία μεταβλητή  σ<sup>2</sup> = μ.
 
=== Διωνυμική κατανομή ===
Η [[διωνυμική κατανομή]] με παραμέτρους ''n'' και ''p'' είναι μια διακριτή κατανομή για ''k'' = 0, 1, 2, ..., ''n''. Η [[:en:Probability_mass_function|συνάρτηση μάζας πιθανότητας]] δίνεται από τον τύπο:
: <math>p(k) = {n\choose k}p^k(1-p)^{n-k},</math>
και έχει αναμενόμενη τιμή μ = ''np''. Η διακύμανση είναι ίση με:
: <math> \operatorname{Var}(X) = \sum_{k=0}^{n} {n\choose k}p^k(1-p)^{n-k} (k-np)^2 = np(1-p),</math>
 
==== Ρίψη νομίσματος ====
Η διωνυμική κατανομή με <math>p=0.5</math> περιγράφει την πιθανότητα να εμφανιστούν <math>k</math> κεφαλές σε <math>n</math> ρίψεις. Έτσι, η αναμενόμενη τιμή του αριθμού των κεφαλών είναι <math alt="n/2">\frac{n}{2}</math> και η διακύμανση είναι <math alt="n/4">\frac{n}{4}</math>.
 
=== Ρίψη ζαριού ===
Ένα εξάεδρο [[ζάρι]] μπορεί να μοντελοποιηθεί με μια διακριτή τυχαία μεταβλητή με αποτελέσματα από το 1 έως το 6, το καθένα με ίση πιθανότητα <math>\textstyle\frac{1}{6}</math>. Η αναμενόμενη τιμή είναι (1&#x20;+&#x20;2&#x20;+&#x20;3&#x20;+&#x20;4&#x20;+&#x20;5&#x20;+&#x20;6)/6 =&#x20;3.5. Ως εκ τούτου, η διακύμανση μπορεί να υπολογιστεί να είναι:
: <math>
\begin{align}
\sum_{i=1}^6 \tfrac{1}{6}(i - 3.5)^2 = \tfrac{1}{6}\sum_{i=1}^6 (i - 3.5)^2 & = \tfrac{1}{6}\left((-2.5)^2{+}(-1.5)^2{+}(-0.5)^2{+}0.5^2{+}1.5^2{+}2.5^2\right) \\
& = \tfrac{1}{6} \cdot 17.50 = \tfrac{35}{12} \approx 2.92.
\end{align}
</math>
Ο γενικός τύπος για την μεταβλητή του αποτελέσματος ''X'' ενός ζαριού 6 έδρων είναι:
: <math>
\begin{align}
\sigma^2=E(X^2)-(E(X))^2
&=\frac{1}{n}\sum_{i=1}^n i^2-\left(\frac{1}{n}\sum_{i=1}^n i\right)^2 \\
&=\tfrac 16 (n+1)(2n+1) - \tfrac 14 (n+1)^2\\
&=\frac{ n^2-1 }{12}.
\end{align}
</math>
 
== Ιδιότητες ==
 
=== Βασικές ιδιότητες ===
* <math>\,Var[X]= E[X^2]-(E[X])^2</math>
Η διακύμανση είναι μη-αρνητική επειδή τα τετράγωνα είναι θετικά ή μηδέν.
: <math>\operatorname{Var}(X)\ge 0.</math>
Η διακύμανση μιας σταθερής τυχαίας μεταβλητής είναι μηδέν,και αν η διακύμανση μιας μεταβλητής σε ένα [[σύνολο δεδομένων]] είναι 0,τότε όλα τα δεδομένα που εισάγονται έχουν την ίδια τιμή.
: <math>P(X=a) = 1\Leftrightarrow \operatorname{Var}(X)= 0.</math>
Η διακύμανση είναι [[αμετάβλητη]] σε σχέση με τις αλλαγές σε μία [[παράμετρο θέσης]].Δηλαδή, αν προστεθεί μία σταθερά σε όλες τις τιμές της μεταβλητής,η διακύμανση δεν αλλάζει.
: <math>\operatorname{Var}(X+a)=\operatorname{Var}(X).</math>
Αν όλες οι τιμές πολλαπλασιαστούν με μία σταθερά,η διακυμανση πολλαπλασιάζεται με το τετράγωνο της σταθεράς.
: <math>\operatorname{Var}(aX)=a^2\operatorname{Var}(X).</math>
Η διακύμανση του αθροίσματος δύο τυχαίων μεταβλητών δίνεται από:
: <math>\operatorname{Var}(aX+bY)=a^2\operatorname{Var}(X)+b^2\operatorname{Var}(Y)+2ab\, \operatorname{Cov}(X,Y),</math>
 
: <math>\operatorname{Var}(aX-bY)=a^2\operatorname{Var}(X)+b^2\operatorname{Var}(Y)-2ab\, \operatorname{Cov}(X,Y),</math>
όπου {{Πρότυπο:Math|Cov(⋅, ⋅)}} είναι η [[συνδιασπορά]].Γενικά,για το άθροισμα <math>N</math> τυχαίων μεταβλητών <math>\{X_1,\dots,X_N\}</math> έχουμε:
: <math>\operatorname{Var}\left(\sum_{i=1}^N X_i\right)=\sum_{i,j=1}^N\operatorname{Cov}(X_i,X_j)=\sum_{i=1}^N\operatorname{Var}(X_i)+\sum_{i\ne j}\operatorname{Cov}(X_i,X_j).</math>
Αυτά τα αποτελέσματα οδηγούν στη διακύμανση ενός [[γραμμικού συνδιασμού]]:
: <math>
\begin{align}
\operatorname{Var}\left( \sum_{i=1}^N a_iX_i\right) &=\sum_{i,j=1}^{N} a_ia_j\operatorname{Cov}(X_i,X_j) \\
&=\sum_{i=1}^N a_i^2\operatorname{Var}(X_i)+\sum_{i\not=j}a_ia_j\operatorname{Cov}(X_i,X_j)\\
& =\sum_{i=1}^N a_i^2\operatorname{Var}(X_i)+2\sum_{1\le i<j\le N}a_ia_j\operatorname{Cov}(X_i,X_j).
\end{align}
</math>
Αν οι τυχαίες μεταβλητές <math>X_1,\dots,X_N</math> είναι τέτοιες ώστε
: <math>\operatorname{Cov}(X_i,X_j)=0\ ,\ \forall\ (i\ne j) ,</math>
τότε λέγονται [[ασυσχέτιστες]].Έπεται αμέσως από την έκφραση που δόθηκε πριν ότι αν οι τυχαίες μεταβλητές <math>X_1,\dots,X_N</math> είναι ασυσχέτιστες,τότε η διακύμανση του αθροίσματός τους είναι ίση με το άθοισμα των διακυμάνσεών τους, ή, εκφρασμένο με σύμβολα:
: <math>\operatorname{Var}\left(\sum_{i=1}^N X_i\right)=\sum_{i=1}^N\operatorname{Var}(X_i).</math>
Αφού οι [[ανεξάρτητες τυχαίες μεταβλητές]] είναι πάντα [[ασυσχέτιστες]],η παραπάνω ισότητα ισχύει ιδίως όταν οι τυχαίες μεταβλητές <math>X_1,\dots,X_n</math> είναι ανεξάρτητες.Έτσι η ανεξαρτησία είναι ικανή αλλα όχι αναγκαία για να είναι η διακύμανση του αθροίσματος ίση με το άθροισμα των διακυμάνσεων.
 
=== Άθροισμα ασυσχέτιστων μεταβλητών (τύπος Bienaymé) ===
Ένας λόγος για να προτιμηθεί η χρήση της διακύμανσης από άλλα μέτρα διασποράς είναι ότι η διακύμανση του αθροίσματος (ή της διαφοράς) [[ασυσχέτιστων]] μεταβλητών είναι το άθροισμα των διακυμάνσεών τους:
: <math>\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \operatorname{Var}(X_i).</math>
Αυτή η πρόταση ονομάζεται τύπος [[:en:Irénée-Jules_Bienaymé|Bienaymé]] <ref>Loeve, M. (1977) "Probability Theory", ''Graduate Texts in Mathematics'', Volume 45, 4th edition, Springer-Verlag, p.&nbsp;12.</ref> και ανακαλύφθηκε το 1853.<sup class="noprint Inline-Template Template-Fact" style="white-space:nowrap;" contenteditable="false">&#x5B;''<span title="This claim needs references to reliable sources. (February 2013)">citation needed</span>''&#x5D;</sup> Γίνεται συχνά με τηνισχυρότερη προϋπόθεση ότι οι μεταβλητές είναι ανεξάρτητες,αλλά και να είναι ασυσχέτιστες είναι επαρκές.Έτσι, αν όλες οι μεταβλητές έχουν την ίδια διακύμανση σ<sup>2</sup>,τότε , δεδομένου ότι η διαίρεση με το ''n'' είναι ένας γραμμικός μετασχηματισμός , ο τύπος αυτός συνεπάγεται αμέσως ότι η διακύμανση της μέσης τιμής τους, είναι
: <math>\operatorname{Var}\left(\overline{X}\right) = \operatorname{Var}\left(\frac {1} {n}\sum_{i=1}^n X_i\right) = \frac {1} {n^2}\sum_{i=1}^n \operatorname{Var}\left(X_i\right) = \frac {\sigma^2} {n}.</math>
Δηλαδή, η διακύμανση της μέσης τιμής μειώνεται όταν το ''n  ''αυξάνεται . Αυτός ο τύπος για τη διακύμανση της μέσης τιμής χρησιμοποιείται στον ορισμό του βασικού σφάλματος της μέσης τιμής του δείγματος , το οποίο χρησιμοποιείται στο [[Θεώρημα κεντρικού ορίου|κεντρικό οριακο θεώρημα.]] <span class="cx-segment" data-segmentid="304"></span>
 
=== Άθροισμα συσχετισμένων μεταβλητών ===
Γενικά,αν οι μεταβλητές είναι [[συσχετισμένες]],τότε η διακύμανση του αθροίσματός τους είναι το άθροισμα των [[συνδιασπορών]] τους:
: <math>\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \sum_{j=1}^n \operatorname{Cov}(X_i, X_j) = \sum_{i=1}^n \operatorname{Var}(X_i) + 2\sum_{1\le i}\sum_{<j\le n}\operatorname{Cov}(X_i,X_j).</math>
(Σημείωση : Η δεύτερη ισότητα προκύπτει από το γεγονός ότι {{Πρότυπο:Math|Cov(''X''<sub>''i''</sub>,''X''<sub>''i''</sub>) {{=}} Var(''X''<sub>''i''</sub>)}}.)
 
Εδώ {{Πρότυπο:Math|Cov(⋅, ⋅)}} είναι η [[συνδιασπορά]],η οποία είναι μηδέν για ανεξάρτητες τυχαίες μεταβλητές (αν υπάρχει).Ο τύπος δηλώνει ότι η διακύμανση ενός αθροίσματος είναι ίση με το άθροισμα όλων των στοιχείων στον πίνακα συνδιασποράς των παραγόντων. Ο τύπος αυτός χρησιμοποιείται στην θεωρία του [[Cronbach's alpha]] στην [[κλασική ψυχομετρικη θεωρία]]. <span class="cx-segment" data-segmentid="323"></span>
 
Έτσι, αν οι μεταβλητές έχουν την ίδια διακύμανση ''σ''<sup>2</sup>και η μέση συσχέτιση διακριτών μεταβλητών είναι  ''ρ'', τότε η διακύμανση της μέσης τιμής τους ειναι
* <math>\,Var[aX+b]=a^2Var[X]</math>
: <math>\operatorname{Var}(\overline{X}) = \frac {\sigma^2} {n} + \frac {n-1} {n} \rho \sigma^2.</math>
Αυτό συνεπάγεται ότι η διακύμανση της μέσης τιμής αυξάνει με το μέσο όρο των συσχετισμών . Με άλλα λόγια , πρόσθετες συσχετιζόμενες παρατηρήσεις δεν είναι τόσο αποτελεσματικές όσο πρόσθετες ανεξάρτητες παρατηρήσεις στη μείωση της [[αβεβαιότητας του μέσου όρου]]. Επιπλέον, εάν η διακύμανση των μεταβλητών είναι μονάδα, για παράδειγμα , αν είναι σταθεροποιημένες , τότε αυτό απλοποιείται<span class="cx-segment" data-segmentid="335"></span>
: <math>\operatorname{Var}(\overline{X}) = \frac {1} {n} + \frac {n-1} {n} \rho.</math>
Αυτός ο τύπος χρησιμοποιείται στον τύπο πρόβλεψης των Spearman–Brown της κλασικής ψυχομετρικής θεωρίας. Αυτό συγκλίνει στο ''ρ'' αν το ''n'' τείνει στο άπειρο, υπό την προϋπόθεση ότι ο μέσος συσχετισμός παραμένει σταθερός ή συγκλίνει . Έτσι, για τη διακύμανση της μέσης τιμής των σταθεροποιημένων μεταβλητών με τις ίδιες συσχετίσεις ή συγκλίνουσα μέση συσχέτιση έχουμε<span class="cx-segment" data-segmentid="343"></span>
: <math> \lim_{n \to \infty} \operatorname{Var}(\overline{X}) = \rho.</math>
Κατά συνέπεια, η διακύμανση της μέσης τιμής ενός μεγάλου αριθμού σταθεροποιημένων μεταβλητών είναι περίπου ίση με τη μέση συσχέτιση τους . Αυτό καθιστά σαφές ότι η μέση τιμή του δείγματος των συσχετισμένων μεταβλητών γενικά δεν συγκλίνει προς τη μέση τιμή του πληθυσμού, παρόλο που ο[[ νόμος των μεγάλων αριθμών]] αναφέρει ότι η μέση τιμή του δείγματος θα συγκλίνει για ανεξάρτητες μεταβλητές.
 
=== Σημειογραφία πίνακα για τη διακύμανση ενός γραμμικού συνδυασμού ===
* <math>\,Var[aX+bY]=a^2Var[X]+b^2Var[Y]+2ab\,Cov[X,Y]</math>
Ορίζουμε το  <math>X</math> ως ένα διάνυσμα στήλης <math>n</math> τυχαίων μεταβλητών  <math>X_1, \ldots,X_n</math>, και <math>c</math> ως διάνυσμα στήλης  <math>n</math> βαθμών <math>c_1, \ldots,c_n</math>. Επομένως, <math>c^T X</math> είναι ένας γραμμικός συνδυασμός αυτών των τυχαίων μεταβλητών , όπου <math>c^T</math> δηλώνει το ανάστροφο του <math>c</math>. Επίσης,έστω <math>\Sigma</math> ο πίνακας συνδιασποράς του <math>X</math>. Τότε η διακύμανση του <math>c^TX</math> δίνεται από :<ref>{{Πρότυπο:Cite book|title=Applied Multivariate Statistical Analysis|last2=Wichern|first2=Dean|publisher=Prentice Hall|year=2001|isbn=0-13-187715-1|page=76|last1=Johnson|first1=Richard|postscript=<!-- Bot inserted parameter. Either remove it; or change its value to "." for the cite to end in a ".", as necessary. -->{{inconsistent citations}}}}</ref>
όπου <math>\,X,Y</math> τυχαίες μεταβλητές,<math>\,a,b\in\R</math> και <math>\,Cov</math> η [[συνδιασπορά]].
: <math>\operatorname{Var}(c^T X) = c^T \Sigma c .</math>
 
=== Σταθμισμένο άθροισμα  μεταβλητών ===
== Εκτίμηση διακύμανσης ==
Η ιδιότητα της κλιμάκωσης και ο τύπος Bienaymé , μαζί με την ιδιότητα της συνδιασποράς  {{Πρότυπο:Math|Cov(''aX'',&nbsp;''bY'') {{=}} ''ab'' Cov(''X'',&nbsp;''Y'')}} απο κοινού συνεπάγεται ότι
Έστω ένα [[τυχαίο δείγμα]] <math>\,x=(x_1,\dots,x_n)</math>.
: <math>\operatorname{Var}(aX \pm bY) =a^2 \operatorname{Var}(X) + b^2 \operatorname{Var}(Y) \pm 2ab\, \operatorname{Cov}(X, Y).</math>
Αυτό σημαίνει ότι σε ένα σταθμισμένο άθροισμα μεταβλητών , η μεταβλητή με το μεγαλύτερο βάρος θα έχει ένα δυσανάλογα μεγάλο βάρος στη διακύμανση του συνόλου.Για παράδειγμα,αν ''X'' και ''Y'' είναι ασυσχέτιστα και το βάρος του ''X'' είναι δύο φορές το βάρος του ''Y'', τότε το βάρος της διακύμανσης του ''X'' θα είναι τέσσερις φορές το βάρος της διακύμαμσης του ''Y''.
 
Η παραπάνω έκφραση μπορεί να επεκταθεί σε ένα σταθμισμένο άθροισμα πολλαπλών μεταβλητών:
Όταν η μέση τιμή <math>\,\mu</math> του πληθυσμού είναι γνωστή, τοτε η [[εκτιμήτρια συνάρτηση|εκτιμήτρια]]
: <math>\operatorname{Var}\left(\sum_{i}^n a_iX_i\right) = \sum_{i=1}^na_i^2 \operatorname{Var}(X_i) + 2\sum_{1\le i}\sum_{<j\le n}a_ia_j\operatorname{Cov}(X_i,X_j)</math>
<math>\,s^2=\frac1n\sum_{i=1}^n(x_i-\mu)^2</math>
είναι [[εκτιμήτρια συνάρτηση#Επιθυμητές ιδιότητες|αμερόληπτη εκτιμήτρια]] της διακύμανσης.
 
=== Γινόμενο ανεξάρτητων μεταβλητών ===
Όταν η μέση τιμή είναι άγνωστη, τοτε η αμερόληπτη εκτιμήτρια της διακύμανσης είναι
Αν δύο μεταβλητές X και Y είναι [[ανεξάρτητες]],η διακύμανση του γινομένου τους δίνεται από <ref>Goodman, Leo A., "On the exact variance of products," ''Journal of the American Statistical Association'', December 1960, 708–713.
<math>\,s^2=\frac1{n-1}\sum_{i=1}^n(x_i-\bar{x})^2</math> με <math>\,\bar{x}=\frac1n\sum_{i=1}^nx_i</math> .
</ref>
: <math>
\begin{align}
\operatorname{Var}(XY) &= [E(X)]^2 \operatorname{Var}(Y) + [E(Y)]^2 \operatorname{Var}(X) + \operatorname{Var}(X)\operatorname{Var}(Y).
\end{align}
</math>
Ισοδύναμα, χρησιμοποιώντας τις βασικές ιδιότητες της προσδοκίας , δίνεται από
: <math>
\operatorname{Var}(XY) = E(X^2) E(Y^2) - [E(X)]^2 [E(Y)]^2.
</math>
 
=== Γινόμενο συσχετισμένων μεταβλητών ===
[[Κατηγορία:Στατιστική]]
Γενικά,αν δύο μεταβλητές είναι συσχετισμένες,η διακύμανση του γινομένου τους δίνεται από:
[[Κατηγορία:Θεωρία πιθανοτήτων]]
: <math>
\begin{align}
\operatorname{Var}(XY) &= E[X^2 Y^2 ]-[E(XY)]^2 \\
&= \operatorname{Cov}(X^2,Y^2 )+E(X^2)E(Y^2) - [E(XY)]^2 \\
&= \operatorname{Cov}(X^2, Y^2) +(\operatorname{Var}(X)+[E(X)]^2 )(\operatorname{Var}(Y)+[E(Y)]^2 )-[\operatorname{Cov}(X,Y)+E(X)E(Y)]^2
\end{align}</math>
 
== See also ==
 
== Notes ==
{{μαθηματικά-επέκταση}}
{{Reflist|30em}}