Ροπές, διασπορά, τυπική απόκλιση τυχαίων μεταβλητών

Έστω $X$ μια διακριτή τυχαία μεταβλητή, και $r\geq 0$ ακέραιος. Ονομάζουμε ροπή τάξης $r$ της $X$ τη μέση τιμή της μεταβλητής $X^r$ (αν υπάρχει, αν δηλαδή είναι πεπερασμένη). Αν η $X$ έχει ροπή τάξης $r$, τότε η ροπή τάξης $r$ της $(X-\mu)$, όπου $\mu$ η μέση τιμή της $X$, λέγεται κεντρική ροπή τάξης $r$ της $X$. Έτσι, h ροπή τάξης $r$ και η κεντρική ροπή τάξης $r$ για μια διακριτή τυχαία μεταβλητή $X$ δίνονται από τις σχέσεις
$\displaystyle E(X^r)$ $\textstyle =$ $\displaystyle \sum_{j=1}^n x_j^r f(x_j) ,$  
$\displaystyle E[(X-\mu)^r]$ $\textstyle =$ $\displaystyle \sum_{j=1}^n (x_j-\mu)^r f(x_j) .$  

Σύμφωνα με τις παραπάνω σχέσεις, η ροπή τάξης $r$ προσδιορίζεται πλήρως από την πυκνότητα $f$ της τυχαίας μεταβλητής. Μπορούμε λοιπόν να μιλάμε για τη ροπή τάξης $r$ και την κεντρική ροπή τάξης $r$ της $f$. Για συνεχείς τυχαίες μεταβλητές, οι παραπάνω σχέσεις τροποποιούνται ως εξής:
$\displaystyle E(X^r)$ $\textstyle =$ $\displaystyle \int_{-\infty}^\infty x^r f(x) dx,$  
$\displaystyle E[(X-\mu)^r]$ $\textstyle =$ $\displaystyle \int_{-\infty}^\infty (x-\mu)^r f(x)$  

Αν η τυχαία μεταβλητή $X$ έχει ροπή τάξης $r$, τότε η $X$ έχει ροπή κάθε τάξης $k$ με $k \leq r$.

Γενικά, όσο περισσότερες ροπές της $X$ γνωρίζουμε, τόσο περισσότερες πληροφορίες έχουμε αποκτήσει για την πυκνότητα της $X$. Στις εφαρμογές το μεγαλύτερο ενδιαφέρον παρουσιάζουν οι δύο πρώτες ροπές. Προσέξτε ότι η ροπή πρώτης τάξης ($r=1$), είναι απλώς η μέση τιμή της $X$. Έστω $X$ μια τυχαία μεταβλητή με πεπερασμένη δεύτερη ροπή ($r=2$). Τότε, η διασπορά ή διακύμανση ή μεταβλητότητα της $X$, η οποία συμβολίζεται με $\rm {Var}(X)$ ή $(\Delta X)^2$ ή $\sigma^2 (X)$, ή απλά $\sigma^2 $, ορίζεται από την

\begin{displaymath}\rm {Var}(X) = E[ (X-E(X))^2 ] .
\end{displaymath}

Προφανώς η διασπορά είναι μη αρνητικός αριθμός, και δείχνει πόσο "απλωμένη" είναι η κατανομή της πιθανότητας. Είναι δηλαδή ένα μέτρο του πόσο διασπαρμένες είναι οι τιμές της τυχαίας μεταβλητής γύρω από τη μέση τιμή της, $\mu$. Αν οι διάφορες δυνατές τιμές της $X$ είναι συγκεντρωμένες κοντά στη μέση τιμή $\mu$ τότε η διασπορά $\sigma^2 (X)$ είναι μικρή, διαφορετικά είναι μεγάλη. Η θετική τετραγωνική ρίζα της διασποράς λέγεται τυπική απόκλιση και συμβολίζεται συχνά με $\Delta X$ ή $\sigma (X)$ ή $\sigma $. Σημειώστε ότι αν η $X$ εκφράζεται σε κάποιες φυσικές μονάδες, τότε η τυπική απόκλιση $\sigma $ εκφράζεται στις ίδιες μονάδες. Από τον ορισμό της, oι σχέσεις που δίνουν τη διασπορά μιας διακριτής ή συνεχούς τυχαίας μεταβλητής $X$ είναι
$\displaystyle \sigma^2 (X) = \sum_{j=1}^n (x_j -\mu)^2 f(x_j)$      
$\displaystyle \sigma^2 (X) = \int_{-\infty}^\infty (x-\mu)^2 f(x)$      

αντίστοιχα.
Παράδειγμα 12: Υπολογίστε τη διασπορά $\sigma^2 $ και την τυπική απόκλιση $\sigma $ της πυκνότητας

\begin{displaymath}f(x) =
\left\{ \begin{array}{l} \frac{1}{2} x,~~ 0<x<2 \\
0,~~~{\textrm{αλλιώς}} \end{array} \right. .
\end{displaymath}

Στο προηγούμενο παράδειγμα βρήκαμε ότι $\mu = 4/3$. Έτσι,

\begin{displaymath}\sigma^2 = \int_{-\infty}^\infty \left(x-\frac{4}{3} \right)^...
...left(x-\frac{4}{3} \right)^2 \frac{1}{2} x dx
= \frac{4}{9} ,
\end{displaymath}

οπότε $\sigma = 2/3$.

Παρακάτω δίνονται οι σημαντικότερες ιδιότητες της διασποράς για δύο τυχαίες μεταβλητές $X$ και $Y$.
α)
$\sigma^2 = Ε[ (X-\mu)^2 ] = Ε(X^2) - \mu^2$.

β)
${\rm {Var}}(cX) = c^2 {\rm {Var}}(X)$, όπου $c=$σταθερά.

γ)
Αν $X$ και $Y$ είναι ανεξάρτητες τυχαίες μεταβλητές, τότε

\begin{displaymath}{\rm Var}(X\pm Y) = {\rm Var}(X) + {\rm Var}(Y) .
\end{displaymath}

δ)
Αν $X$ και $Y$ είναι τυχαίες μεταβλητές, τότε

\begin{displaymath}{\rm Var}(X\pm Y) = {\rm Var}(X) + {\rm Var}(Y)
\pm 2 E[ (X-\mu_X) (Y -\mu_Y) ] ,
\end{displaymath}

όπου $\mu_X$ και $\mu_Υ$ η μέση τιμή της $X$ και $Y$, αντίστοιχα.

Η ποσότητα $E[ (X-\mu_X) (Y -\mu_Y) ]$ λέγεται συνδιασπορά ή συνδιακύμανση ή συμμεταβλητότητα των τυχαίων μεταβλητων $X$ και $Y$, και συμβολιζεται με $\sigma_{XY}$ ή ${\rm Cov}(X,Y)$. Δηλαδή

\begin{displaymath}{\rm Cov}(X,Y) =\sigma_{XY} =E[ (X-\mu_X) (Y -\mu_Y) ] .
\end{displaymath}

Αν οι $X$ και $Y$ είναι ανεξάρτητες, τότε $\sigma_{XY} = 0$. Το αντίστροφο δεν ισχύει πάντα. Για $X$ και $Y$ δύο τυχαίες μεταβλητές με πεπερασμένες μη μηδενικές διασπορές, ο λεγόμενος συντελεστής συσχέτισης ορίζεται από την

\begin{displaymath}\rho = \rho (X,Y) =
\frac{{\rm Cov}(X,Y)}{\sqrt{{\rm Var}(X) {\rm Var}(Y)}} .
\end{displaymath}

Ο συντελεστής συσχέτισης μας δίνει ένα μέτρο για το βαθμό εξάρτησης ανάμεσα στις δύο τυχαίες μεταβλητές. Λέμε ότι οι δύο τυχαίες μεταβλητές είναι ασυσχέτιστες αν $\rho =0$. Αφού $\sigma_{XY} = 0$ όταν οι $X$ και $Y$ είναι ανεξάρτητες, βλέπουμε αμέσως ότι δύο ανεξάρτητες τυχαίες μεταβλητές είναι πάντα ασυσχέτιστες. Είναι δυνατόν όμως δύο εξαρτημένες τυχαίες μεταβλητές να είναι επίσης ασυσχέτιστες. Για τις εφαρμογές στη Στατιστική είναι σημαντικό να ξέρουμε ότι ο συντελεστής $\rho$ παίρνει πάντα τιμές μεταξύ -1 και 1.

Maria Kafesaki 2007-06-08