Definimos um par aleatório como uma função (X,Y):Ω→RX,Y⊂R2 que satisfaz uma condição de mensurabilidade.
Condição de mensurabilidade
Diz-se que uma função F com contradomínio em R2 satisfaz uma condição de mensurabilidade, se qualquer região da forma ]−∞,x]×]−∞,y] tiver imagem inversa segundo F na σ-álgebra A sobre Ω.
Os pares aleatórios discretos e contínuos, enquanto que partilham muitas semelhanças, devem ser tratados em separado para realçar os pormenores que os distinguem.
Pares Aleatórios Discretos
Um par aleatório (X,Y) diz-se discreto se o seu contradomínio RX,Y for contável tal que existe uma função de probabilidade conjuntaP:R2→[0,1] tal que
(X,Y)∈RX,Y∑P(X=x,Y=y)=1
P(X=x,Y=y)>0,∀(X,Y)∈RX,Y
A função de probabilidade conjunta costuma ser representada por uma tabela de duas entradas, como mostrado abaixo:
X\Y
y1
y2
⋯
ym
x1
P(X=x1,Y=y1)
P(X=x1,Y=y2)
⋯
P(X=x1,Y=ym)
x2
P(X=x2,Y=y1)
P(X=x2,Y=y2)
⋯
P(X=x2,Y=ym)
⋮
⋮
⋮
⋱
⋮
xn
P(X=xn,Y=y1)
P(X=xn,Y=y2)
⋯
P(X=xn,Y=ym)
A função de distribuição conjunta é dada por
FX,Y(x,y)=P(X≤x,Y≤y)=x′≤x,y′≤y∑P(X=x′,Y=y′)
Às funções que nos dão uma das VA de um par aleatório para todos os valores da outra, dá-se o nome de funções de probabilidade marginais. As funções marginais de X e Y são então, respetivamente, dadas por
P(X=x)=y∑P(X=x,Y=y)P(Y=y)=x∑P(X=x,Y=y)
A partir destas funções, definem-se as funções de distribuição marginais
FX(x)=P(X≤x)=x′≤x∑P(X=x′)=x′≤x∑y∑P(X=x′,Y=y)
FY(y)=P(Y≤y)=y′≤y∑P(Y=y′)=y′≤y∑x∑P(Y=y′,X=x)
Podemos ainda averiguar a influência que as VA's têm uma sobre a outra através das funções de probabilidade condicionais (assumindo que todos os eventos no domínio da VA são possíveis):
P(X=x∣Y=y)=P(Y=y)P(X=x,Y=y)
P(Y=y∣X=x)=P(X=x)P(Y=y,X=x)
Esta condicionalidade permite-nos definir duas VA unidimensionais X∣Y e Y∣X, pelo que podemos calcular as suas fd, valor esperado, variância e outros:
FX∣Y=y=P(X≤x∣Y=y)=x′≤x∑P(Y=y)P(X=x′,Y=y)
E(X∣Y=y)=x∑xP(X=x∣Y=y)
V(X∣Y=y)=E(X2∣Y=y)−E(X∣Y=y)2
com definições análogas para Y∣X.
As VA de um par aleatório discreto dizem-se independentes (X⊥⊥Y) se, para todo o (x,y)∈R2,
Um par aleatório (X,Y) diz-se contínuo se o seu contradomínio RX,Y for não contável tal que existe uma função de densidade de probabilidade conjuntafX:R2→[0,1] tal que
∬R2fX,Y(x,y)=1
fX,Y(x,y)≥0,∀(X,Y)∈R2
P((X,Y)∈A)=∬AfX,Y(x,y)dydx
A função de distribuição conjunta é dada por
FX,Y(x,y)=P(X≤x,Y≤y)=∫−∞x∫−∞yfX,Y(x,y)dxdy
Às funções que nos dão uma das VA de um par aleatório para todos os valores da outra dá-se o nome de funções de densidade de probabilidade marginais. As funções marginais de X e Y são, então, respetivamente, dadas por
fX(x)=∫−∞∞fX,Y(x,y)dyfY(y)=∫−∞∞fX,Y(x,y)dx
A partir destas funções, definem-se as funções de distribuição marginais
Tal como no caso discreto, podemos averiguar a influência que as VA's têm uma sobre a outra através das funções de densidade de probabilidade condicionais:
A covariância tem a desvantagem de não ser adimensional.
Ou seja, um escalonamento da VA (multiplicação por um escalar) altera o valor da covariância.
Isto é um problema, por exemplo, quando queremos mudar a escala (por exemplo, de kg para g) - a covariância não se mantém!
Para resolver o problema apresentado, serge a correlação. A correlação mede a associação relativa entre duas VA X e Y:
corr(X,Y)=V(X)V(Y)cov(X,Y)
X e Y dizem-se correlacionadas se corr(X,Y)=0 e não correlacionadas caso contrário.
A correlação desfruta das seguintes propriedades:
X⊥⊥Y⇒corr(X,Y)=0 e equivalentemente corr(X,Y)=0⇒X⊥⊥Y
A implicação contrária não é necessariamente verdade! corr(X,Y)=0⇒X⊥⊥Y
corr(X,X)=1
corr(X,Y)=corr(Y,X)
corr(aX+b,Y)=corr(X,Y)
−1≤corr(X,Y)≤1
corr(X,Y)=1⇔Y=aX+b para algum a∈R+ e corr(X,Y)=−1⇔Y=aX+b para algum a∈R−
A correlação deve ser interpretada da seguinte forma:
∣corr(X,Y)∣≃1 então X e Y têm associação quase linear;
corr(X,Y)>0 indica uma correlação linear positiva (i.e, se uma VA aumenta a outra tende a aumentar também) e corr(X,Y)<0 indica uma correlação linear negativa (i.e, se uma VA aumenta a outra tende a diminuir)