Problema 2 de Variáveis Aleatórias

Este documento apresenta a resolução de um problema envolvendo variáveis aleatórias independentes e identicamente distribuídas (iid) e a distribuição da soma de variáveis indicadoras.

Definição do Problema

Sejam \(X_1, X_2, \ldots, X_n\) variáveis aleatórias iid com função de distribuição acumulada contínua \(F_X(x)\), e suponha que \(E[X_i] = \mu\). Defina as variáveis aleatórias \(Y_1, Y_2, \ldots, Y_n\) por:

\(Y_i = \begin{cases} 1, & \text{se } X_i > \mu \\ 0, & \text{se } X_i \leq \mu \end{cases}\)

Encontre a distribuição de \(\sum_{i=1}^{n} Y_i\) e assinale a alternativa correspondente.

    1. a) \(\sum_{i-1}^{n}Y_i ~ Bernoulli \left ( p=1-F_x\left ( \mu \right ) \right )\)
    1. b) \(\sum_{i-1}^{n}Y_i ~ Bernoulli \left ( p= F_x\left ( \mu \right ) \right )\)
    1. c) \(\sum_{i-1}^{n}Y_i ~ Binomial \left ( n,p= 1-F_x\left ( \mu \right ) \right )\)
    1. d) \(\sum_{i-1}^{n}Y_i ~ Binomial \left ( n,p= F_x\left ( \mu \right ) \right )\)

Resolução Matemática

Passo 1: Análise das Variáveis \(Y_i\)

Cada \(Y_i\) é uma variável indicadora (Bernoulli) que assume valor 1 quando \(X_i > \mu\) e 0 quando \(X_i \leq \mu\).

A probabilidade de sucesso (valor 1) é:

\(P(Y_i = 1) = P(X_i > \mu) = 1 – P(X_i \leq \mu) = 1 – F_X(\mu)\)

Portanto, cada \(Y_i \sim \text{Bernoulli}(p = 1 – F_X(\mu))\).

Passo 2: Soma das Variáveis \(Y_i\)

A soma \(S = \sum_{i=1}^{n} Y_i\) representa o número de variáveis \(X_i\) que são maiores que \(\mu\).

Como as variáveis \(Y_i\) são independentes (pois as \(X_i\) são iid) e identicamente distribuídas, a soma segue uma distribuição Binomial:

\(S = \sum_{i=1}^{n} Y_i \sim \text{Binomial}(n, p = 1 – F_X(\mu))\)

Passo 3: Interpretação do Parâmetro P

Para uma distribuição contínua, \(F_X(\mu) = P(X_i \leq \mu)\). Como \(\mu\) é a média da distribuição, em geral não temos \(F_X(\mu) = 0.5\) (isso só ocorre para distribuições simétricas).

Assim, \(p = 1 – F_X(\mu)\) é a probabilidade de que uma observação exceda a média da distribuição.

Resposta Correta

A distribuição de \(\sum_{i=1}^{n} Y_i\) é:

\(\sum_{i=1}^{n} Y_i \sim \text{Binomial}(n, p = 1 – F_X(\mu))\)

Portanto, a alternativa correta é a c).

Simulação em R

O código R abaixo simula a situação descrita no problema para uma distribuição normal, onde \(F_X(\mu) = 0.5\), e verifica a distribuição da soma \(\sum_{i=1}^{n} Y_i\).

Problema 1 de Variáveis Aleatórias

Este documento apresenta a resolução de um problema envolvendo três variáveis aleatórias independentes: X com distribuição Normal e Y, Z com distribuição Uniforme. O objetivo é encontrar os parâmetros μ e σ da distribuição Normal com base nas expectativas fornecidas.

Definição do Problema

Sejam X, Y e Z três variáveis aleatórias independentes com:

  • \(X \sim N(\mu, \sigma^{2})\)
  • \(Y, Z \sim \text{Uniforme}(0, 2)\)

Temos também que:

  • \(E[X^{2}Y + XYZ] = 13\)
  • \(E[XY^{2} + ZX^{2}] = 14\)

Resolução Matemática

Passo 1: Aproveitando a Independência e Linearidade da Expectância

Como as variáveis são independentes, a expectância do produto é o produto das expectâncias. Vamos expandir as duas equações dadas.

Primeira Equação:

  • \(E[X^{2}Y + XYZ] = \)
  • \(E[X^{2}Y] + E[XYZ] = \)
  • \(E[X^2]E[Y] + E[X]E[Y]E[Z] = 13\)

Segunda Equação:

  • \(E[XY^{2} + ZX^{2}] = \)
  • \(E[XY^2] + E[ZX^2] = \)
  • \(E[X]E[Y^2] + E[Z]E[X^2] = 14\)

Passo 2: Cálculo dos Momentos das Distribuições

Precisamos calcular os valores de \(E[Y], E[Z], E[Y^2]\) e \(E[Z^2]\) para a distribuição Uniforme(0,2).

Para \(Y \sim \text{Uniforme}(a, b)\), temos:

  • \(E[Y] = \frac{a + b}{2} = \)
  • \(\frac{0 + 2}{2} = 1\)
  • \(E[Y^2] = \frac{(b – a)^2}{12} + (E[Y])^2 = \)
  • \(\frac{(2-0)^2}{12} + 1^2 = \)
  • \(\frac{4}{12} + 1 = \)
  • \(\frac{1}{3} + \frac{3}{3} = \frac{4}{3} \)

Por simetria, os resultados são os mesmos para Z:

  • \(E[Z] = 1\)
  • \(E[Z^2] = \frac{4}{3}\)

Passo 3: Momentos da Distribuição Normal

Para \(X \sim N(\mu, \sigma^{2})\), temos:

\(E[X] = \mu\) \(E[X^2] = \text{Var}(X) + (E[X])^2 = \sigma^2 + \mu^2\)

Passo 4: Substituir nas Equações Originais

Substituindo os momentos conhecidos nas duas equações:

Equação 1:

\(E[X^2]E[Y] + E[X]E[Y]E[Z] = 13\) \((\sigma^2 + \mu^2) \cdot 1 + \mu \cdot 1 \cdot 1 = 13\) \(\sigma^2 + \mu^2 + \mu = 13 \quad (1)\)

Equação 2:

\(E[X]E[Y^2] + E[Z]E[X^2] = 14\) \(\mu \cdot \frac{4}{3} + 1 \cdot (\sigma^2 + \mu^2) = 14\) \(\frac{4}{3}\mu + \sigma^2 + \mu^2 = 14 \quad (2)\)

Passo 5: Resolver o Sistema de Equações

Temos o seguinte sistema:

\(\begin{cases}
\sigma^2 + \mu^2 + \mu = 13 \\
\sigma^2 + \mu^2 + \frac{4}{3}\mu = 14
\end{cases}\)

Subtraindo a primeira equação (1) da segunda (2):

\((\sigma^2 + \mu^2 + \frac{4}{3}\mu) – (\sigma^2 + \mu^2 + \mu) = 14 – 13\) \(\frac{4}{3}\mu – \mu = 1\) \(\frac{1}{3}\mu = 1\) \(\mu = 3\)

Substituindo \(\mu = 3\) na equação (1):

\(\sigma^2 + (3)^2 + (3) = 13\) \(\sigma^2 + 9 + 3 = 13\) \(\sigma^2 + 12 = 13\) \(\sigma^2 = 1\) \(\sqrt{\sigma ^{2}} = \sigma = 1\)

Solução

Os parâmetros da distribuição Normal são:

\(\mu = 3\) \(\sigma = 1\)

Portanto, \(X \sim N(3, 1)\).

Simulação em R

 

Nota: A simulação utiliza um grande número de amostras (n=1.000.000) para se aproximar dos valores teóricos das expectâncias. Os resultados devem ser próximos de 13 e 14, validando que \(\mu=3\) e \(\sigma=1\) é a solução correta.