Análise do estimador para distribuição uniforme

Seja X₁, X₂, …, Xₙ uma amostra aleatória com distribuição uniforme U(0, Θ), onde Θ é desconhecido. Definimos o estimador: \(\hat{\Theta}_n = \max(X_1, X_2, …, X_n)\).

Problema

Precisamos encontrar:

  1. O viés do estimador: \(B(\hat{\Theta}_n) = E[\hat{\Theta}_n] – \Theta\)
  2. O erro quadrático médio: \(EQM(\hat{\Theta}_n) = E[(\hat{\Theta}_n – \Theta)^2]\)

Para isso, utilizaremos o fato de que a função densidade de probabilidade de \(\hat{\Theta}_n\) é:

\(f_{\hat{\Theta}_n}(y) = n f_X(y) [F_X(y)]^{n-1}\)

Distribuição do Máximo

Para uma distribuição uniforme U(0, Θ):

  • \(f_X(x) = \frac{1}{\Theta}\) para \(0 \leq x \leq \Theta\)
  • \(F_X(x) = \frac{x}{\Theta}\) para \(0 \leq x \leq \Theta\)

Portanto, a densidade do máximo é:

\(f_{\hat{\Theta}_n}(y) = n \cdot \frac{1}{\Theta} \cdot \left(\frac{y}{\Theta}\right)^{n-1} = \frac{n y^{n-1}}{\Theta^n}\)

para \(0 \leq y \leq \Theta\).

Cálculo do Valor Esperado

Para encontrar o viés, primeiro calculamos \(E[\hat{\Theta}_n]\):

\(E[\hat{\Theta}_n] = \int_{0}^{\Theta} y \cdot f_{\hat{\Theta}_n}(y) dy = \int_{0}^{\Theta} y \cdot \frac{n y^{n-1}}{\Theta^n} dy\) \(= \frac{n}{\Theta^n} \int_{0}^{\Theta} y^n dy = \frac{n}{\Theta^n} \cdot \left[\frac{y^{n+1}}{n+1}\right]_{0}^{\Theta}\) \(= \frac{n}{\Theta^n} \cdot \frac{\Theta^{n+1}}{n+1} = \frac{n}{n+1} \Theta\)

Portanto, \(E[\hat{\Theta}_n] = \frac{n}{n+1} \Theta\)

Cálculo do Viés

O viés é dado por:

\(B(\hat{\Theta}_n) = E[\hat{\Theta}_n] – \Theta = \frac{n}{n+1} \Theta – \Theta\) \(= \left(\frac{n}{n+1} – 1\right) \Theta = -\frac{1}{n+1} \Theta\)

O viés do estimador é \(B(\hat{\Theta}_n) = -\frac{\Theta}{n+1}\)

Cálculo do Erro Quadrático Médio

Para calcular o EQM, primeiro precisamos de \(E[\hat{\Theta}_n^2]\):

\(E[\hat{\Theta}_n^2] = \int_{0}^{\Theta} y^2 \cdot f_{\hat{\Theta}_n}(y) dy = \int_{0}^{\Theta} y^2 \cdot \frac{n y^{n-1}}{\Theta^n} dy\) \(= \frac{n}{\Theta^n} \int_{0}^{\Theta} y^{n+1} dy = \frac{n}{\Theta^n} \cdot \left[\frac{y^{n+2}}{n+2}\right]_{0}^{\Theta}\) \(= \frac{n}{\Theta^n} \cdot \frac{\Theta^{n+2}}{n+2} = \frac{n}{n+2} \Theta^2\)

Agora podemos calcular o EQM:

\(EQM(\hat{\Theta}_n) = E[(\hat{\Theta}_n – \Theta)^2] = E[\hat{\Theta}_n^2] – 2\Theta E[\hat{\Theta}_n] + \Theta^2\) \(= \frac{n}{n+2} \Theta^2 – 2\Theta \cdot \frac{n}{n+1} \Theta + \Theta^2\) \(= \left(\frac{n}{n+2} – \frac{2n}{n+1} + 1\right) \Theta^2\)

Após simplificação algébrica, obtemos:

\(EQM(\hat{\Theta}_n) = \frac{2\Theta^2}{(n+1)(n+2)}\)

O erro quadrático médio é \(EQM(\hat{\Theta}_n) = \frac{2\Theta^2}{(n+1)(n+2)}\)

Simulação em R

O código abaixo em R simula este estimador para verificar os resultados teóricos:

Conclusões

Para o estimador \(\hat{\Theta}_n = \max(X_1, X_2, …, X_n)\) de uma distribuição uniforme U(0, Θ):

  1. O estimador é viesado: \(B(\hat{\Theta}_n) = -\frac{\Theta}{n+1}\)
  2. O erro quadrático médio é: \(EQM(\hat{\Theta}_n) = \frac{2\Theta^2}{(n+1)(n+2)}\)

Observa-se que tanto o viés absoluto quanto o EQM diminuem à medida que o tamanho da amostra n aumenta, demonstrando que o estimador é assintoticamente não viesado e consistente.

Referências

1. Casella, G., & Berger, R. L. (2002). Statistical Inference. Duxbury.

2. Rice, J. A. (2007). Mathematical Statistics and Data Analysis. Cengage Learning.

3. Hogg, R. V., McKean, J. W., & Craig, A. T. (2019). Introduction to Mathematical Statistics. Pearson.

Problema 1 de Variáveis Aleatórias

Este documento apresenta a resolução de um problema envolvendo três variáveis aleatórias independentes: X com distribuição Normal e Y, Z com distribuição Uniforme. O objetivo é encontrar os parâmetros μ e σ da distribuição Normal com base nas expectativas fornecidas.

Definição do Problema

Sejam X, Y e Z três variáveis aleatórias independentes com:

  • \(X \sim N(\mu, \sigma^{2})\)
  • \(Y, Z \sim \text{Uniforme}(0, 2)\)

Temos também que:

  • \(E[X^{2}Y + XYZ] = 13\)
  • \(E[XY^{2} + ZX^{2}] = 14\)

Resolução Matemática

Passo 1: Aproveitando a Independência e Linearidade da Expectância

Como as variáveis são independentes, a expectância do produto é o produto das expectâncias. Vamos expandir as duas equações dadas.

Primeira Equação:

  • \(E[X^{2}Y + XYZ] = \)
  • \(E[X^{2}Y] + E[XYZ] = \)
  • \(E[X^2]E[Y] + E[X]E[Y]E[Z] = 13\)

Segunda Equação:

  • \(E[XY^{2} + ZX^{2}] = \)
  • \(E[XY^2] + E[ZX^2] = \)
  • \(E[X]E[Y^2] + E[Z]E[X^2] = 14\)

Passo 2: Cálculo dos Momentos das Distribuições

Precisamos calcular os valores de \(E[Y], E[Z], E[Y^2]\) e \(E[Z^2]\) para a distribuição Uniforme(0,2).

Para \(Y \sim \text{Uniforme}(a, b)\), temos:

  • \(E[Y] = \frac{a + b}{2} = \)
  • \(\frac{0 + 2}{2} = 1\)
  • \(E[Y^2] = \frac{(b – a)^2}{12} + (E[Y])^2 = \)
  • \(\frac{(2-0)^2}{12} + 1^2 = \)
  • \(\frac{4}{12} + 1 = \)
  • \(\frac{1}{3} + \frac{3}{3} = \frac{4}{3} \)

Por simetria, os resultados são os mesmos para Z:

  • \(E[Z] = 1\)
  • \(E[Z^2] = \frac{4}{3}\)

Passo 3: Momentos da Distribuição Normal

Para \(X \sim N(\mu, \sigma^{2})\), temos:

\(E[X] = \mu\) \(E[X^2] = \text{Var}(X) + (E[X])^2 = \sigma^2 + \mu^2\)

Passo 4: Substituir nas Equações Originais

Substituindo os momentos conhecidos nas duas equações:

Equação 1:

\(E[X^2]E[Y] + E[X]E[Y]E[Z] = 13\) \((\sigma^2 + \mu^2) \cdot 1 + \mu \cdot 1 \cdot 1 = 13\) \(\sigma^2 + \mu^2 + \mu = 13 \quad (1)\)

Equação 2:

\(E[X]E[Y^2] + E[Z]E[X^2] = 14\) \(\mu \cdot \frac{4}{3} + 1 \cdot (\sigma^2 + \mu^2) = 14\) \(\frac{4}{3}\mu + \sigma^2 + \mu^2 = 14 \quad (2)\)

Passo 5: Resolver o Sistema de Equações

Temos o seguinte sistema:

\(\begin{cases}
\sigma^2 + \mu^2 + \mu = 13 \\
\sigma^2 + \mu^2 + \frac{4}{3}\mu = 14
\end{cases}\)

Subtraindo a primeira equação (1) da segunda (2):

\((\sigma^2 + \mu^2 + \frac{4}{3}\mu) – (\sigma^2 + \mu^2 + \mu) = 14 – 13\) \(\frac{4}{3}\mu – \mu = 1\) \(\frac{1}{3}\mu = 1\) \(\mu = 3\)

Substituindo \(\mu = 3\) na equação (1):

\(\sigma^2 + (3)^2 + (3) = 13\) \(\sigma^2 + 9 + 3 = 13\) \(\sigma^2 + 12 = 13\) \(\sigma^2 = 1\) \(\sqrt{\sigma ^{2}} = \sigma = 1\)

Solução

Os parâmetros da distribuição Normal são:

\(\mu = 3\) \(\sigma = 1\)

Portanto, \(X \sim N(3, 1)\).

Simulação em R

 

Nota: A simulação utiliza um grande número de amostras (n=1.000.000) para se aproximar dos valores teóricos das expectâncias. Os resultados devem ser próximos de 13 e 14, validando que \(\mu=3\) e \(\sigma=1\) é a solução correta.