Análise Discriminante: Formulação Matemática dos Classificadores LDA e QDA

Após explorarmos as aplicações práticas da Análise Discriminante, mergulhemos agora nos fundamentos matemáticos que sustentam os classificadores LDA e QDA. Primordialmente, compreender estas formulações nos permitirá aplicar estas técnicas com maior discernimento e interpretar seus resultados de forma mais profunda.

Pressupostos Fundamentais

Conforme mencionamos anteriormente, ambos os métodos assumem que os dados seguem distribuições Gaussianas multivariadas. Analogamente, podemos expressar esta suposição formalmente:

\(P(x | y = k) = \frac{1}{(2\pi)^{d/2} |\Sigma_k|^{1/2}} \exp\left(-\frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k)\right)\)

Onde para cada classe k:

  • μ_k é o vetor de médias
  • Σ_k é a matriz de covariância
  • d é a dimensionalidade dos dados

Teorema de Bayes e Função Discriminante

A decisão de classificação baseia-se no teorema de Bayes:

\(P(y = k | x) = \frac{P(x | y = k) P(y = k)}{P(x)}\)

Como P(x) é constante para todas as classes, maximizar P(y=k|x) equivale a maximizar o numerador. Portanto, definimos a função discriminante como:

\(\delta_k(x) = \log P(x | y = k) + \log P(y = k)\)

Análise Discriminante Linear (LDA)

Pressuposto de Covariância Comum

O LDA assume que todas as classes compartilham a mesma matriz de covariância:

\(\Sigma_k = \Sigma \quad \text{para todo } k\)

Desenvolvendo a função discriminante com este pressuposto, obtemos:

\(\delta_k(x) = x^T \Sigma^{-1} \mu_k – \frac{1}{2} \mu_k^T \Sigma^{-1} \mu_k + \log \pi_k\)

Onde π_k = P(y=k) é a probabilidade a priori da classe k.

Forma Linear da Fronteira de Decisão

A fronteira entre duas classes i e j é determinada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação linear em x:

\(x^T \Sigma^{-1} (\mu_i – \mu_j) – \frac{1}{2} (\mu_i + \mu_j)^T \Sigma^{-1} (\mu_i – \mu_j) + \log(\pi_i/\pi_j) = 0\)

Análise Discriminante Quadrática (QDA)

Matrizes de Covariância Distintas

O QDA permite que cada classe tenha sua própria matriz de covariância:

\(\Sigma_k \neq \Sigma_j \quad \text{para } k \neq j\)

Desenvolvendo a função discriminante, obtemos:

\(\delta_k(x) = -\frac{1}{2} \log |\Sigma_k| – \frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k) + \log \pi_k\)

Forma Quadrática da Fronteira de Decisão

A fronteira entre classes i e j é dada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação quadrática em x, criando fronteiras de decisão curvas.

Estimativa dos Parâmetros

Estimativas de Máxima Verossimilhança

Os parâmetros são estimados a partir dos dados de treinamento:

  • Médias das classes: \(\hat{\mu}_k = \frac{1}{N_k} \sum_{i: y_i = k} x_i\)
  • Probabilidades a priori: \(\hat{\pi}_k = \frac{N_k}{N}\)
  • Matriz de covariância (LDA): \(\hat{\Sigma} = \frac{1}{N-K} \sum_{k=1}^K \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)
  • Matrizes de covariância (QDA): \(\hat{\Sigma}_k = \frac{1}{N_k-1} \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)

Comparação Matemática Detalhada

Complexidade de Parâmetros

O número de parâmetros a estimar difere significativamente:

  • LDA: K × d (médias) + d(d+1)/2 (covariância) + K (priors)
  • QDA: K × d (médias) + K × d(d+1)/2 (covariâncias) + K (priors)

Inegavelmente, o QDA requer substancialmente mais parâmetros, especialmente quando o número de features é grande.

Propriedades Estatísticas

Ambos os métodos possuem propriedades interessantes:

  • São classificadores Bayes ótimos sob os pressupostos Gaussianos
  • Produzem estimativas de probabilidade posteriores
  • Podem ser regularizados para melhor generalização
  • São consistentes sob condições apropriadas

Exemplo Prático em Python

Para ilustrar estas formulações matemáticas, implementemos um exemplo que demonstra os cálculos fundamentais:

Interpretação dos Resultados Matemáticos

Analisando a implementação e os resultados, podemos observar que:

  • As funções discriminantes realmente capturam a informação de separação entre classes
  • A matriz de covariância comum no LDA produz fronteiras lineares
  • As probabilidades posteriores são calculadas corretamente via softmax
  • A implementação manual coincide com a do scikit-learn, validando as formulações

Implicações Práticas das Formulações

Vantagens do LDA

  • Menos parâmetros para estimar → mais robusto com dados limitados
  • Computacionalmente mais eficiente
  • Fronteiras de decisão lineares são mais interpretáveis

Vantagens do QDA

  • Mais flexibilidade para capturar relações complexas
  • Melhor performance quando as covariâncias são realmente diferentes
  • Fronteiras de decisão curvas podem se ajustar melhor aos dados

Considerações Finais

As formulações matemáticas do LDA e QDA revelam por que estas técnicas são tão eficazes sob os pressupostos Gaussianos. Embora baseadas em conceitos estatísticos clássicos, continuam sendo ferramentas valiosas no machine learning moderno.

Portanto, compreender estas fundamentações não apenas nos permite aplicar os métodos corretamente, mas também nos capacita a interpretar seus resultados, diagnosticar problemas e fazer escolhas informadas entre diferentes abordagens de classificação.