Análise Discriminante: Formulação Matemática da Redução de Dimensionalidade LDA

Após explorarmos as formulações dos classificadores LDA e QDA, aprofundemo-nos agora na fundamentação matemática da redução de dimensionalidade via LDA. Primordialmente, esta abordagem representa uma aplicação elegante dos conceitos discriminativos para transformação de dados em espaços de menor dimensão.

O Problema de Otimização

Conforme discutimos anteriormente, o LDA para redução de dimensionalidade busca encontrar projeções que maximizem a separação entre classes. Analogamente, podemos formular este problema como uma otimização que maximiza o critério de Fisher:

\(J(W) = \frac{W^T S_B W}{W^T S_W W}\)

Onde W é a matriz de transformação que projeta os dados em um espaço de dimensão reduzida.

Matrizes de Dispersão

Matriz de Dispersão Entre Classes (Between-Class Scatter)

Esta matriz captura a dispersão das médias das classes em relação à média global:

\(S_B = \sum_{k=1}^K N_k (\mu_k – \mu)(\mu_k – \mu)^T\)

Onde:

  • \(K\) é o número de classes
  • \(N_k\) é o número de amostras na classe k
  • \(μ_k\) é a média da classe k
  • \(μ\) é a média global dos dados

Matriz de Dispersão Dentro das Classes (Within-Class Scatter)

Esta matriz quantifica a dispersão dos dados dentro de cada classe:

\(S_W = \sum_{k=1}^K \sum_{x_i \in C_k} (x_i – \mu_k)(x_i – \mu_k)^T\)

Alternativamente, podemos expressar S_W em termos das matrizes de covariância de cada classe:

\(S_W = \sum_{k=1}^K N_k \Sigma_k\)

Solução do Problema de Autovalor Generalizado

Maximizar J(W) equivale a resolver o problema de autovalor generalizado:

\(S_B w = \lambda S_W w\)

Os autovetores correspondentes aos maiores autovalores formam as direções de projeção ótimas. Ademais, o número máximo de componentes discriminantes é limitado por:

\(L \leq \min(K-1, d)\)

Onde K é o número de classes e d é a dimensionalidade original.

Interpretação Geométrica

Projeção Ótima

Os autovetores w_i que resolvem o problema de autovalor definem um novo sistema de coordenadas onde:

\(y = W^T x\)

Neste espaço projetado, a razão entre a dispersão entre classes e dentro das classes é maximizada.

Variância Explicada

Os autovalores λ_i associados a cada autovetor indicam o poder discriminativo de cada componente:

\(\text{Variância explicada} = \frac{\lambda_i}{\sum_{j=1}^L \lambda_j}\)

Relação com Análise de Variância (ANOVA)

Similarmente à ANOVA, o LDA decompõe a variabilidade total em componentes:

\(S_T = S_W + S_B\)

Onde \(S_T\) é a matriz de dispersão total. Inegavelmente, esta decomposição revela a estrutura fundamental dos dados.

Regularização e Estabilidade Numérica

Quando \(S_W\) é singular ou mal-condicionada, utilizamos regularização:

\(S_W^{reg} = S_W + \gamma I\)

Esta abordagem melhora a estabilidade numérica sem comprometer significativamente o poder discriminativo.

Exemplo Prático em Python

Para ilustrar estas formulações matemáticas, implementemos um exemplo detalhado que demonstra os cálculos fundamentais:

Interpretação dos Resultados Matemáticos

Analisando a implementação e os resultados, podemos observar que:

  • As matrizes S_B e S_W capturam adequadamente a estrutura de dispersão dos dados
  • Os autovalores refletem o poder discriminativo de cada componente LDA
  • A decomposição da variabilidade total é matematicamente consistente
  • As projeções preservam a separabilidade entre classes mesmo com redução dimensional

Propriedades Matemáticas Importantes

Ortogonalidade dos Componentes

No espaço transformado, os componentes LDA são ortogonais em relação à métrica definida por S_W:

\(w_i^T S_W w_j = 0 \quad \text{para } i \neq j\)

Maximização Sequencial

Os componentes são encontrados sequencialmente, onde cada novo componente maximiza a separação sujeito à ortogonalidade com os anteriores.

Considerações Numéricas

Na prática, várias considerações numéricas são importantes:

  • O problema de autovalor generalizado requer cuidado com matrizes singulares
  • Técnicas de regularização melhoram a estabilidade numérica
  • Decomposições como Cholesky podem ser preferíveis para eficiência
  • A seleção do número de componentes deve considerar tanto aspectos matemáticos quanto práticos

Relação com Outras Técnicas

Similarmente a outras técnicas de redução de dimensionalidade, o LDA compartilha conceitos fundamentais:

  • Como o PCA, busca direções de máxima variância, mas com foco na variância entre classes
  • Como a ANOVA, decompõe a variabilidade total em componentes estruturados
  • Como métodos de projeção linear, transforma dados preservando propriedades desejadas

Portanto, a formulação matemática do LDA para redução de dimensionalidade não apenas fornece uma ferramenta prática, mas também revela insights profundos sobre a estrutura dos dados e as relações entre observações de diferentes classes.

Análise Discriminante: Formulação Matemática dos Classificadores LDA e QDA

Após explorarmos as aplicações práticas da Análise Discriminante, mergulhemos agora nos fundamentos matemáticos que sustentam os classificadores LDA e QDA. Primordialmente, compreender estas formulações nos permitirá aplicar estas técnicas com maior discernimento e interpretar seus resultados de forma mais profunda.

Pressupostos Fundamentais

Conforme mencionamos anteriormente, ambos os métodos assumem que os dados seguem distribuições Gaussianas multivariadas. Analogamente, podemos expressar esta suposição formalmente:

\(P(x | y = k) = \frac{1}{(2\pi)^{d/2} |\Sigma_k|^{1/2}} \exp\left(-\frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k)\right)\)

Onde para cada classe k:

  • μ_k é o vetor de médias
  • Σ_k é a matriz de covariância
  • d é a dimensionalidade dos dados

Teorema de Bayes e Função Discriminante

A decisão de classificação baseia-se no teorema de Bayes:

\(P(y = k | x) = \frac{P(x | y = k) P(y = k)}{P(x)}\)

Como P(x) é constante para todas as classes, maximizar P(y=k|x) equivale a maximizar o numerador. Portanto, definimos a função discriminante como:

\(\delta_k(x) = \log P(x | y = k) + \log P(y = k)\)

Análise Discriminante Linear (LDA)

Pressuposto de Covariância Comum

O LDA assume que todas as classes compartilham a mesma matriz de covariância:

\(\Sigma_k = \Sigma \quad \text{para todo } k\)

Desenvolvendo a função discriminante com este pressuposto, obtemos:

\(\delta_k(x) = x^T \Sigma^{-1} \mu_k – \frac{1}{2} \mu_k^T \Sigma^{-1} \mu_k + \log \pi_k\)

Onde π_k = P(y=k) é a probabilidade a priori da classe k.

Forma Linear da Fronteira de Decisão

A fronteira entre duas classes i e j é determinada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação linear em x:

\(x^T \Sigma^{-1} (\mu_i – \mu_j) – \frac{1}{2} (\mu_i + \mu_j)^T \Sigma^{-1} (\mu_i – \mu_j) + \log(\pi_i/\pi_j) = 0\)

Análise Discriminante Quadrática (QDA)

Matrizes de Covariância Distintas

O QDA permite que cada classe tenha sua própria matriz de covariância:

\(\Sigma_k \neq \Sigma_j \quad \text{para } k \neq j\)

Desenvolvendo a função discriminante, obtemos:

\(\delta_k(x) = -\frac{1}{2} \log |\Sigma_k| – \frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k) + \log \pi_k\)

Forma Quadrática da Fronteira de Decisão

A fronteira entre classes i e j é dada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação quadrática em x, criando fronteiras de decisão curvas.

Estimativa dos Parâmetros

Estimativas de Máxima Verossimilhança

Os parâmetros são estimados a partir dos dados de treinamento:

  • Médias das classes: \(\hat{\mu}_k = \frac{1}{N_k} \sum_{i: y_i = k} x_i\)
  • Probabilidades a priori: \(\hat{\pi}_k = \frac{N_k}{N}\)
  • Matriz de covariância (LDA): \(\hat{\Sigma} = \frac{1}{N-K} \sum_{k=1}^K \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)
  • Matrizes de covariância (QDA): \(\hat{\Sigma}_k = \frac{1}{N_k-1} \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)

Comparação Matemática Detalhada

Complexidade de Parâmetros

O número de parâmetros a estimar difere significativamente:

  • LDA: K × d (médias) + d(d+1)/2 (covariância) + K (priors)
  • QDA: K × d (médias) + K × d(d+1)/2 (covariâncias) + K (priors)

Inegavelmente, o QDA requer substancialmente mais parâmetros, especialmente quando o número de features é grande.

Propriedades Estatísticas

Ambos os métodos possuem propriedades interessantes:

  • São classificadores Bayes ótimos sob os pressupostos Gaussianos
  • Produzem estimativas de probabilidade posteriores
  • Podem ser regularizados para melhor generalização
  • São consistentes sob condições apropriadas

Exemplo Prático em Python

Para ilustrar estas formulações matemáticas, implementemos um exemplo que demonstra os cálculos fundamentais:

Interpretação dos Resultados Matemáticos

Analisando a implementação e os resultados, podemos observar que:

  • As funções discriminantes realmente capturam a informação de separação entre classes
  • A matriz de covariância comum no LDA produz fronteiras lineares
  • As probabilidades posteriores são calculadas corretamente via softmax
  • A implementação manual coincide com a do scikit-learn, validando as formulações

Implicações Práticas das Formulações

Vantagens do LDA

  • Menos parâmetros para estimar → mais robusto com dados limitados
  • Computacionalmente mais eficiente
  • Fronteiras de decisão lineares são mais interpretáveis

Vantagens do QDA

  • Mais flexibilidade para capturar relações complexas
  • Melhor performance quando as covariâncias são realmente diferentes
  • Fronteiras de decisão curvas podem se ajustar melhor aos dados

Considerações Finais

As formulações matemáticas do LDA e QDA revelam por que estas técnicas são tão eficazes sob os pressupostos Gaussianos. Embora baseadas em conceitos estatísticos clássicos, continuam sendo ferramentas valiosas no machine learning moderno.

Portanto, compreender estas fundamentações não apenas nos permite aplicar os métodos corretamente, mas também nos capacita a interpretar seus resultados, diagnosticar problemas e fazer escolhas informadas entre diferentes abordagens de classificação.