Análise Discriminante: Formulação Matemática dos Classificadores LDA e QDA

Após explorarmos as aplicações práticas da Análise Discriminante, mergulhemos agora nos fundamentos matemáticos que sustentam os classificadores LDA e QDA. Primordialmente, compreender estas formulações nos permitirá aplicar estas técnicas com maior discernimento e interpretar seus resultados de forma mais profunda.

Pressupostos Fundamentais

Conforme mencionamos anteriormente, ambos os métodos assumem que os dados seguem distribuições Gaussianas multivariadas. Analogamente, podemos expressar esta suposição formalmente:

\(P(x | y = k) = \frac{1}{(2\pi)^{d/2} |\Sigma_k|^{1/2}} \exp\left(-\frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k)\right)\)

Onde para cada classe k:

  • μ_k é o vetor de médias
  • Σ_k é a matriz de covariância
  • d é a dimensionalidade dos dados

Teorema de Bayes e Função Discriminante

A decisão de classificação baseia-se no teorema de Bayes:

\(P(y = k | x) = \frac{P(x | y = k) P(y = k)}{P(x)}\)

Como P(x) é constante para todas as classes, maximizar P(y=k|x) equivale a maximizar o numerador. Portanto, definimos a função discriminante como:

\(\delta_k(x) = \log P(x | y = k) + \log P(y = k)\)

Análise Discriminante Linear (LDA)

Pressuposto de Covariância Comum

O LDA assume que todas as classes compartilham a mesma matriz de covariância:

\(\Sigma_k = \Sigma \quad \text{para todo } k\)

Desenvolvendo a função discriminante com este pressuposto, obtemos:

\(\delta_k(x) = x^T \Sigma^{-1} \mu_k – \frac{1}{2} \mu_k^T \Sigma^{-1} \mu_k + \log \pi_k\)

Onde π_k = P(y=k) é a probabilidade a priori da classe k.

Forma Linear da Fronteira de Decisão

A fronteira entre duas classes i e j é determinada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação linear em x:

\(x^T \Sigma^{-1} (\mu_i – \mu_j) – \frac{1}{2} (\mu_i + \mu_j)^T \Sigma^{-1} (\mu_i – \mu_j) + \log(\pi_i/\pi_j) = 0\)

Análise Discriminante Quadrática (QDA)

Matrizes de Covariância Distintas

O QDA permite que cada classe tenha sua própria matriz de covariância:

\(\Sigma_k \neq \Sigma_j \quad \text{para } k \neq j\)

Desenvolvendo a função discriminante, obtemos:

\(\delta_k(x) = -\frac{1}{2} \log |\Sigma_k| – \frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k) + \log \pi_k\)

Forma Quadrática da Fronteira de Decisão

A fronteira entre classes i e j é dada por:

\(\delta_i(x) = \delta_j(x)\)

O que resulta em uma equação quadrática em x, criando fronteiras de decisão curvas.

Estimativa dos Parâmetros

Estimativas de Máxima Verossimilhança

Os parâmetros são estimados a partir dos dados de treinamento:

  • Médias das classes: \(\hat{\mu}_k = \frac{1}{N_k} \sum_{i: y_i = k} x_i\)
  • Probabilidades a priori: \(\hat{\pi}_k = \frac{N_k}{N}\)
  • Matriz de covariância (LDA): \(\hat{\Sigma} = \frac{1}{N-K} \sum_{k=1}^K \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)
  • Matrizes de covariância (QDA): \(\hat{\Sigma}_k = \frac{1}{N_k-1} \sum_{i: y_i = k} (x_i – \hat{\mu}_k)(x_i – \hat{\mu}_k)^T\)

Comparação Matemática Detalhada

Complexidade de Parâmetros

O número de parâmetros a estimar difere significativamente:

  • LDA: K × d (médias) + d(d+1)/2 (covariância) + K (priors)
  • QDA: K × d (médias) + K × d(d+1)/2 (covariâncias) + K (priors)

Inegavelmente, o QDA requer substancialmente mais parâmetros, especialmente quando o número de features é grande.

Propriedades Estatísticas

Ambos os métodos possuem propriedades interessantes:

  • São classificadores Bayes ótimos sob os pressupostos Gaussianos
  • Produzem estimativas de probabilidade posteriores
  • Podem ser regularizados para melhor generalização
  • São consistentes sob condições apropriadas

Exemplo Prático em Python

Para ilustrar estas formulações matemáticas, implementemos um exemplo que demonstra os cálculos fundamentais:

Interpretação dos Resultados Matemáticos

Analisando a implementação e os resultados, podemos observar que:

  • As funções discriminantes realmente capturam a informação de separação entre classes
  • A matriz de covariância comum no LDA produz fronteiras lineares
  • As probabilidades posteriores são calculadas corretamente via softmax
  • A implementação manual coincide com a do scikit-learn, validando as formulações

Implicações Práticas das Formulações

Vantagens do LDA

  • Menos parâmetros para estimar → mais robusto com dados limitados
  • Computacionalmente mais eficiente
  • Fronteiras de decisão lineares são mais interpretáveis

Vantagens do QDA

  • Mais flexibilidade para capturar relações complexas
  • Melhor performance quando as covariâncias são realmente diferentes
  • Fronteiras de decisão curvas podem se ajustar melhor aos dados

Considerações Finais

As formulações matemáticas do LDA e QDA revelam por que estas técnicas são tão eficazes sob os pressupostos Gaussianos. Embora baseadas em conceitos estatísticos clássicos, continuam sendo ferramentas valiosas no machine learning moderno.

Portanto, compreender estas fundamentações não apenas nos permite aplicar os métodos corretamente, mas também nos capacita a interpretar seus resultados, diagnosticar problemas e fazer escolhas informadas entre diferentes abordagens de classificação.

Análise Discriminante: Linear e Quadrática

Continuando nossa jornada pelo guia do scikit-learn, chegamos a uma família de classificadores probabilísticos fundamentais: a Análise Discriminante Linear (LDA) e Quadrática (QDA). Primordialmente, estas técnicas representam abordagens elegantes para classificação que combinam princípios estatísticos com eficiência computacional.

Fundamentos Teóricos

Conforme observamos anteriormente com modelos lineares, frequentemente buscamos métodos que ofereçam bom desempenho com interpretabilidade. Analogamente, LDA e QDA surgem como alternativas baseadas em pressupostos sobre a distribuição dos dados.

Pressupostos Básicos

Ambos os métodos assumem que:

  • Os dados seguem uma distribuição normal
  • As features são contínuas
  • As classes têm distribuições Gaussianas multivariadas

A diferença fundamental reside na suposição sobre as matrizes de covariância:

  • LDA: Matriz de covariância comum para todas as classes
  • QDA: Matriz de covariância distinta para cada classe

Análise Discriminante Linear (LDA)

Base Matemática

O LDA assume que todas as classes compartilham a mesma matriz de covariância Σ. A função discriminante para a classe k é dada por:

\(\delta_k(x) = x^T \Sigma^{-1} \mu_k – \frac{1}{2} \mu_k^T \Sigma^{-1} \mu_k + \log \pi_k\)

Onde:

  • μ_k é a média da classe k
  • Σ é a matriz de covariância comum
  • π_k é a probabilidade a priori da classe k

Características do LDA

  • Produz fronteiras de decisão lineares
  • Menos parâmetros para estimar
  • Mais robusto com poucos dados
  • Computacionalmente eficiente

Análise Discriminante Quadrática (QDA)

Base Matemática

O QDA permite que cada classe tenha sua própria matriz de covariância Σ_k. A função discriminante torna-se:

\(\delta_k(x) = -\frac{1}{2} \log |\Sigma_k| – \frac{1}{2} (x – \mu_k)^T \Sigma_k^{-1} (x – \mu_k) + \log \pi_k\)

Características do QDA

  • Produz fronteiras de decisão quadráticas
  • Mais flexível que o LDA
  • Requer mais dados para estimação confiável
  • Pode capturar relações mais complexas entre features

Comparação entre LDA e QDA

A escolha entre LDA e QDA depende de vários fatores:

  • Tamanho do conjunto de dados
  • Número de features
  • Similaridade das matrizes de covariância entre classes
  • Complexidade das fronteiras de decisão necessárias

Inegavelmente, o LDA é preferível quando temos dados limitados, enquanto o QDA pode oferecer melhor performance quando as matrizes de covariância são realmente diferentes e temos dados suficientes para estimá-las adequadamente.

Implementação no scikit-learn

No scikit-learn, ambas as técnicas são implementadas através das classes:

  • LinearDiscriminantAnalysis
  • QuadraticDiscriminantAnalysis

Estas classes oferecem funcionalidades adicionais como redução de dimensionalidade (no caso do LDA) e suporte a diferentes métodos de estimação de parâmetros.

Exemplo Prático em Python

Para ilustrar as diferenças entre LDA e QDA, vejamos um exemplo comparativo:

Interpretação dos Resultados

Analisando o exemplo, podemos observar que:

  • No cenário com matrizes de covariância similares, LDA e QDA performam similarmente
  • No cenário com matrizes de covariância diferentes, QDA geralmente supera LDA
  • As fronteiras de decisão do LDA são sempre lineares, enquanto as do QDA são quadráticas
  • O LDA estima menos parâmetros, tornando-o mais eficiente com dados limitados

Considerações Práticas

Ao aplicar LDA ou QDA em problemas reais, é importante considerar:

  • Verificar os pressupostos de normalidade quando possível
  • Considerar o tamanho do dataset para escolha entre LDA e QDA
  • Utilizar validação cruzada para avaliação robusta do desempenho
  • Explorar a redução de dimensionalidade oferecida pelo LDA

Vantagens e Limitações

Embora poderosos, ambos os métodos têm suas particularidades:

  • LDA: Mais robusto mas menos flexível
  • QDA: Mais flexível mas requer mais dados
  • Ambos: Sensíveis a violações dos pressupostos de normalidade
  • Excelente desempenho quando os pressupostos são atendidos

Portanto, a escolha entre LDA e QDA deve considerar as características específicas dos dados e os objetivos do projeto. Inclusive, em muitos casos práticos, testar ambas as abordagens com validação adequada pode revelar qual método é mais apropriado para o problema em questão.