Classificador Bayesiano (Optimo)

programador

O classificador Bayesiano representa a solução estatisticamente ótima para classificação. Ele minimiza a probabilidade média de erro de decisão. Primeiramente, o método utiliza o teorema de Bayes para calcular probabilidades a posteriori. A classe com a maior probabilidade a posteriori é a escolhida. Por exemplo, se P(c1|x) > P(c2|x), escolhemos a classe c1. O classificador considera tanto a verossimilhança dos dados quanto as probabilidades a priori. Consequentemente, ele incorpora conhecimento prévio sobre a ocorrência das classes. Portanto, o classificador Bayesiano é a referência teórica contra a qual outros métodos são comparados.

função de decisão e regra de bayes

A regra de decisão de Bayes maximiza a probabilidade a posteriori. Primeiramente, calculamos P(cj|x) = P(x|cj) * P(cj) / P(x). O denominador P(x) é comum a todas as classes e pode ser ignorado. Portanto, maximizar P(x|cj) * P(cj) é suficiente para a decisão. A função discriminante Bayesiana tem a forma dj(x) = P(x|cj) * P(cj). Para dados Gaussianos, esta função torna-se uma quadrática. Quando as covariâncias são iguais, a função simplifica para uma forma linear. O classificador de mínima distância é um caso especial do Bayesiano. Ele assume covariâncias iguais e probabilidades a priori iguais.

estimando parâmetros e a maldição da dimensionalidade

Na prática, as densidades P(x|cj) são desconhecidas e precisam ser estimadas. Geralmente, assume-se uma distribuição Gaussiana (normal) para os dados. Os parâmetros a estimar são o vetor de médias (μj) e a matriz de covariância (Σj). As amostras de treinamento fornecem as estimativas destes parâmetros. Por exemplo, μj é a média das amostras da classe j. Contudo, o número de parâmetros cresce quadraticamente com a dimensionalidade. Para dados de alta dimensão, precisamos de muitas amostras para estimativas precisas. Este fenômeno é conhecido como a “maldição da dimensionalidade”. Portanto, técnicas de redução de dimensionalidade (como PCA) são frequentemente aplicadas antes do classificador Bayesiano.

quando utilizar o classificador bayesiano

Utilize o classificador Bayesiano quando as suposições Gaussianas forem razoáveis. Por exemplo, dados de sensores que seguem distribuições normais. Outra aplicação é em problemas com poucas dimensões (menos de 20). O método também é excelente quando as probabilidades a priori são conhecidas. Por exemplo, em controle de qualidade, a taxa de defeitos é conhecida antecipadamente. Contudo, evite o classificador Bayesiano em dados de alta dimensão com poucas amostras. Redes neurais ou SVM podem generalizar melhor nestes casos. Além disso, quando os dados não seguem uma distribuição Gaussiana, o desempenho degrada. Versões não-paramétricas (como Parzen) podem ser usadas, mas são mais caras. Em resumo, escolha o classificador Bayesiano pela sua base teórica sólida e desempenho ótimo sob as suposições corretas.

Correlação Cruzada (Template Matching)

programador
1.1.2.4 – Redes Neurais – Visao Computacional
1.1.2.4.3 – Classificacao de Padroes (Pattern Classification)
1.1.2.4.3.1 – Classificador de Minima Distancia (Prototype Matching)
1.1.2.4.3.2 – Correlacao Cruzada (Template Matching)
1.1.2.4.3.3 – Classificador Bayesiano (Optimo)
1.1.2.4.3.4 – K-Vizinhos Mais Proximos (K-NN)
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

A correlação cruzada é uma técnica fundamental para localizar padrões. Ela compara um template (padrão) com a imagem alvo. Primeiramente, o template desliza sobre toda a imagem. Em cada posição, calcula-se uma medida de similaridade. A correlação simples usa o produto interno entre template e subimagem. Valores altos indicam boa correspondência local. Por exemplo, busca-se um olho em uma imagem de rosto. Contudo, a correlação simples é sensível à amplitude dos pixels. Portanto, usa-se o coeficiente de correlação normalizado. Este coeficiente varia entre -1 e +1, sendo invariante a mudanças de brilho e contraste.

coeficiente de correlação normalizado

O coeficiente de correlação normalizado resolve os problemas de amplitude. Primeiramente, ele subtrai a média do template e da subimagem. Em seguida, normaliza pelo desvio padrão de ambos. A fórmula resultante é robusta a mudanças lineares de iluminação. Por exemplo, mesmo com brilho variável, o padrão ainda é encontrado. O coeficiente igual a 1 indica correspondência perfeita. O coeficiente igual a -1 indica correspondência negativa perfeita (inverso). Valores próximos de 0 indicam nenhuma correlação. Portanto, este coeficiente é a escolha padrão em template matching. Ele é implementado pela função normxcorr2 no MATLAB, por exemplo.

aplicações práticas do template matching

O template matching possui diversas aplicações práticas importantes. Primeiramente, ele é usado em sistemas de inspeção industrial. Por exemplo, verificar se todos os componentes estão em uma placa de circuito. Outra aplicação é na detecção de objetos em imagens médicas. Por exemplo, localizar um tumor em uma sequência de ressonâncias. O método também é útil em sistemas de visão robótica. Robôs podem localizar peças em uma esteira de produção. Além disso, o template matching é usado em sistemas de vigilância. Por exemplo, rastrear um veículo específico em imagens de câmeras. Contudo, o método não é invariante à rotação ou escala. Portanto, o template deve estar na mesma orientação e tamanho do objeto alvo.

limitações e quando utilizar outras abordagens

O template matching tem limitações significativas que merecem atenção. Primeiramente, ele não é invariante à rotação do objeto. Um template rotacionado não será detectado corretamente. Além disso, o método também falha com mudanças de escala. Objetos maiores ou menores que o template passam despercebidos. Outra limitação é a sensibilidade a oclusões parciais. Se parte do objeto estiver escondida, a correlação diminui drasticamente. Para estes casos, utilize métodos mais avançados. Por exemplo, SIFT ou SURF são invariantes à rotação e escala. Redes neurais convolucionais também resolvem estes problemas. Portanto, escolha template matching apenas para cenários controlados. Quando a orientação, escala e iluminação forem constantes, ele oferece uma solução simples e eficaz.