Classificacão de Padrões (Pattern Classification)

1.1.2.4 – Redes Neurais – Visao Computacional
1.1.2.4.3 – Classificacao de Padroes (Pattern Classification)
1.1.2.4.3.1 – Classificador de Minima Distancia (Prototype Matching)
1.1.2.4.3.2 – Correlacao Cruzada (Template Matching)
1.1.2.4.3.3 – Classificador Bayesiano (Optimo)
1.1.2.4.3.4 – K-Vizinhos Mais Proximos (K-NN)
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

Após extrair as características, precisamos rotular o objeto. A classificação de padrões executa exatamente essa tarefa. Primeiramente, ela atribui uma classe a uma imagem ou região. Este é o último estágio do processo de reconhecimento. Além disso, um vetor de características representa cada padrão no espaço n-dimensional. O classificador decide a qual classe este vetor pertence. Portanto, a qualidade da classificação depende diretamente das características extraídas. Quanto melhores as características, mais precisa será a decisão final. Dessa forma, este capítulo foca em três abordagens principais de classificação.

classificação por protótipo (minimum-distance classifier)

Este método compara o padrão desconhecido com protótipos armazenados. Geralmente, o protótipo é o vetor médio de cada classe. O sistema calcula a distância euclidiana entre o vetor desconhecido e cada protótipo. Em seguida, ele atribui a classe do protótipo mais próximo ao padrão. Por exemplo, o sistema de reconhecimento de cheques E-13B utiliza esta abordagem. Caracteres são projetados para serem facilmente distinguíveis. Consequentemente, um classificador simples funciona muito bem. Esta técnica é eficaz quando as classes apresentam boa separação. Ademais, ela é computacionalmente muito rápida e fácil de implementar. Portanto, ela se mostra ideal para aplicações industriais em tempo real.

classificador bayesiano (bayes classifier)

Este classificador é considerado o padrão ouro estatístico. Ele minimiza a probabilidade média de erro de classificação. O classificador Bayesiano utiliza probabilidades a priori das classes. Além disso, ele necessita da função densidade de probabilidade de cada classe. Na prática, os dados geralmente seguem uma distribuição Gaussiana. As amostras de treinamento fornecem os parâmetros (média e covariância) do modelo. A vantagem principal reside na sua base matemática sólida e robusta. Por exemplo, este classificador distinguiu pixels de imagens multiespectrais. Dessa forma, água, vegetação e áreas urbanas foram separadas com alta precisão. O classificador Bayesiano é uma escolha excelente para dados bem comportados.

redes neurais e aprendizado profundo (neural networks & deep learning)

Redes neurais artificiais buscam inspiração no cérebro humano. Primeiramente, elas consistem em camadas de neurônios interconectados. O algoritmo de retropropagação (backpropagation) realiza o treinamento. Redes profundas (deep learning) possuem muitas camadas escondidas. Por outro lado, as redes neurais convolucionais (CNNs) são especialmente poderosas para imagens. Elas aprendem características diretamente dos pixels brutos. Consequentemente, não precisamos criar descritores manuais. Por exemplo, a arquitetura LeNet-5 reconhece dígitos manuscritos com altíssima acurácia. Modelos como AlexNet e ResNet revolucionaram o reconhecimento de objetos. Portanto, o aprendizado profundo é a técnica de escolha para problemas complexos. Grandes bases de dados são frequentemente necessárias para seu treinamento eficaz.

Deixe um comentário