Modelos híbridos

cavalo robô
1.3 – Semi Supervisionado
1.3.2 – Modelos Hibridos
1.3.2.1 – Semi Supervisionado Combinacao ex: gerador + classificador, autoencoder + SVM
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

combinando aprendizados distintos

Modelos híbridos em aprendizado semi-supervisionado combinam componentes supervisionados e não supervisionados. Diferente de abordagens puras, eles integram múltiplas estratégias em um único sistema. Primeiramente, um componente supervisionado aprende com os dados rotulados disponíveis. Além disso, componentes não supervisionados capturam estrutura dos dados não rotulados. Por exemplo, redes neurais com perdas combinadas de classificação e autoencoder. Essa integração aproveita o melhor de cada abordagem.

arquiteturas híbridas comuns

Arquiteturas híbridas frequentemente combinam autoencoders com classificadores em uma rede única. Primeiramente, o autoencoder aprende representações a partir de todos os dados disponíveis. Além disso, o classificador opera sobre essas representações usando dados rotulados. O treinamento conjunto otimiza ambas as funções objetivo simultaneamente. Por exemplo, classificar imagens enquanto aprende representações compactas. Essa abordagem é conhecida como aprendizado multitarefa.

vantagens e aplicações

Modelos híbridos oferecem vantagens significativas quando poucos dados rotulados estão disponíveis. Primeiramente, a componente não supervisionada regulariza o modelo prevenindo overfitting. Além disso, as representações aprendidas capturam estrutura mais rica dos dados. Por exemplo, classificação de textos com redes neurais treinadas com perda de reconstrução. Na visão computacional, combinam autoencoders convolucionais com camadas de classificação. Para iniciantes, mostram como múltiplos objetivos podem cooperar. É uma abordagem poderosa para cenários com dados rotulados escassos.

Label Propagation, Label Spreading

robô gigante
1.3 – Semi Supervisionado
1.3.1 – Propagacao de Rotulos
1.3.1.1 – Label Propagation, Label Spreading
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

label propagation: propagação rígida

Label Propagation é o método clássico que propaga rótulos mantendo fixos os exemplos rotulados. Primeiramente, constrói-se um grafo de similaridade entre todos os exemplos. Além disso, os rótulos se propagam iterativamente através das arestas ponderadas. Os nós rotulados permanecem inalterados durante todo o processo. Por exemplo, categorizar documentos onde poucos tópicos são conhecidos inicialmente. A matriz de transição define como os rótulos se espalham. Converge para uma atribuição final estável.

label spreading: maior flexibilidade

Label Spreading é uma variação que permite alguma flexibilidade nos rótulos iniciais. Diferente do Label Propagation, ele permite que exemplos rotulados possam mudar. Primeiramente, utiliza uma matriz de similaridade com normalização por grau. Além disso, introduz um parâmetro α que controla quanto os rótulos iniciais influenciam. Por exemplo, corrigir possíveis erros nos dados de treinamento rotulados. É mais robusto a ruído e outliers nos dados. Oferece maior flexibilidade para problemas realistas.

escolha do método adequado

A escolha entre os métodos depende da confiança nos rótulos iniciais disponíveis. Primeiramente, Label Propagation é ideal quando os rótulos iniciais são muito confiáveis. Além disso, Label Spreading é preferido quando há possibilidade de ruído ou erros. O parâmetro α controla trade-off entre rótulos originais e propagação. Por exemplo, dados rotulados manualmente por especialistas favorecem Label Propagation. Dados com anotações menos confiáveis beneficiam-se do Label Spreading. Para iniciantes, ambos mostram como estruturas de grafos propagam conhecimento. São ferramentas essenciais para aprendizado semi-supervisionado.