Semi Supervisionado Redes Neurais

cavalo robô

redes neurais que aprendem de tudo

Redes neurais semi-supervisionadas combinam perdas supervisionadas e não supervisionadas em um único modelo. Diferente de redes tradicionais, elas utilizam tanto dados rotulados quanto não rotulados simultaneamente. Primeiramente, a camada de classificação processa exemplos rotulados com entropia cruzada. Além disso, componentes como autoencoders ou redes de contraste operam sobre todos os dados. Por exemplo, uma CNN classifica imagens enquanto seu autoencoder as reconstrói. Essa integração força a rede a aprender representações robustas e invariantes.

consistência como regularização

Técnicas de consistência são fundamentais em redes neurais semi-supervisionadas modernas. Primeiramente, o modelo deve produzir saídas similares para variações leves da mesma entrada. Além disso, a perda de consistência atua sobre dados não rotulados sem necessidade de rótulos. Por exemplo, classificar uma imagem original e sua versão aumentada (rotação, corte) de forma consistente. Esse princípio, chamado de regularização por consistência, é poderoso e eficaz.

pseudo-rotulagem com confiança

Pseudo-rotulagem utiliza previsões confiantes da rede como rótulos para dados não rotulados. Primeiramente, o modelo treina inicialmente apenas com dados rotulados disponíveis. Além disso, gera pseudo-rótulos para exemplos com alta confiança nas previsões. O modelo então treina com esses novos exemplos adicionados ao conjunto. Por exemplo, imagens classificadas com mais de 95% de confiança entram no treinamento. Esse processo iterativo melhora progressivamente o modelo. Para iniciantes, mostra como redes neurais podem gerar seu próprio treinamento. É uma técnica eficaz quando rótulos são escassos.

Semi Supervisionado Combinação

robô gigante
1.3 – Semi Supervisionado
1.3.2 – Modelos Hibridos
1.3.2.1 – Semi Supervisionado Combinacao ex: gerador + classificador, autoencoder + SVM
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

unindo forças na mesma arquitetura

A combinação em modelos semi-supervisionados integra diferentes estratégias em uma arquitetura única. Diferente de abordagens sequenciais, o treinamento ocorre de forma conjunta e integrada. Primeiramente, a perda supervisionada atua sobre os exemplos rotulados disponíveis. Além disso, a perda não supervisionada opera sobre todos os dados, rotulados ou não. Por exemplo, classificar imagens enquanto simultaneamente as reconstrói com autoencoder. Essa combinação permite que ambos os objetivos se beneficiem mutuamente.

funções de perda combinadas

Modelos combinados utilizam funções de perda que somam componentes supervisionados e não supervisionados. Primeiramente, L_total = L_supervisionado + λ * L_nao_supervisionado. Além disso, λ controla o equilíbrio entre os dois objetivos. O treinamento minimiza ambas as perdas simultaneamente através de backpropagation. Por exemplo, entropia cruzada para classificação mais erro quadrático para reconstrução. Esse balanço permite que o modelo aprenda representações robustas.

regularização e robustez

A componente não supervisionada atua como regularizador, prevenindo overfitting nos dados rotulados. Primeiramente, a reconstrução força o modelo a aprender características gerais dos dados. Além disso, reduz a dependência de artefatos específicos do pequeno conjunto rotulado. Por exemplo, modelos treinados com poucas imagens rotuladas generalizam melhor. Essa combinação é especialmente eficaz quando os dados rotulados são escassos. Para iniciantes, mostra como múltiplos objetivos podem cooperar na mesma rede. É a base de muitos sistemas semi-supervisionados modernos.