1.3 – Semi Supervisionado
1.3.2.1 – Semi Supervisionado Combinacao ex: gerador + classificador, autoencoder + SVM
unindo forças na mesma arquitetura
A combinação em modelos semi-supervisionados integra diferentes estratégias em uma arquitetura única. Diferente de abordagens sequenciais, o treinamento ocorre de forma conjunta e integrada. Primeiramente, a perda supervisionada atua sobre os exemplos rotulados disponíveis. Além disso, a perda não supervisionada opera sobre todos os dados, rotulados ou não. Por exemplo, classificar imagens enquanto simultaneamente as reconstrói com autoencoder. Essa combinação permite que ambos os objetivos se beneficiem mutuamente.
funções de perda combinadas
Modelos combinados utilizam funções de perda que somam componentes supervisionados e não supervisionados. Primeiramente, L_total = L_supervisionado + λ * L_nao_supervisionado. Além disso, λ controla o equilíbrio entre os dois objetivos. O treinamento minimiza ambas as perdas simultaneamente através de backpropagation. Por exemplo, entropia cruzada para classificação mais erro quadrático para reconstrução. Esse balanço permite que o modelo aprenda representações robustas.
regularização e robustez
A componente não supervisionada atua como regularizador, prevenindo overfitting nos dados rotulados. Primeiramente, a reconstrução força o modelo a aprender características gerais dos dados. Além disso, reduz a dependência de artefatos específicos do pequeno conjunto rotulado. Por exemplo, modelos treinados com poucas imagens rotuladas generalizam melhor. Essa combinação é especialmente eficaz quando os dados rotulados são escassos. Para iniciantes, mostra como múltiplos objetivos podem cooperar na mesma rede. É a base de muitos sistemas semi-supervisionados modernos.