redes neurais que aprendem de tudo
Redes neurais semi-supervisionadas combinam perdas supervisionadas e não supervisionadas em um único modelo. Diferente de redes tradicionais, elas utilizam tanto dados rotulados quanto não rotulados simultaneamente. Primeiramente, a camada de classificação processa exemplos rotulados com entropia cruzada. Além disso, componentes como autoencoders ou redes de contraste operam sobre todos os dados. Por exemplo, uma CNN classifica imagens enquanto seu autoencoder as reconstrói. Essa integração força a rede a aprender representações robustas e invariantes.
consistência como regularização
Técnicas de consistência são fundamentais em redes neurais semi-supervisionadas modernas. Primeiramente, o modelo deve produzir saídas similares para variações leves da mesma entrada. Além disso, a perda de consistência atua sobre dados não rotulados sem necessidade de rótulos. Por exemplo, classificar uma imagem original e sua versão aumentada (rotação, corte) de forma consistente. Esse princípio, chamado de regularização por consistência, é poderoso e eficaz.
pseudo-rotulagem com confiança
Pseudo-rotulagem utiliza previsões confiantes da rede como rótulos para dados não rotulados. Primeiramente, o modelo treina inicialmente apenas com dados rotulados disponíveis. Além disso, gera pseudo-rótulos para exemplos com alta confiança nas previsões. O modelo então treina com esses novos exemplos adicionados ao conjunto. Por exemplo, imagens classificadas com mais de 95% de confiança entram no treinamento. Esse processo iterativo melhora progressivamente o modelo. Para iniciantes, mostra como redes neurais podem gerar seu próprio treinamento. É uma técnica eficaz quando rótulos são escassos.