Variational Autoencoders – VAE

bebê aprendendo a andar
1.5.1 – Modelos Generativos
1.5.1.1 – Redes Neurais Generativas
1.5.1.1.1 – GANs – Geradoras
1.5.1.1.2 – Variational Autoencoders – VAE
1.5.1.1.3 – Modelos de Difusao – U-Net
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

aprendendo espaços latentes contínuos

VAEs (Variational Autoencoders) aprendem representações latentes probabilísticas e contínuas dos dados. Diferente de autoencoders tradicionais, eles mapeiam entradas para distribuições em vez de pontos fixos. Primeiramente, o codificador produz média e variância de uma distribuição gaussiana. Além disso, o decodificador reconstrói amostras a partir dessa distribuição. Por exemplo, gerar novos dígitos variando estilo e espessura suavemente.

reparametrização e amostragem

O truque de reparametrização permite backpropagation através da amostragem. Primeiramente, amostra ruído ε ~ N(0,1) e transforma z = μ + σ * ε. Além disso, isso mantém o gradiente determinístico enquanto permite estocasticidade. Por exemplo, gera variações contínuas no espaço latente.

espaço latente estruturado

VAEs organizam o espaço latente de forma suave e interpretável. Primeiramente, pontos próximos no espaço latente geram dados semanticamente similares. Além disso, permite interpolação significativa entre diferentes exemplos. Por exemplo, transição suave entre dígitos 3 e 8. É uma propriedade única dos VAEs.

aplicações e características

VAEs são ideais para geração controlada e representações interpretáveis. Primeiramente, usados para geração de imagens, música e moléculas. Além disso, aprendem representações para downstream tasks. Por exemplo, gerar novas estruturas químicas com propriedades desejadas. Para iniciantes, VAEs mostram representações probabilísticas e estruturadas. É uma arquitetura elegante e poderosa.

GANs – Geradoras

bebê aprendendo a andar
1.5.1 – Modelos Generativos
1.5.1.1 – Redes Neurais Generativas
1.5.1.1.1 – GANs – Geradoras
1.5.1.1.2 – Variational Autoencoders – VAE
1.5.1.1.3 – Modelos de Difusao – U-Net
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

competição que gera realismo

GANs (Generative Adversarial Networks) usam dois modelos competindo entre si para gerar dados realistas. O gerador cria amostras falsas enquanto o discriminador tenta detectar se são reais ou falsas. Primeiramente, o gerador aprende a enganar o discriminador com amostras cada vez melhores. Além disso, o discriminador melhora sua capacidade de distinguir reais de falsos. Por exemplo, gerar rostos humanos indistinguíveis de fotografias reais.

jogo adversarial e equilíbrio

O treinamento é um jogo de soma zero entre gerador e discriminador. Primeiramente, gerador busca maximizar a taxa de engano do discriminador. Além disso, discriminador busca minimizar seu erro de classificação. Por exemplo, competição leva a qualidade progressivamente melhor. O equilíbrio ideal ocorre quando discriminador não consegue distinguir.

arquiteturas modernas de gan

StyleGAN e BigGAN são arquiteturas avançadas que alcançaram qualidade impressionante. Primeiramente, StyleGAN introduziu controle de estilo em diferentes escalas. Além disso, BigGAN escalou para resoluções e variedade muito maiores. Por exemplo, geram imagens fotorrealistas de pessoas, animais e objetos.

aplicações e revolução criativa

GANs transformaram geração de imagens, vídeos e arte digital. Primeiramente, usadas em moda, design e entretenimento. Além disso, aumentam dados para treinamento de outros modelos. Por exemplo, criar avatares realistas e deepfakes. Para iniciantes, GANs mostram competição gerando excelência. É uma das arquiteturas mais influentes do deep learning.