Siamese Networks

1.1.2 – Classificacao
1.1.2.6 – Redes Neurais – Hibridas/Especificas
1.1.2.6.1 – Siamese Networks
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

comparando em vez de classificando

Redes Siamese são arquiteturas que aprendem a comparar pares de entradas em vez de classificá-las. Elas consistem em duas ou mais redes idênticas que compartilham os mesmos pesos. Primeiramente, cada sub-rede transforma uma entrada em um vetor de características (embedding). Além disso, uma função de similaridade compara esses vetores para produzir uma pontuação final. Por exemplo, verificar se duas fotos mostram a mesma pessoa. Essa abordagem é ideal para tarefas com muitas classes ou classes não vistas durante treinamento.

aprendendo com funções de contraste

O treinamento de redes Siamese utiliza funções de perda baseadas em similaridade. Primeiramente, a perda contrastiva aproxima embeddings de entradas similares e afasta entradas diferentes. Além disso, a perda triplet utiliza âncora, exemplo positivo e negativo para comparação. Por exemplo, em reconhecimento facial, imagens da mesma pessoa ficam próximas no espaço. Diferentes pessoas têm seus embeddings afastados. Esse aprendizado cria espaços de representação semanticamente estruturados. Não há necessidade de redefinir classes quando novos exemplos aparecem.

aplicações em reconhecimento facial e verificação

Redes Siamese são amplamente utilizadas em sistemas de verificação de identidade facial. Primeiramente, sistemas como FaceNet e DeepFace usam arquiteturas Siamese para reconhecimento. Além disso, são ideais para verificação de assinaturas e identificação de objetos raros. Por exemplo, identificar se duas impressões digitais pertencem ao mesmo indivíduo. A arquitetura permite adicionar novas pessoas sem re-treinar todo o modelo. Basta armazenar o embedding da nova pessoa. Essa flexibilidade é essencial para aplicações em larga escala e segurança.

vantagens e legado das redes siamese

Redes Siamese oferecem vantagens únicas para problemas de verificação e one-shot learning. Primeiramente, funcionam bem com poucos exemplos por classe (few-shot learning). Além disso, são robustas a variações e oclusões quando treinadas adequadamente. Por exemplo, reconhecer objetos com apenas um exemplo de referência. A arquitetura influenciou modelos modernos como CLIP e sistemas de recuperação. Para iniciantes, redes Siamese mostram como comparação pode substituir classificação. É uma abordagem elegante para problemas onde classes são muitas ou dinâmicas.

Deixe um comentário