Monte Carlo sem exploração de inícios

bebê aprendendo a andar
1.4.2 – Metodos Baseados em Valor
1.4.2.2 – Metodos de Monte Carlo
1.4.2.2.2 – Monte Carlo sem exploracao de inicios
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

Nem todo ambiente permite exploração de inícios. Muitos problemas têm um estado inicial fixo. Por exemplo, um jogo sempre começa do mesmo ponto. Nesses casos, precisamos de outras estratégias de exploração. Primeiramente, usamos políticas estocásticas como ε-greedy. Em segundo lugar, garantimos que todas as ações sejam tentadas. Por conseguinte, o agente aprende mesmo com início fixo.

Características da arquitetura

A arquitetura mantém uma política suave (soft policy). Isso significa que toda ação tem probabilidade > 0. Frequentemente, usamos ε-greedy ou softmax. A função Q(s,a) é aprendida por Monte Carlo. Contudo, a política usada para gerar episódios é diferente da política alvo. Esse é o conceito de off-policy learning. A política de comportamento (behavior) explora mais. A política alvo (target) é a ótima que queremos aprender. A razão de importância (importance sampling) corrige a diferença.

A atualização off-policy usa pesos de importância. A fórmula é \( \rho_{t:T-1} = \prod_{k=t}^{T-1} \frac{\pi(a_k|s_k)}{b(a_k|s_k)} \). Esse peso ajusta o retorno amostrado. O estimador é \( V(s) = \frac{\sum_{t} \rho_{t:T-1} G_t}{\sum_{t} \rho_{t:T-1}} \). A variância pode ser alta com muitos termos. Por isso, usamos weighted importance sampling. Ele tem viés mas variância menor. Outra abordagem é on-policy com ε-greedy. Nela, a política de comportamento é a mesma alvo.

Hiperparâmetros e fórmulas matemáticas

Os hiperparâmetros principais são ε e γ. A taxa de exploração ε típica é 0.1. O fator de desconto γ é 0.95 ou 0.99. Para off-policy, usamos α (taxa aprendizado). A atualização incremental é \( Q(s,a) \leftarrow Q(s,a) + \alpha \rho (G_t – Q(s,a)) \). A política ε-greedy é definida como \( \pi(a|s) = 1 – \epsilon + \frac{\epsilon}{|A|} \) para a ação ótima. Para outras ações, \( \pi(a|s) = \frac{\epsilon}{|A|} \). Isso garante exploração contínua.

O erro de Monte Carlo on-policy é \( \delta = G_t – Q(s,a) \). No off-policy, o erro é ponderado por ρ. A convergência é garantida se exploração continuar. Contudo, a variância pode ser alta. Por isso, métodos de TD são preferidos na prática. Ainda assim, Monte Carlo sem exploring starts é importante. Ele é usado em jogos como Blackjack e Poker.

Exemplo clássico: Blackjack com início fixo

Considere o Blackjack com estado inicial sempre o mesmo. O jogador recebe duas cartas e vê uma do dealer. Ele não pode reiniciar em posições aleatórias. Portanto, exploring starts é impossível. Usamos ε-greedy para garantir exploração. O objetivo é aprender a função valor. O código abaixo implementa Monte Carlo on-policy com ε-greedy. Ele resolve o Blackjack sem exploring starts.

Monte Carlo com exploração de inícios

bebê aprendendo a andar
1.4.2 – Metodos Baseados em Valor
1.4.2.2 – Metodos de Monte Carlo
1.4.2.2.1 – Monte Carlo com exploracao de inicios
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

A exploração de inícios é uma técnica simples mas poderosa. Ela garante que todas as ações sejam experimentadas. Primeiramente, cada episódio começa em um par estado-ação aleatório. Em segundo lugar, a política é determinística durante o resto do episódio. Por conseguinte, a exploração é assegurada sem usar ε-greedy. Este método funciona apenas em ambientes que podem ser reiniciados.

Características da arquitetura

A arquitetura armazena Q(s,a) em uma tabela. Cada par estado-ação é inicializado com um valor. A política é gulosa em relação a Q. Contudo, o primeiro passo de cada episódio é forçado. Ele é escolhido aleatoriamente entre todas as ações possíveis. Depois disso, o agente segue a política gulosa. Esse método é chamado de Monte Carlo exploring starts. Ele é garantido de convergir para a política ótima. Uma desvantagem é a necessidade de reiniciar o ambiente. Muitos problemas reais não permitem isso.

A atualização first-visit é usada frequentemente. O retorno G_t é calculado ao final do episódio. A equação de atualização é \( Q(s,a) \leftarrow Q(s,a) + \alpha (G_t – Q(s,a)) \). Alternativamente, usamos a média simples: \( Q(s,a) = \frac{1}{N(s,a)} \sum_{i=1}^{N(s,a)} G_t^{(i)} \). A exploração de inícios substitui o ε-greedy. Portanto, não há hiperparâmetro epsilon. Isso simplifica o ajuste do modelo. Contudo, nem todo ambiente pode ser reiniciado arbitrariamente.

Hiperparâmetros e fórmulas

Os hiperparâmetros são poucos neste método. O fator de desconto γ é o mais importante. Valores típicos são 0.9, 0.95 ou 0.99. A taxa de aprendizado α pode ser usada (opcional). O número de episódios deve ser grande. Cada par estado-ação precisa ser visitado muitas vezes. A equação de Bellman para Q* é \( Q^*(s,a) = \sum_{s’,r} p(s’,r|s,a) [r + \gamma \max_{a’} Q^*(s’,a’)] \). Monte Carlo aproxima isso por amostragem. O erro é dado por \( \delta = G_t – Q(s,a) \). A convergência é garantida se cada par for visitado infinitas vezes.

A política gulosa é definida como \( \pi(s) = \arg\max_a Q(s,a) \). No exploring starts, o primeiro passo quebra essa gulodice. Isso é feito amostrando a ação inicial uniformemente. A probabilidade é \( P(A_0 = a | S_0 = s) = \frac{1}{|A(s)|} \). Depois disso, a política é determinística. Este método é elegante e teórico. Porém, sua aplicação prática é limitada.

Exemplo clássico: dado de 6 faces

Imagine um dado de 6 faces que você pode jogar. Cada face tem uma recompensa diferente. O estado é sempre o mesmo (único estado). As ações são escolher qual face apostar. Após a aposta, o dado é rolado. Você ganha a recompensa da face sorteada. O objetivo é maximizar a recompensa esperada. O ambiente é um bandido (k-armed bandit). A exploração de inícios força cada ação a ser testada. O código abaixo resolve este problema.