Supervisionado

aprendizado de maquina
1 – Aprendizado de Maquina
1.1 – Supervisionado
1.1.1 – Regressao
1.1.2 – Classificacao
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

aprendendo com exemplos rotulados

Aprendizado supervisionado é uma abordagem onde o algoritmo aprende a partir de exemplos com respostas corretas. Cada exemplo de treinamento consiste em uma entrada e seu rótulo correspondente. Primeiramente, o algoritmo analisa esses pares para identificar padrões nos dados. Depois, ele constrói um modelo que mapeia novas entradas para saídas prováveis. Por exemplo, um sistema aprende a reconhecer spam com e-mails rotulados como “spam” ou “não spam”. O modelo resultante pode classificar mensagens nunca vistas anteriormente. Esse é o tipo mais comum de aprendizado de máquina na prática.

classificação: categorizando dados

Classificação é uma tarefa onde a saída é uma categoria discreta entre opções limitadas. O modelo aprende a atribuir cada entrada a uma classe específica. Por exemplo, um sistema pode classificar imagens como “gato”, “cachorro” ou “pássaro”. Outro exemplo: diagnóstico médico classifica pacientes como “doente” ou “saudável”. Além disso, problemas podem ter múltiplas classes, como classificação de espécies de flores. O modelo utiliza fronteiras de decisão para separar as diferentes categorias. A precisão da classificação depende da qualidade dos dados de treinamento.

regressão: prevendo valores contínuos

Regressão é uma tarefa onde a saída é um valor numérico contínuo. O modelo aprende a prever números em vez de categorias discretas. Por exemplo, um sistema pode prever o preço de um imóvel com base em suas características. Outro exemplo: previsão de temperatura para os próximos dias com dados históricos. O algoritmo busca uma função que minimiza o erro entre previsões e valores reais. Linhas de tendência e curvas de ajuste representam visualmente esses modelos. Diferente da classificação, a regressão lida com infinitas possibilidades de saída.

validação e generalização

A capacidade de generalizar para dados novos é o objetivo central do aprendizado supervisionado. Primeiramente, dividimos os dados em conjuntos de treinamento e teste. O modelo aprende apenas com os dados de treinamento disponíveis. Depois, avaliamos seu desempenho nos dados de teste não vistos anteriormente. Esse processo revela se o modelo realmente aprendeu padrões gerais. Além disso, técnicas como validação cruzada ajudam a avaliar a robustez do modelo. O sobreajuste (overfitting) ocorre quando o modelo decora os dados em vez de aprender.

aplicações cotidianas

Aprendizado supervisionado está presente em inúmeras aplicações do nosso dia a dia. Sistemas de recomendação aprendem preferências de usuários a partir de itens avaliados. Filtros de spam utilizam classificação para proteger caixas de entrada de e-mail. Reconhecimento facial em smartphones aprende a identificar rostos autorizados. Assistentes virtuais usam modelos para interpretar comandos de voz dos usuários. Na medicina, sistemas auxiliam no diagnóstico a partir de exames rotulados. Para iniciantes, entender supervisionado é o primeiro passo no mundo do machine learning. É a base sobre a qual muitos sistemas inteligentes modernos são construídos.

Árvore de Decisão

árvore de ipê rosa
1.1 – Supervisionado
1.1.1 – Regressao
1.1.1.6 – Arvore de Decisao
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

Entendendo a regressão com árvore de decisão

A regressão com árvore de decisão é um modelo supervisionado. Ele prevê valores numéricos contínuos, como preços de casas. Diferentemente da classificação, a saída aqui é um número real. Por exemplo, podemos prever a temperatura de amanhã. Este modelo divide os dados em regiões retangulares. Cada região recebe um valor constante de predição. A estrutura lembra uma árvore invertida com galhos e folhas.

As características principais incluem simplicidade e interpretabilidade. A árvore é construída por meio de divisões recursivas. Cada divisão usa uma característica e um ponto de corte. O objetivo é minimizar o erro quadrático médio local. Modelos mais profundos podem sofrer de overfitting. Por isso, o controle da complexidade é essencial. A predição final é a média dos valores na folha.

Arquitetura e componentes internos

A arquitetura começa com o nó raiz, que contém todos os dados. Cada nó interno testa uma única característica. O teste pergunta: o valor é menor que um limiar? Conforme a resposta, os dados seguem para um ramo. Esse processo se repete até chegar aos nós folha. Cada folha armazena um valor constante predito. Em regressão, esse valor é a média dos alvos locais. A profundidade da árvore é o maior número de divisões. Quanto mais folhas, mais complexo é o modelo final.

A construção usa um algoritmo guloso por eficiência. Ele busca a melhor divisão em cada etapa local. A métrica típica é a redução da variância. A fórmula da variância de um nó é: \(\sigma^2 = \frac{1}{N}\sum_{i=1}^{N} (y_i – \bar{y})^2\). A redução da variância após divisão é calculada assim: \(\Delta = \sigma^2_{pai} – \left( \frac{N_{esq}}{N_{pai}} \sigma^2_{esq} + \frac{N_{dir}}{N_{pai}} \sigma^2_{dir} \right)\). A divisão escolhida maximiza esse delta positivo. Esse processo é repetido até um critério de parada.

Hiperparâmetros essenciais

Os hiperparâmetros controlam o crescimento da árvore. A profundidade máxima limita quantas divisões são feitas. O número mínimo de amostras por folha evita folhas vazias. O número mínimo para divisão impede divisões muito pequenas. Esses parâmetros podem ser ajustados por validação cruzada. Árvores muito profundas geralmente memorizam ruídos. Árvores rasas podem não capturar padrões complexos. Um equilíbrio é alcançado com hiperparâmetros adequados. É comum usar poda ou restrições para regularizar.

Outros parâmetros incluem o critério de divisão. O erro quadrático médio (MSE) é a função padrão. A fórmula do MSE em um nó é apresentada abaixo: \(MSE = \frac{1}{N} \sum_{i=1}^{N} (y_i – \hat{y})^2\). Nessa expressão, \(\hat{y}\) é a média local. Modelos de árvore são frequentemente combinados em florestas. Florestas aleatórias melhoram a precisão pela média de árvores. Contudo, a árvore única já é um ótimo ponto de partida. A interpretabilidade é mantida em árvores de pequena profundidade.

Exemplo prático em Python

Abaixo está um código para rodar no Google Colab. Ele gera dados sintéticos e treina uma árvore de regressão. O gráfico mostra a predição sobreposta aos dados reais. Certifique-se de instalar as bibliotecas necessárias. O código usa scikit-learn, matplotlib e numpy.

O código cria 80 pontos com relação senoidal e ruído. A árvore usa profundidade máxima 4 para evitar overfitting. O gráfico resultante mostra degraus horizontais típicos. Cada degrau corresponde a uma região de uma folha. Isso ilustra perfeitamente como a árvore particiona o espaço. Alterar a profundidade para 20 produziria muitos degraus. Assim, o modelo se ajustaria excessivamente ao ruído. Por fim, recomenda-se explorar outros hiperparâmetros. Essa abordagem é poderosa e fácil de interpretar.