Linear Simples ou Univariada

professor de matemática
1.1 – Supervisionado
1.1.1 – Regressao
1.1.1.1 – Linear Simples ou Univariada
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

a relação entre duas variáveis

Regressão linear simples modela a relação entre uma variável independente e uma dependente. A variável independente (x) serve para prever o valor da variável dependente (y). Por exemplo, podemos prever o preço de um imóvel (y) com base na metragem (x). Primeiramente, o algoritmo busca a linha reta que melhor se ajusta aos dados observados. A equação resultante tem forma y = a + bx, onde a é intercepto e b é inclinação. Diferente de modelos complexos, essa abordagem oferece interpretabilidade direta dos resultados. Portanto, regressão linear simples é o ponto de partida natural para quem aprende sobre regressão.

encontrando a linha de melhor ajuste

O método dos mínimos quadrados constitui a técnica padrão para encontrar os coeficientes da reta. Primeiramente, calculamos a diferença entre cada ponto real e o valor previsto pela reta. Depois, elevamos essas diferenças ao quadrado para tratar valores positivos e negativos igualmente. O algoritmo busca os valores de a e b que minimizam essa soma total. Por exemplo, em dados de preço por metragem, a inclinação b representa o preço por metro quadrado. Além disso, o intercepto a representa o valor base quando a metragem é zero. Esse processo matemático garante a reta que melhor representa os dados observados.

interpretando os coeficientes

Os coeficientes da regressão linear simples carregam significados práticos importantes para análise. A inclinação (b) indica quantas unidades y muda para cada unidade de x. Por exemplo, b = 5000 significa que cada metro quadrado adicional aumenta o preço em R$5.000. O intercepto (a) representa o valor de y quando x é igual a zero. Além disso, devemos avaliar se esse valor faz sentido no contexto do problema. Primeiramente, calculamos também o coeficiente de determinação R² para avaliar o ajuste. R² próximo de 1 indica que a variável x explica bem a variação de y. Essa interpretabilidade torna a regressão linear simples valiosa para tomada de decisão.

avaliando a qualidade do modelo

Avaliar um modelo de regressão linear simples exige análise de múltiplas métricas complementares. Primeiramente, o R² indica a proporção da variância de y explicada pela variável x. Valores acima de 0,7 geralmente indicam um bom ajuste aos dados observados. Além disso, analisamos os resíduos (diferenças entre valores reais e previstos). Resíduos devem se distribuir aleatoriamente sem padrões visíveis no gráfico. Adicionalmente, verificamos se os resíduos seguem aproximadamente uma distribuição normal. Outra métrica importante é o erro padrão dos coeficientes estimados. Por fim, a significância estatística dos coeficientes valida se a relação observada não ocorreu por acaso.

aplicações práticas no cotidiano

Regressão linear simples aparece em diversas situações práticas do dia a dia. Primeiramente, imobiliárias usam metragem para estimar preços de apartamentos em uma região. Além disso, varejistas analisam como gastos com publicidade influenciam o volume de vendas. Na agricultura, modelos relacionam quantidade de fertilizante com produtividade das colheitas. Escolas podem estudar a relação entre horas de estudo e notas obtidas pelos alunos. Empresas de transporte correlacionam distância percorrida com custo de combustível. Para iniciantes, este modelo demonstra como uma variável pode prever outra de forma simples. Consequentemente, é a ferramenta fundamental para entender relações causais básicas entre fenômenos.  

Problema: Previsão de Salário com base em Anos de Experiência

Contexto: Uma empresa deseja entender a relação entre os anos de experiência de um funcionário e seu salário anual. Com base nessa relação, eles querem prever o salário de novos candidatos.

Objetivo: Construir um modelo de Regressão Linear que aprenda a relação entre X (Anos de Experiência) e Y (Salário em R$).

O que é Regressão Linear Simples?

É um algoritmo de aprendizado supervisionado que modela a relação entre uma variável independente (X) e uma variável dependente (Y) através de uma linha reta.

Fórmula Matemática: y = β₀ + β₁ * x + ε

Onde:
• y = variável alvo (Salário)
• x = variável preditora (Anos de Experiência)
• β₀ = intercepto (bias)
• β₁ = coeficiente angular (peso)
• ε = erro (residual)
 

🏗️ Arquitetura do Modelo

Estrutura:
Input Layer: 1 neurônio (Anos de Experiência)
Output Layer: 1 neurônio (Salário previsto)
Função de Ativação: Linear (identity)
Camadas Ocultas: Nenhuma (modelo linear simples)
 

⚙️ Hiperparâmetros Principais

📊 fit_intercept (True/False)
Determina se o modelo calcula o intercepto (β₀). Default = True.
📊 normalize (True/False)
Normaliza os dados antes da regressão (depreciado no sklearn 1.0+).
📊 copy_X (True/False)
Se True, cria uma cópia dos dados de entrada.
📊 n_jobs (int ou None)
Número de jobs paralelos para computação (-1 usa todos os processadores).
 

📐 Métricas de Avaliação

  • R² (Coeficiente de Determinação): Mede quanto o modelo explica a variabilidade dos dados (0 a 1).
  • MSE (Erro Quadrático Médio): Penaliza erros grandes.
  • MAE (Erro Absoluto Médio): Mais robusto a outliers.

 

💡 Interpretação

O modelo encontrará uma reta que minimiza a soma dos quadrados dos resíduos (diferença entre valores reais e previstos).

Coeficiente β₁ positivo: relação positiva (mais experiência = maior salário)
Coeficiente β₁ negativo: relação inversa

 

 

Regressão

professor apresentando gráfico
1.1 – Supervisionado
1.1.1 – Regressao
1.1.1.1 – Linear Simples ou Univariada
1.1.1.2 – Linear Multivariada
1.1.1.3 – Polinomial
1.1.1.4 – Ridge, Lasso, Elastic Net
1.1.1.5 – Logistica
1.1.1.6 – Arvore de Decisao
1.1.1.7 – Redes Neurais – Deep Learning
LEGENDA
Principal
Ramo
Metodo
Problemas
Modelo
Arquitetura

prevendo números com precisão

Regressão é uma técnica de aprendizado supervisionado onde a saída é um valor numérico contínuo. Diferente da classificação, que prevê categorias, a regressão estima quantidades como preço, temperatura ou tempo. Por exemplo, um sistema pode prever o valor de um imóvel com base em sua metragem e localização. Primeiramente, o algoritmo analisa exemplos históricos com entradas e seus valores reais. Depois, ele constrói uma função matemática que mapeia novas entradas para previsões. Além disso, o objetivo é minimizar a diferença entre valores previstos e valores reais. Portanto, regressão é fundamental para problemas de previsão numérica.

regressão linear: a base fundamental

Regressão linear é o método mais simples e interpretável para problemas de regressão. Primeiramente, ela assume uma relação linear entre as variáveis de entrada e a saída. A equação resultante tem forma y = a + bx para uma única variável. Por exemplo, prever preço de casa com base apenas na metragem quadrada. Além disso, múltiplas variáveis geram uma linha em dimensões mais altas. O algoritmo encontra os coeficientes que minimizam o erro quadrático médio. Consequentemente, a simplicidade da regressão linear facilita a interpretação dos resultados. Assim, muitos problemas complexos usam essa técnica como ponto de partida.

regressão polinomial e não linear

Muitos problemas reais não seguem relações lineares simples entre variáveis e saídas. Regressão polinomial adiciona termos como x², x³ para capturar curvas e tendências não lineares. Por exemplo, a aceleração de um carro não cresce linearmente com o tempo. Primeiramente, transformamos as variáveis originais para criar novos recursos polinomiais. Depois, aplicamos os mesmos princípios da regressão linear nesse espaço expandido. Além disso, cuidado com o sobreajuste: polinômios de alto grau podem decorar os dados. Dessa forma, a escolha do grau adequado equilibra complexidade e capacidade de generalização do modelo.

avaliando modelos de regressão

Avaliar a qualidade de um modelo de regressão exige métricas específicas para erros numéricos. Primeiramente, erro quadrático médio (MSE) calcula a média dos quadrados das diferenças entre previsões e reais. Além disso, erro absoluto médio (MAE) fornece uma interpretação mais direta em unidades originais. Adicionalmente, R² indica a proporção da variância explicada pelo modelo. Valores próximos de 1 indicam excelente ajuste aos dados observados. Primeiramente, dividimos os dados em treinamento e teste para avaliação honesta. Por fim, a validação cruzada oferece uma estimativa mais robusta do desempenho real. Portanto, essas métricas guiam a escolha entre diferentes modelos e configurações.

aplicações práticas no mundo real

Regressão está presente em inúmeras aplicações que impactam nosso cotidiano. Primeiramente, instituições financeiras usam regressão para prever preços de ações e riscos de crédito. Além disso, empresas de e-commerce estimam tempo de entrega com base em distância e trânsito. Na área da saúde, modelos preveem tempo de internação ou recuperação de pacientes. Agências meteorológicas empregam regressão para previsão de temperatura e precipitação. Setor imobiliário utiliza regressão para avaliar propriedades e definir preços de venda. Para iniciantes, regressão demonstra como números podem prever números com base em padrões. Consequentemente, é uma ferramenta essencial para tomada de decisão baseada em dados.