Saltar para o conteúdo

Utilizador:Diogo G. Fernandes/Rascunhos

Origem: Wikilivros, livros abertos por um mundo aberto.

Estimativa dos Mínimos Quadrados ou Método dos Mínimos Quadrados


O objectivo principal na análise de regressão é, modelar com precisão a relação entre variáveis independentes e dependentes. Como iremos aprofundar o melhor modelo é aquele com o menor somatório do quadrado dos desvios entre os valores reais e os valores ajustados, por este motivo o modelo recebe o nome Método dos Mínimos Quadrados.

Recordando que o erro ou desvio é a distância vertical entre os valores reais (Y) e os valores ajustados (Ŷ), o método dos mínimos quadrados têm, como o nome indica, o objectivo de minimizar o quadrado desses desvios verticais.

e¡ = Y¡ - Ŷ¡

A introdução do conceito de quadrado do erro deve-se ao facto de existir um numero infinito de rectas, segundo as quais a soma do erro acima e abaixo dessa mesma recta seja igual a zero. De forma a contrariar que o erro abaixo da recta de ajuste cancele o erro acima da recta, que pode levar à selecção de uma recta de ajuste não óptima, é adoptado o quadrado dos erros e consequentemente o Método dos Mínimos Quadrados.

e¡² = (Y¡ - Ŷ¡)²

Analisando agora as equações fundamentais da recta aplicadas aos valores reais (Y) e os valores ajustados (Ŷ) obtêm-se os seguintes resultados:

Y = a + bX + e
Ŷ = a + bX
e = Y - Ŷ

O objectivo de minimização da soma dos quadrados dos desvios (Σe²) é alcançado através da seguinte equação:

MIN [ Σ(Y¡ - Ŷ¡)² ] = MIN [ Σ(Y¡ - a - bX)² ]

Os valores de a e b que minimizam os desvios quadráticos são chamados de coeficientes e são calculados através das equações normais descritas em baixo.

Ŷ = a + bX
a = Ŷ - bX
b = [Σ (X¡ - Ẍ¡)(Y¡ - Ŷ¡)] / Σ (X¡ - Ẍ¡)²

Sendo Ẍ a média da variável independente e Ŷ a média da variável dependente.


Interpretação do coeficiente a

Existe uma tendência para interpretar literalmente o valor a como o valor de Y quando X é igual a zero. Contudo esta assumpção pode revelar-se muitas vezes incorrecta, pois na realidade o coeficiente a representa a influencia das variáveis independentes não incluídas na relação modelada.




Intervalo de Previsão

Devido à importância de um intervalo da estimativa é definido o intervalo de previsão, sendo este determinado através do Standard Error of Forecast (Sf) ou Desvio Padrão da Previsão.

Olhando para o desvio padrão da recta de regressão de uma determinada estimativa, pode-se analisar o erro associado à recta ajustada pela regressão. Mas não é possível medir/avaliar a dispersão de observações individuais (Y) relativamente a essa mesma recta de ajustamento. Ou seja para gerar um intervalo da estimativa (previsão) é necessário detectar quanto uma observação individual (Y) pode desviar-se da recta de regressão.

O Desvio Padrão da Previsão estima o erro associado à previsão de Y a partir de um variável independente X.

Sf = √(Syx² + Sx²)

O valor obtido representa o intervalo de previsão, ou seja o valor de erro médio, associado a cada estimativa de Ŷ.

Ŷ ∓ Sf