Este tipo de problema é muito frequente em ciências experimentais. Para ter um exemplo em mente durante a discussão que será feita mais adiante, considere as seguintes informações:
Segundo dados disponibilizados pelo IBGE, o Produto Interno Bruto per capita na cidade de São Paulo, no período de 2002 a 2005, foi (em reais): 17734, 19669, 20943 e 24083, respectivamente.
Com base nessas informações, como poderia ser feita uma previsão do valor correspondente ao ano seguinte (2006)?
Uma escolha possível seria supor que a cada ano o PIB aumenta uma aproximadamente constante, ou seja, usar um modelo linear para obter tal estimativa (que possivelmente será bem grosseira). Intuitivamente, bastaria analisar os dados disponíveis e a partir deles deduzir qual é o aumento que ocorre a cada ano. Depois, a previsão para 2006 seria aproximadamente igual à de 2005 somada com aquele aumento anual.
Esta idéia poderia até funcionar para o caso deste exemplo, mas o que fazer se a quantidade de dados disponíveis sobre algum fenômeno (ou alguma situação) for significativamente maior?
A melhor escolha, sem dúvida, é fazer uso de um computador para obter o modelo que melhor descreve o "comportamento" dos dados experimentais.
Em geral, os problemas de mínimos quadrados consistem em identificar os valores de determinados parâmetros, de modo que se satisfaçam certas equações . No contexto do exemplo anterior, se procura um modelo linear para os dados, ou seja, uma função que os descreva da melhor forma possível. Assim, os parâmetros a considerar são e . Os valores ideais para essas variáveis seriam aqueles que verificassem as seguintes equações:
Note que a partir dessas equações poderiam ser definidas as funções como:
É de se esperar que o sistema de equações obtido a pouco não admitirá uma solução exata, pois se tem mais equações do que variáveis.
Isso geralmente acontece, pois é comum haver uma quantidade de equações bem maior que o número de parâmetros a identificar. Em particular, quando todas as equações são lineares em suas variáveis, dificilmente existirá uma solução exata para o sistema linear resultante, pois este terá mais equações do que incógnitas (como no exemplo). Em geral, não é possível encontrar parâmetros que satisfaçam exatamente todas as equações. Por isso, costuma-se tentar identificar os parâmetros que "melhor se aproximam" de uma solução exata, em algum sentido.
Uma forma de obter uma solução aproximada (uma "quase-solução") resulta da seguinte observação: o valor de cada função em uma solução exata deveria ser zero. Se tal exigência é restritiva demais, e com ela não é possível encontrar qualquer solução, uma possibilidade seria exigir um pouco menos. Por exemplo, poderia ser exigido apenas que o valor de , para seja, em geral, pequeno. Uma das formas de capturar essa idéia em termos mais precisos é dizer que se pretende minimizar a soma dos quadrados dos valores de cada . Em símbolos, o problema passaria a ser:
Neste caso, para cada índice , a função é afim linear, ou seja:
onde e para cada . Deste modo, pode-se definir uma função como
- de modo que
Motivando a introdução da seguinte notação:
Assim,
Logo, buscar uma solução exata é o mesmo que procurar uma solução para o seguinte sistema linear:
E uma solução aproximada poderia ser buscada a partir do seguinte problema de minimização:
- Exercício
Verifique que se houver uma solução exata, ela também será um minimizador de . A recíproca é verdadeira?
Analisando a função objetivo do problema de minimização anterior, tem-se:
Logo, como é simétrica e semi-definida positiva, tem-se convexa. Isso implica que a condição necessária de primeira ordem é também suficiente. Assim, qualquer ponto tal que é solução do problema aproximado.
Calculando o gradiente da função objetivo tem-se:
Deste modo, a solução do problema é obtida resolvendo o sistema
Observe também que isso implica , ou seja, .
Considere dado um conjunto de pontos do plano , por exemplo , representando dados obtidos experimentalmente.
Perguntas:
- 1. Qual é a função afim linear que melhor se aproxima dos dados experimentais?
- 2. Qual é a função quadrática que melhor se aproxima dos dados experimentais?
Resolução
|
As funções quadráticas possuem a forma . Então os parâmetros a identificar são , e .
Pode-se tomar .
Procedendo como antes, tem-se
onde
|
- Exercício
Explorar o exemplo anterior com dados concretos, implementando um dos três métodos de gradientes conjugados.
Resolução
|
A resolução deste exercício é deixada a cargo do leitor. Sinta-se livre para melhorar a qualidade deste texto, incluindo-a neste módulo.
|
- Observações
Conforme se aumenta o grau do polinômio que faz a aproximação dos dados, as colunas de têm elementos elevados a potências cada vez maiores, fazendo com que os autovalores de sejam cada vez mais dispersos. Com isso, torna-se mal condicionada.
- Exercício
É possível, usando o problema de mínimos quadrados, verificar o postulado de Euclides que diz que "por dois pontos distintos passa uma única reta"?
Resolução
|
A resolução deste exercício é deixada a cargo do leitor. Sinta-se livre para melhorar a qualidade deste texto, incluindo-a neste módulo.
|
- Exercício
Usando o problema de mínimos quadrados, é possível inferir que "por três pontos distintos passa uma única curva quadrática"?
Resolução
|
A resolução deste exercício é deixada a cargo do leitor. Sinta-se livre para melhorar a qualidade deste texto, incluindo-a neste módulo.
|
Para esse tipo de problemas, há dois métodos:
- Gauss-Newton
- Levemberg-Marquardt
Ambos são métodos do tipo Newton. Então, para entender cada um deles é preciso entender o Método de Newton.
Para entender a essência do método de Newton, primeiro considere que o problema a ser resolvido é
sendo , e portanto de classe . A idéia de Newton é usar o desenvolvimento até segunda ordem da série de Taylor da função em cada ponto iterado. Isto é, se o iterado é , então:
Então a condição de Newton é que em cada iteração a Hessiana deve ser definida positiva.
Calculando o gradiente da função , segue:
Se é o (único) minimizador de , então
donde
Sendo definida positiva, tal matriz é também inversível. Portanto:
Assim, pode-se usar a seguinte iteração:
Início: Tome
Se , pare: é ponto crítico.
Senão, Calcule , solução de
Faça e
Iteração: Se , pare: é ponto crítico.
Senão, calcular , solução de
Faça e
Voltando ao problema original, de mínimos quadrados, se tinha:
Calculando o gradiente desta função, resulta:
Considera-se definida por
Deste modo, a Jacobiana de verifica:
pois o produto de uma matriz por um vetor tem como resultado um vetor que é a combinação linear das colunas da matriz, com coeficientes que são as coordenadas do vetor.
Além disso, tem-se
Seja
Sabe-se que uma matriz é definida positiva se para qualquer . Fazendo , tem-se:
Para que seja definida positiva, é necessário que ( deve gerar todo o espaço), neste caso, se diz que é de posto máximo.
Início: Tome
Se , pare: é ponto crítico.
Senão, Calcule , solução de
, onde
Faça e
Iteração: Se , pare: é ponto crítico.
Senão, calcular , solução de
Faça e
A idéia de Levemberg-Marquardt foi perturbar a matriz , considerando , para algum pequeno.
Início: Tome
Se , pare: é ponto crítico.
Senão, Calcule , solução de
, onde
Faça e
Iteração: Se , pare: é ponto crítico.
Senão, calcular , solução de
Faça e
- Exercício
Enumere as diferenças que existem nos seguintes algoritmos:
- Newton
- Gauss-Newton
- Levenberg-Marquardt
Resolução
|
Newton
Desenvolvendo em série de Taylor e exigindo que a matriz hessiana de seja definida positiva o método de Newton usa .
Gauss-Newton
Em alguns casos a matriz hessiana de pode ser bem complicada. Nesses casos então a idéia do método de Gauss-Newton é usar uma boa aproximação para essa matriz.
Podemos escrever
.
Usando Taylor em temos:
onde é a jacobiana de .
Substituindo na temos
Calculando o gradiente e depois a segunda derivada temos:
e
Denotando , então o método de Gauss-Newton escolhe tal que
.
Levenberg-Marquardt
A idéia do método de Levenberg-Marquardt é pertubar a matriz um pouco, considerando com pequeno.
Portanto o método de Levenberg-Marquardt escolhe tal que
.
|