Baixe o app para aproveitar ainda mais
Prévia do material em texto
Abaixo enunciaremos um teorema necessario na demostração do Método dos Multiplicadores de Lagrange que é o Teorema da Função Implicita ou, talvez, uma de suas formas equivalentes. Teorema 0.1. Seja g : Rn → Rm uma função continuamente diferenciavel tal que sua derivada no ponto x0, dg(x0) : Rn → Rm, seja sobrejetora, com n > m, então existem abertos U ⊂ Rn−m e V ∈ Rn e uma função h : U → V ∩ g−1({x0}) que é bijeção continuamente diferenciavel com derivada injetiva em cada ponto de U e h(x′) = x0 para algum x′ ∈ U . Abaixo faremos a demonstração simples e direta do Método dos Multi- plicadores de Lagrange. Proposição 0.2. Seja f : Rn → R e g : Rn → Rm funções diferenciaveis com g continuamente diferenciavel com derivada sobrejetora em cada ponto do conjunto g−1(x0), então se x∗ é um minimizador ou maximizador da função f∗ : g−1({g(x0)}) → R tal que f ∗ (x) = f(x) para todo x ∈ g−1({g(x0)}), então existe y ∈ Rm tal que (df(x∗))T = (dg(x∗))T (y), onde (dg(x∗))T é a transposta da derivada de g. Demonstração. Seja x∗ minimizador ou maximizador de f∗, então como x∗ é tal que dg(x∗) é sobrejetora, pela hipotese, então temos que existem sub- conjuntos abertos U ⊂ Rn−m e V ⊂ Rn e uma função com derivada injetora em seu domínio h : U → V ∩ g−1(g(x0)) com h(x′) = x∗. Assim, como g(h(x)) = g(x0) para todo x ∈ U e h(x′) = x∗, então x′ é maximizador ou minimizador de f ◦h. Assim, d(f ◦h)(x′)(u) = df(h(x′))◦dh(x′)(x) = 0 para todo x ∈ Rn−m. Além disso, como g(h(x)) = g(x0), então d(g ◦ h)(x′)(x) = dg(h(x′)) ◦ dh(x′)(x) = 0 para todo x ∈ Rn−m. Assim, dado z ∈ Rn, temos que 〈z, dg(h(x′)) ◦ dh(x′)(x)〉 = 0 e 〈z, df(h(x′)) ◦ dh(x′)(x)〉. As- sim, 〈(dh(x′))T (dg(h(x′)))T (z), x〉 = 0 e 〈(dh(x′))Tdf(h(x′))T (z), x〉 = 0, para todo x ∈ Rn−m e z ∈ Rn. Desse modo, (dh(x′))T (df(h(x′)))T = 0 e (dh(x′))T (dg(h(x′)))T = 0, portanto Img(dg(h(x′)))T ⊂ Kern(dh(x′))T , mas pelo Teorema Nucleo Imagem e pelo fato do operador transposição não alte- rar a dimensão do operador linear temos Dim Img (dg(h(x′)))T = Dim Img dg(h(x′)) = m. Além disso, Dim Kern(dh(x′))T = n−Dim Img (dh(x′))T = n−Dim Img dh(x′) = n− (n−m−Dim Kern dh(x′)) = m. Assim, Img(dg(h(x′)))T = Kern(dh(x′))T . Mas temos que (dh(x′))T (df(h(x′)))T = 0, assim como df(h(x′))T , um vetor coluna, está no nucleo de (dh(x′))T , 1 então está também em Img(dg(h(x′)))T , portanto, existe y ∈ m tal que (df(h(x′))T = (dg(h(x′)))T (y), mas x∗ = h(x′), então reescrevendo, (df(x∗))T = (dg(x∗))T (y). O sistema de equações (df(x∗))T = (dg(x∗))T (y) quer dizer resumida- mente que df(x∗), um vetor linha, é combinação linear das linhas de dg(x∗). Alem disso, temos que as incognitas são x∗ ∈ Rn e y ∈ Rm, portanto, m+ n incognitas e temos uma quantidade de n linhas/equações. Falta portanto mais m equações para se poder resolver e elas podem ser obtidas fazendo g(x∗) = g(x0) e temos mais m equações. Assim, a fim de encontrar os ma- ximos ou minimos de f∗ devemos resolver o sistema não linear em m + n incognitas: { (df(x∗))T = (dg(x∗))T (y) g(x∗) = g(x0) . 2
Compartilhar