multiplicador de Lagrange

Na otimização matemática , o método dos multiplicadores de Lagrange é uma estratégia para encontrar os máximos e mínimos locais de uma função sujeita a restrições de equação (ou seja, sujeita à condição de que uma ou mais equações devem ser satisfeitas exatamente pelos valores escolhidos das variáveis ). [1] É nomeado após o matemático Joseph-Louis Lagrange . A ideia básica é converter um problema restrito em uma forma tal que o teste da derivadade um problema irrestrito ainda pode ser aplicado. A relação entre o gradiente da função e os gradientes das restrições leva naturalmente a uma reformulação do problema original, conhecida como função Lagrangiana . [2]

O método pode ser resumido da seguinte forma: Para encontrar o máximo ou mínimo de uma função sujeita à restrição de igualdade , forme a função Lagrangiana,

e encontre os pontos estacionários de considerados em função de e o multiplicador de Lagrange . Isso significa que todas as derivadas parciais devem ser zero, incluindo a derivada parcial em relação a . [3]

e

ou equivalente

e

A solução correspondente à otimização restrita original é sempre um ponto de sela da função Lagrangiana, [4] [5] que pode ser identificado entre os pontos estacionários a partir da definição da matriz Hessiana de bordas . [6]

A grande vantagem deste método é que ele permite que a otimização seja resolvida sem parametrização explícita em termos de restrições. Como resultado, o método dos multiplicadores de Lagrange é amplamente utilizado para resolver problemas desafiadores de otimização restrita. Além disso, o método dos multiplicadores de Lagrange é generalizado pelas condições de Karush–Kuhn–Tucker , que também podem levar em consideração as restrições de desigualdade da forma para uma dada constante .

Declaração

O seguinte é conhecido como o teorema do multiplicador de Lagrange. [7]

Seja a função objetivo, seja a função de restrições, ambas pertencentes a (isto é, tendo primeiras derivadas contínuas). Seja uma solução ótima para o seguinte problema de otimização tal que (aqui denota a matriz de derivadas parciais, :

Então existe um único multiplicador de Lagrange tal que

O teorema do multiplicador de Lagrange afirma que em qualquer máximo local (ou mínimo) da função avaliada sob as restrições de igualdade, se a qualificação de restrição se aplicar (explicada abaixo), então o gradiente da função (nesse ponto) pode ser expresso como uma combinação linear dos gradientes das restrições (nesse ponto), com os multiplicadores de Lagrange atuando como coeficientes . [8] Isso equivale a dizer que qualquer direção perpendicular a todos os gradientes das restrições também é perpendicular ao gradiente da função. Ou ainda, dizer que a derivada direcional da função é 0 em todas as direções factíveis.

Restrição única

Figura 1: A curva vermelha mostra a restrição g ( x , y ) = c . As curvas azuis são contornos de f ( x , y ) . O ponto onde a restrição vermelha toca tangencialmente um contorno azul é o máximo de f ( x , y ) ao longo da restrição, pois d 1 > d 2 .

Para o caso de apenas uma restrição e apenas duas variáveis ​​de escolha (como exemplificado na Figura 1), considere o problema de otimização

(Às vezes, uma constante aditiva é mostrada separadamente em vez de ser incluída em , caso em que a restrição é escrita como na Figura 1.) Assumimos que ambos e têm primeiras derivadas parciais contínuas . Introduzimos uma nova variável ( ) chamada multiplicador de Lagrange (ou multiplicador indeterminado de Lagrange ) e estudamos a função Lagrange (ou expressão Lagrangeana ou Lagrangeana ) definida por

onde o termo pode ser adicionado ou subtraído. Se é um máximo de para o problema restrito original e então existe tal que ( ) é um ponto estacionário para a função de Lagrange (pontos estacionários são aqueles pontos onde as primeiras derivadas parciais de são zero). A suposição é chamada de qualificação de restrição. No entanto, nem todos os pontos estacionários fornecem uma solução do problema original, pois o método dos multiplicadores de Lagrange fornece apenas uma condição necessária para otimização em problemas restritos. [9] [10] [11] [12] [13] Também existem condições suficientes para um mínimo ou máximo, mas se uma determinada solução candidata satisfizer as condições suficientes, é garantido apenas que essa solução é a melhor localmente – ou seja, é melhor do que quaisquer pontos próximos permitidos. O ótimo global pode ser encontrado comparando os valores da função objetivo original nos pontos que satisfazem as condições necessárias e localmente suficientes.

O método dos multiplicadores de Lagrange baseia-se na intuição de que, no máximo, f ( x , y ) não pode ser crescente na direção de qualquer ponto vizinho que também tenha g = 0 . Se fosse, poderíamos caminhar ao longo de g = 0 para subir, o que significa que o ponto de partida não era realmente o máximo. Visto dessa forma, é um análogo exato para testar se a derivada de uma função irrestrita é 0 , ou seja, estamos verificando se a derivada direcional é 0 em qualquer direção relevante (viável).

Podemos visualizar os contornos de f dados por f ( x , y ) = d para vários valores de d , e os contornos de g dados por g ( x , y ) = c .

Suponha que caminhemos ao longo da curva de nível com g = c . Estamos interessados ​​em encontrar pontos onde f quase não varia enquanto caminhamos, já que esses pontos podem ser máximos.

Há duas maneiras de isso acontecer:

  1. Poderíamos tocar uma linha de contorno de f , pois por definição f não muda à medida que caminhamos ao longo de suas linhas de contorno. Isso significaria que as tangentes às linhas de contorno de f e g são paralelas aqui.
  2. Atingimos uma parte "nível" de f , o que significa que f não muda em nenhuma direção.

Para verificar a primeira possibilidade (tocamos uma linha de contorno de f ), observe que, como o gradiente de uma função é perpendicular às linhas de contorno, as tangentes às linhas de contorno de f e g são paralelas se e somente se os gradientes de f e g são paralelos. Assim queremos pontos ( x , y ) onde g ( x , y ) = c e

para alguns

onde

são os respectivos gradientes. A constante é necessária porque, embora os dois vetores de gradiente sejam paralelos, as magnitudes dos vetores de gradiente geralmente não são iguais. Essa constante é chamada de multiplicador de Lagrange. (Em algumas convenções é precedido por um sinal de menos).

Observe que esse método também resolve a segunda possibilidade, que f é nível: se f é nível, então seu gradiente é zero e a configuração é uma solução independentemente de .

Para incorporar essas condições em uma equação, introduzimos uma função auxiliar

e resolver

Observe que isso equivale a resolver três equações em três incógnitas. Este é o método dos multiplicadores de Lagrange.

Note que implica como a derivada parcial de em relação a é

Para resumir

O método generaliza facilmente para funções em variáveis

o que equivale a resolver n + 1 equações em n + 1 incógnitas.

Os extremos restritos de f são pontos críticos do Lagrangeano , mas não são necessariamente extremos locais de (ver Exemplo 2 abaixo).

Pode-se reformular o lagrangiano como um hamiltoniano , caso em que as soluções são mínimos locais para o hamiltoniano. Isso é feito na teoria de controle ótimo , na forma do princípio mínimo de Pontryagin .

O fato de as soluções do Lagrangeano não serem necessariamente extremas também apresenta dificuldades para a otimização numérica. Isso pode ser resolvido calculando a magnitude do gradiente, pois os zeros da magnitude são necessariamente mínimos locais, conforme ilustrado no exemplo de otimização numérica.

Múltiplas restrições

Figura 2: Um parabolóide restrito ao longo de duas linhas que se cruzam.
Figura 3: Mapa de contorno da Figura 2.

O método dos multiplicadores de Lagrange pode ser estendido para resolver problemas com múltiplas restrições usando um argumento similar. Considere um parabolóide sujeito a duas restrições de linha que se cruzam em um único ponto. Como a única solução factível, este ponto é obviamente um extremo restrito. No entanto, o conjunto de níveis claramente não é paralelo a nenhuma das restrições no ponto de interseção (consulte a Figura 3); em vez disso, é uma combinação linear dos gradientes das duas restrições. No caso de restrições múltiplas, isso será o que buscamos em geral: O método de Lagrange busca pontos não nos quais o gradiente de seja necessariamente múltiplo de qualquer gradiente de qualquer restrição, mas nos quais seja uma combinação linear de todas as restrições. gradientes.

Concretamente, suponha que temos restrições e estamos caminhando ao longo do conjunto de pontos satisfazendo Cada ponto no contorno de uma determinada função de restrição tem um espaço de direções permitidas: o espaço de vetores perpendiculares a O conjunto de direções permitidas por todas as restrições é, portanto, o espaço de direções perpendiculares a todos os gradientes das restrições. Denote este espaço de movimentos permitidos por e denote a extensão dos gradientes das restrições por Então o espaço de vetores perpendiculares a cada elemento de

Ainda estamos interessados ​​em encontrar pontos onde não mude enquanto caminhamos, uma vez que esses pontos podem ser extremos (restringidos). Portanto, buscamos tal que qualquer direção permitida de movimento para longe de seja perpendicular a (caso contrário, poderíamos aumentar movendo-nos ao longo dessa direção permitida). Em outras palavras, existem escalares tais que

Esses escalares são os multiplicadores de Lagrange. Agora temos deles, um para cada restrição.

Como antes, introduzimos uma função auxiliar

e resolver

que equivale a resolver equações em incógnitas.

A suposição de qualificação de restrição quando há várias restrições é que os gradientes de restrição no ponto relevante são linearmente independentes.

Formulação moderna através de variedades diferenciáveis

O problema de encontrar máximos e mínimos locais sujeitos a restrições pode ser generalizado para encontrar máximos e mínimos locais em uma variedade diferenciável [14] No que segue, não é necessário que seja um espaço euclidiano, ou mesmo uma variedade riemanniana. Todas as aparências do gradiente (que dependem da escolha da métrica Riemanniana) podem ser substituídas pela derivada externa

Restrição única

Seja uma variedade suave de dimensão Suponha que desejamos encontrar os pontos estacionários de uma função suave quando restrita à subvariedade definida por onde é uma função suave para a qual 0 é um valor regular .

Sejam e sejam as derivadas exteriores de e . Estacionaridade para a restrição em meios Equivalentemente, o kernel contém Em outras palavras, e são 1-formas proporcionais. Para isso é necessário e suficiente que o seguinte sistema de equações seja válido:

onde denota o produto exterior . Os pontos estacionários são as soluções do sistema de equações acima mais a restrição Observe que as equações não são independentes, pois o lado esquerdo da equação pertence à subvariedade de consistindo em elementos decomponíveis .

Nesta formulação, não é necessário encontrar explicitamente o multiplicador de Lagrange, um número tal que

Múltiplas restrições

Seja e seja como na seção anterior em relação ao caso de uma única restrição. Em vez da função descrita aqui, considere agora uma função suave com funções componentes para as quais é um valor regular . Seja a subvariedade de definida por

é um ponto estacionário de se e somente se contém Por conveniência, deixe e onde denota o mapa tangente ou jacobiano O subespaço tem dimensão menor que a de , ou seja, e pertence a se e somente se pertence à imagem de Computacionalmente falando, a condição é que pertence ao espaço linha da matriz de ou equivalentemente ao espaço coluna da matriz de (a transposta). Se denota o produto exterior das colunas da matriz da condição estacionária para at torna-se

Mais uma vez, nesta formulação não é necessário encontrar explicitamente os multiplicadores de Lagrange, os números tais que

Interpretação dos multiplicadores de Lagrange

Nesta seção, modificamos as equações de restrição da forma para a forma em que são m constantes reais que são consideradas argumentos adicionais da expressão lagrangeana .

Freqüentemente, os multiplicadores de Lagrange têm uma interpretação como alguma quantidade de interesse. Por exemplo, parametrizando a curva de contorno da restrição, ou seja, se a expressão lagrangiana for

então

Assim, λ k é a taxa de variação da quantidade que está sendo otimizada em função do parâmetro de restrição. Como exemplos, na mecânica lagrangiana , as equações de movimento são derivadas encontrando pontos estacionários da ação , a integral de tempo da diferença entre energia cinética e potencial. Assim, a força sobre uma partícula devido a um potencial escalar, F = −∇ V , pode ser interpretada como um multiplicador de Lagrange determinando a mudança na ação (transferência de potencial para energia cinética) seguindo uma variação na trajetória restrita da partícula. Na teoria de controle, isso é formulado como equações de costate .

Além disso, pelo teorema do envelope , o valor ótimo de um multiplicador de Lagrange tem uma interpretação como o efeito marginal da constante de restrição correspondente sobre o valor atingível ótimo da função objetivo original: Se denotamos valores no ótimo com uma estrela ( ), então pode ser mostrado que

Por exemplo, em economia, o lucro ótimo para um jogador é calculado sujeito a um espaço restrito de ações, onde um multiplicador de Lagrange é a mudança no valor ótimo da função objetivo (lucro) devido ao relaxamento de uma determinada restrição (por exemplo, através uma mudança na renda); em tal contexto é o custo marginal da restrição e é chamado de preço-sombra . [15]

Condições suficientes

Condições suficientes para um máximo ou mínimo local restrito podem ser declaradas em termos de uma sequência de menores principais (determinantes de submatrizes justificadas no canto superior esquerdo) da matriz Hessiana com bordas de segundas derivadas da expressão Lagrangiana. [6] [16]

Exemplos

Exemplo 1

Ilustração do problema de otimização restrita  1

Suponha que desejamos maximizar sujeito à restrição O conjunto viável é o círculo unitário e os conjuntos de nível de f são linhas diagonais (com inclinação −1), para que possamos ver graficamente que o máximo ocorre em e que o mínimo ocorre em

Para o método dos multiplicadores de Lagrange, a restrição é

daí a função lagrangiana,

é uma função equivalente a quando é definido como 0 .

Agora podemos calcular o gradiente:

e portanto:

Observe que a última equação é a restrição original.

As duas primeiras equações fornecem

Substituindo na última equação temos:

então

o que implica que os pontos estacionários de são

Avaliar a função objetivo f nesses pontos produz

Assim, o máximo constrangido é e o mínimo constrangido é .

Exemplo 2

Ilustração do problema de otimização restrita  2

Agora modificamos a função objetivo do Exemplo  1 de modo que minimizamos em vez de novamente ao longo do círculo Agora os conjuntos de nível de ainda são linhas de inclinação −1, e os pontos no círculo tangentes a esses conjuntos de nível são novamente e Esses pontos de tangência são máximo de

Por outro lado, os mínimos ocorrem no nível definido para (já que por sua construção não pode assumir valores negativos), em e onde as curvas de nível de não são tangentes à restrição. A condição que identifica corretamente todos os quatro pontos como extremos; os mínimos são caracterizados em por e os máximos por

Exemplo 3

Ilustração do problema de otimização restrita  3 .

Este exemplo lida com cálculos mais extenuantes, mas ainda é um problema de restrição única.

Suponha que alguém queira encontrar os valores máximos de

com a condição de que as coordenadas - e - estejam no círculo ao redor da origem com raio Isto é, sujeito à restrição

Como há apenas uma única restrição, há um único multiplicador, digamos

A restrição é identicamente zero no círculo de raio. Qualquer múltiplo de pode ser adicionado para deixar inalterado na região de interesse (no círculo onde nossa restrição original é satisfeita).

A aplicação do método do multiplicador de Lagrange ordinário produz

a partir do qual o gradiente pode ser calculado:

E portanto:

(iii) é apenas a restrição original. (i) implica ou Se então por (iii) e conseqüentemente de (ii). Se substituir isso em (ii) resulta Substituir isso em (iii) e resolver para Assim, há seis pontos críticos de

Avaliando o objetivo nesses pontos, descobre-se que

Portanto, a função objetivo atinge o máximo global (sujeito às restrições) em e o mínimo global em O ponto é um mínimo local de e é um máximo local de conforme pode ser determinado pela consideração da matriz Hessiana de

Observe que enquanto é um ponto crítico de não é um extremo local de Temos

Dada qualquer vizinhança de um, pode-se escolher um pequeno positivo e um pequeno de qualquer sinal para obter valores maiores e menores que Isso também pode ser visto na matriz Hessiana de avaliada neste ponto (ou mesmo em qualquer um dos pontos críticos) que é uma matriz indefinida . Cada um dos pontos críticos de é um ponto de sela de [4]

Exemplo 4

Entropia

Suponha que desejamos encontrar a distribuição de probabilidade discreta nos pontos com entropia de informação máxima . Isso é o mesmo que dizer que desejamos encontrar a distribuição de probabilidade menos estruturada nos pontos Em outras palavras, desejamos maximizar a equação da entropia de Shannon :

Para que isso seja uma distribuição de probabilidade, a soma das probabilidades em cada ponto deve ser igual a 1, então nossa restrição é:

Usamos multiplicadores de Lagrange para encontrar o ponto de entropia máxima, em todas as distribuições de probabilidade discretas em Exigimos que:

que dá um sistema de n equações, tal que:

Fazendo a diferenciação dessas n equações, obtemos

Isso mostra que todos são iguais (porque dependem apenas de λ ). Usando a restrição

nós achamos

Assim, a distribuição uniforme é a distribuição com maior entropia, entre distribuições em n pontos.

Exemplo 5

otimização numérica
Os multiplicadores de Lagrange fazem com que os pontos críticos ocorram nos pontos de sela (Exemplo  5 ).
A magnitude do gradiente pode ser usada para forçar os pontos críticos a ocorrerem em mínimos locais (Exemplo  5 ).

Os pontos críticos de lagrangianos ocorrem em pontos de sela , em vez de máximos (ou mínimos) locais. [4] [17] Infelizmente, muitas técnicas de otimização numérica, como subida de encosta , descida de gradiente , alguns dos métodos quasi-Newton , entre outros, são projetadas para encontrar máximos locais (ou mínimos) e não pontos de sela. Por esse motivo, deve-se modificar a formulação para garantir que seja um problema de minimização (por exemplo, extremizando o quadrado do gradiente do Lagrangiano como abaixo), ou então usar uma técnica de otimização que encontre pontos estacionários (como o método de Newton sem uma busca extremapesquisa de linha ) e não necessariamente extrema.

Como um exemplo simples, considere o problema de encontrar o valor de x que minimiza a restrição tal que (Este problema é um tanto atípico porque existem apenas dois valores que satisfazem essa restrição, mas é útil para fins de ilustração porque a função irrestrita correspondente pode ser visualizado em três dimensões.)

Usando multiplicadores de Lagrange, esse problema pode ser convertido em um problema de otimização irrestrita:

Os dois pontos críticos ocorrem em pontos de sela onde x = 1 ex = −1 .

Para resolver esse problema com uma técnica de otimização numérica, devemos primeiro transformar esse problema de forma que os pontos críticos ocorram em mínimos locais. Isso é feito calculando a magnitude do gradiente do problema de otimização irrestrita.

Primeiro, calculamos a derivada parcial do problema irrestrito em relação a cada variável:

Se a função de destino não for facilmente diferenciável, o diferencial em relação a cada variável pode ser aproximado como

onde é um valor pequeno.

Em seguida, calculamos a magnitude do gradiente, que é a raiz quadrada da soma dos quadrados das derivadas parciais:

(Como a magnitude é sempre não negativa, otimizar sobre a magnitude ao quadrado é equivalente a otimizar sobre a magnitude. Assim, a "raiz quadrada" pode ser omitida dessas equações sem nenhuma diferença esperada nos resultados da otimização.)

Os pontos críticos de h ocorrem em x = 1 ex = −1 , assim como em Ao contrário dos pontos críticos em no entanto, os pontos críticos em h ocorrem em mínimos locais, então técnicas de otimização numérica podem ser usadas para encontrá-los .

Formulários

teoria de controle

Na teoria de controle ótimo , os multiplicadores de Lagrange são interpretados como variáveis ​​de costate , e os multiplicadores de Lagrange são reformulados como a minimização do hamiltoniano , no princípio mínimo de Pontryagin .

programação não linear

O método do multiplicador de Lagrange tem várias generalizações. Na programação não linear existem várias regras multiplicadoras, por exemplo, a Regra do Multiplicador de Carathéodory–John e a Regra do Multiplicador Convexo, para restrições de desigualdade. [18]

Sistemas de energia

Métodos baseados em multiplicadores de Lagrange têm aplicações em sistemas de energia , por exemplo, na colocação de recursos de energia distribuída (DER) e rejeição de carga. [19]

Veja também

Referências

  1. ^ Hoffmann, Laurence D.; Bradley, Gerald L. (2004). Cálculo para Negócios, Economia e Ciências Sociais e da Vida (8ª ed.). pp. 575–588. ISBN 0-07-242432-X.
  2. ^ Beavis, Brian; Dobbs, Ian M. (1990). "Otimização Estática". Teoria da Otimização e Estabilidade para Análise Econômica . Nova York: Cambridge University Press. pág. 40. ISBN 0-521-33605-8.
  3. ^ Protter, Murray H .; Morrey, Charles B. Jr. (1985). Cálculo Intermediário (2ª ed.). Nova York, NY: Springer. pág. 267. ISBN 0-387-96058-9.
  4. ^ abc Walsh, GR (1975). "Propriedade do ponto de sela da função lagrangeana". Métodos de Otimização . Nova York, NY: John Wiley & Sons. pp. 39–44. ISBN 0-471-91922-5.
  5. ^ Kalman, Dan (2009). "Nivelamento com Lagrange: Uma visão alternativa de otimização restrita". Revista Matemática . 82 (3): 186–196. doi : 10.1080/0025570X.2009.11953617. JSTOR  27765899. S2CID  121070192.
  6. ^ ab Silberberg, Eugene; Suen, Wing (2001). A Estrutura da Economia: Uma Análise Matemática (Terceira ed.). Boston: Irwin McGraw-Hill. pp. 134–141. ISBN 0-07-234352-4.
  7. ^ de la Fuente , Ángel (2000). Métodos e Modelos Matemáticos para Economistas . Cambridge: Cambridge University Press. pág. 285. doi : 10.1017/CBO9780511810756. ISBN 9780521585125.
  8. ^ Luenberger, David G. (1969). Otimização por Métodos de Espaço Vetorial . Nova York: John Wiley & Sons. pp. 188–189.
  9. ^ Bertsekas, Dimitri P. (1999). Programação Não Linear (Segunda ed.). Cambridge, MA: Athena Scientific. ISBN 1-886529-00-0.
  10. ^ Vapnyarskii, IB (2001) [1994], "Multiplicadores de Lagrange", Encyclopedia of Mathematics , EMS Press.
  11. ^ Lasdon, Leon S. (2002) [1970]. Teoria da Otimização para Sistemas Grandes (edição reimpressa). Mineola, Nova York, NY: Dover. ISBN 0-486-41999-1. MR  1888251.
  12. ^ Hiriart-Urruty, Jean-Baptiste; Lemarechal, Claude (1993). "Capítulo XII: Dualidade abstrata para praticantes". Algoritmos de análise e minimização convexa . Grundlehren der Mathematischen Wissenschaften [Princípios Fundamentais das Ciências Matemáticas]. Vol. 306. Berlim, DE: Springer-Verlag. pp. 136–193 (e comentários bibliográficos pp. 334–335). ISBN 3-540-56852-2. MR  1295240. Volume II: Teoria avançada e métodos de pacote.
  13. Lemaréchal, Claude (15–19 de maio de 2000). "Relaxamento lagrangeano". Em Jünger, Michael; Naddef, Denis (eds.). Otimização combinatória computacional: Artigos da Spring School realizada em Schloß Dagstuhl . Escola de primavera realizada em Schloß Dagstuhl, de 15 a 19 de maio de 2000 . Notas de aula em Ciência da Computação. Vol. 2241. Berlin, DE: Springer-Verlag (publicado em 2001). pp. 112–156. doi : 10.1007/3-540-45586-8_4. ISBN 3-540-42877-1. MR  1900016. S2CID  9048698.
  14. Lafontaine, Jacques (2015). Uma Introdução às Variedades Diferenciais. Springer. pág. 70. ISBN 9783319207353.
  15. ^ Dixit, Avinash K. (1990). "Preços Sombra". Otimização em Teoria Econômica (2ª ed.). Nova York: Oxford University Press. pp. 40–54. ISBN 0-19-877210-6.
  16. ^ Chiang, Alpha C. (1984). Métodos Fundamentais de Economia Matemática (Terceira ed.). McGraw-Hill. pág. 386. ISBN 0-07-010813-7.
  17. ^ Heath, Michael T. (2005). Computação científica: uma pesquisa introdutória. McGraw-Hill. pág. 203. ISBN 978-0-07-124489-3.
  18. ^ Pourciau, Bruce H. (1980). "Regras multiplicadoras modernas" . Mensal Matemático Americano . 87 (6): 433–452. doi : 10.2307/2320250. JSTOR  2320250.
  19. ^ Gautam, Mukesh; Bhusal, Narayan; Benidris, Mohammed (2020). Uma abordagem baseada em sensibilidade para redução de carga de subfrequência adaptável . 2020 IEEE Texas Power and Energy Conference (TPEC). Instituto de Engenheiros Elétricos e Eletrônicos . pp. 1–5. doi : 10.1109/TPEC48276.2020.9042569.

Leitura adicional

  • Beavis, Brian; Dobbs, Ian M. (1990). "Otimização Estática". Teoria da Otimização e Estabilidade para Análise Econômica . Nova York, NY: Cambridge University Press. pp. 32–72. ISBN 0-521-33605-8.
  • Bertsekas, Dimitri P. (1982). Otimização restrita e métodos do multiplicador de Lagrange . Nova York, NY: Academic Press. ISBN 0-12-093480-9.
  • Beveridge, Gordon SG; Schechter, Robert S. (1970). "Multiplicadores lagrangeanos". Otimização: Teoria e Prática . Nova York, NY: McGraw-Hill. pp. 244–259. ISBN 0-07-005128-3.
  • Binger, Brian R.; Hoffman, Elizabeth (1998). "Otimização restrita". Microeconomia com Cálculo (2ª ed.). Leitura: Addison-Wesley. pp. 56–91. ISBN 0-321-01225-9.
  • Carter, Michael (2001). "Restrições de igualdade". Fundamentos da Economia Matemática . Cambridge, MA: MIT Press. pp. 516–549. ISBN 0-262-53192-5.
  • Hestenes, Magnus R. (1966). "Mínimos de funções sujeitas a restrições de igualdade". Cálculo de Variações e Teoria do Controle Ótimo . Nova York, NY: Wiley. pp. 29–34.
  • Wylie, C. Ray; Barrett, Louis C. (1995). "Os extremos de integrais sob restrição". Matemática de Engenharia Avançada (Sexta ed.). Nova York, NY: McGraw-Hill. pp. 1096–1103. ISBN 0-07-072206-4.

links externos

Exposição
  • Steuard. "Introdução conceitual". slimy. com .— além de uma breve discussão sobre os multiplicadores de Lagrange no cálculo das variações usadas na física.
  • Carpenter, Kenneth H. "Multiplicadores de Lagrange para formas quadráticas com restrições lineares" (PDF) . Universidade Estadual do Kansas .
Texto adicional e applets interativos
  • Resnik. "Explicação simples com um exemplo de governos usando impostos como multiplicadores de Lagrange". umiacs.umd.edu . Universidade de Maryland .
  • Klein, Dan. "Multiplicadores de Lagrange sem cicatrizes permanentes] Explicação com foco na intuição" (PDF) . nlp.cs.berkeley.edu . Universidade da Califórnia, Berkeley .
  • Sathyanarayana, Shashi. "Representação geométrica do método dos multiplicadores de Lagrange". wolfram.com ( demonstração do Mathematica ). Wolfram Research . Precisa do Internet Explorer / Firefox / Safari.— Fornece informações convincentes em 2 dimensões de que, em um ponto de minimização, a direção da descida mais íngreme deve ser perpendicular à tangente da curva de restrição naquele ponto.
  • "Multiplicadores de Lagrange - duas variáveis". MIT Open Courseware (ocw.mit.edu) (Applet). Instituto de Tecnologia de Massachusetts .
  • "Multiplicadores de Lagrange" . MIT Open Courseware (ocw.mit.edu) (palestra em vídeo). Matemática 18-02: Cálculo multivariável. Instituto de Tecnologia de Massachusetts . Outono de 2007.
  • Bertsekas. "Detalhes sobre multiplicadores de Lagrange" (PDF) . athenasc.com (slides/palestra do curso). Programação Não Linear.— Slides do curso que acompanham o texto sobre otimização não linear
  • Wyatt, John (7 de abril de 2004) [19 de novembro de 2002]. "Multiplicadores Legrange, otimização restrita e o princípio da entropia máxima" (PDF) . www-mtl.mit.edu . Elec E & CS / Mech E 6.050 – Informação, entropia e computação.— Idéia geométrica por trás dos multiplicadores de Lagrange
  • "Usando multiplicadores de Lagrange na otimização". matlab.cheme.cmu.edu (exemplo MATLAB). Pittsburgh, PA: Carnegie Mellon University. 24 de dezembro de 2011.