otimização matemática

Da Wikipédia, a enciclopédia livre
Ir para a navegação Pular para pesquisar
Gráfico de a dado por z = f( x , y ) = −( x ² + y ²) + 4. O máximo global em ( x, y, z ) = (0, 0, 4) é indicado por um ponto azul .
Pesquisa mínima de Nelder-Mead da função de Simionescu . Os vértices Simplex são ordenados por seus valores, com 1 tendo o valor mais baixo ( fx best).

Otimização matemática (optimização escrita alternativamente ) ou programação matemática é a seleção de um melhor elemento, com relação a algum critério, de algum conjunto de alternativas disponíveis. [1] É geralmente dividido em dois subcampos: otimização discreta e otimização contínua . Problemas de otimização de tipos surgem em todas as disciplinas quantitativas, desde ciência da computação e engenharia [2] até pesquisa operacional e economia , e o desenvolvimento de métodos de solução tem sido de interesse em matemática por séculos. [3]

Na abordagem mais geral, um problema de otimização consiste em maximizar ou minimizar uma função real , escolhendo sistematicamente valores de entrada dentro de um conjunto permitido e calculando o valor da função. A generalização da teoria e técnicas de otimização para outras formulações constitui uma grande área da matemática aplicada . De modo mais geral, a otimização inclui encontrar os "melhores valores disponíveis" de alguma função objetivo dado um domínio definido (ou entrada), incluindo uma variedade de diferentes tipos de funções objetivo e diferentes tipos de domínios.

Problemas de otimização

Os problemas de otimização podem ser divididos em duas categorias, dependendo se as variáveis ​​são contínuas ou discretas :

Um problema de otimização pode ser representado da seguinte maneira:

Dado: uma função f  : A → ℝ de algum conjunto A para os números reais
Procurado: um elemento x 0A tal que f ( x 0 ) ≤ f ( x ) para todo xA ("minimização") ou tal que f ( x 0 ) ≥ f ( x ) para todo xA (" maximização").

Tal formulação é chamada de problema de otimização ou problema de programação matemática (um termo não diretamente relacionado à programação de computadores , mas ainda em uso, por exemplo, na programação linear – veja a História abaixo). Muitos problemas teóricos e do mundo real podem ser modelados nesta estrutura geral.

Como o seguinte é válido

basta resolver apenas problemas de minimização. No entanto, a perspectiva oposta de considerar apenas problemas de maximização também seria válida.

Problemas formulados com esta técnica nos campos da física podem se referir à técnica como minimização de energia , falando do valor da função f como representando a energia do sistema que está sendo modelado . No aprendizado de máquina , é sempre necessário avaliar continuamente a qualidade de um modelo de dados usando uma função de custo em que um mínimo implica um conjunto de parâmetros possivelmente ótimos com um erro ideal (menor).

Normalmente, A é algum subconjunto do espaço euclidiano n , frequentemente especificado por um conjunto de restrições , igualdades ou desigualdades que os membros de A devem satisfazer. O domínio A de f é chamado de espaço de busca ou conjunto de escolha , enquanto os elementos de A são chamados de soluções candidatas ou soluções factíveis .

A função f é chamada, variadamente, de função objetivo, função de perda ou função de custo (minimização), [4] função de utilidade ou função de aptidão (maximização) ou, em certos campos, função de energia ou funcional de energia . Uma solução viável que minimiza (ou maximiza, se esse for o objetivo) a função objetivo é chamada de solução ótima .

Em matemática, os problemas de otimização convencionais são geralmente expressos em termos de minimização.

Um mínimo local x * é definido como um elemento para o qual existe algum δ > 0 tal que

a expressão f ( x *) ≤ f ( x ) vale;

ou seja, em alguma região em torno de x * todos os valores da função são maiores ou iguais ao valor naquele elemento. Os máximos locais são definidos de forma semelhante.

Enquanto um mínimo local é pelo menos tão bom quanto qualquer elemento próximo, um mínimo global é pelo menos tão bom quanto qualquer elemento factível. Geralmente, a menos que a função objetivo seja convexa em um problema de minimização, pode haver vários mínimos locais. Em um problema convexo , se houver um mínimo local que seja interior (não na borda do conjunto de elementos factíveis), ele também é o mínimo global, mas um problema não convexo pode ter mais de um mínimo local, nem todos precisam sejam mínimos globais.

Um grande número de algoritmos propostos para resolver os problemas não convexos – incluindo a maioria dos solucionadores disponíveis comercialmente – não são capazes de fazer uma distinção entre soluções localmente ótimas e soluções globalmente ótimas, e tratarão as primeiras como soluções reais para o problema original. A otimização global é o ramo da matemática aplicada e da análise numérica que se preocupa com o desenvolvimento de algoritmos determinísticos capazes de garantir a convergência em tempo finito para a solução ótima real de um problema não convexo.

Notação

Problemas de otimização geralmente são expressos com notação especial. aqui estão alguns exemplos:

Valor mínimo e máximo de uma função

Considere a seguinte notação:

Isso denota o valor mínimo da função objetivo x 2 + 1 , ao escolher x do conjunto de números reais . O valor mínimo neste caso é 1, ocorrendo em x = 0 .

Da mesma forma, a notação

pede o valor máximo da função objetivo 2 x , onde x pode ser qualquer número real. Nesse caso, não existe máximo, pois a função objetivo é ilimitada, então a resposta é " infinito " ou "indefinido".

Argumentos de entrada ideais

Considere a seguinte notação:

ou equivalente

Isso representa o valor (ou valores) do argumento x no intervalo (−∞,−1] que minimiza (ou minimiza) a função objetivo x 2 + 1 (o valor mínimo real dessa função não é o que o problema pede Neste caso, a resposta é x = −1 , pois x = 0 é inviável, ou seja, não pertence ao conjunto factível .

De forma similar,

ou equivalente

representa o par { x , y } (ou pares) que maximiza (ou maximiza) o valor da função objetivo x cos y , com a restrição adicional de que x está no intervalo [−5,5] (novamente, o máximo real valor da expressão não importa). Nesse caso, as soluções são os pares da forma {5, 2 k π } e {−5, (2 k + 1) π } , onde k varia sobre todos os inteiros .

Às vezes, os operadores arg min e arg max também são escritos como argmin e argmax e representam o argumento do mínimo e o argumento do máximo .

História

Fermat e Lagrange encontraram fórmulas baseadas em cálculo para identificar ótimos, enquanto Newton e Gauss propuseram métodos iterativos para se mover em direção a um ótimo.

O termo " programação linear " para certos casos de otimização deve-se a George B. Dantzig , embora grande parte da teoria tenha sido introduzida por Leonid Kantorovich em 1939. ( A programação neste contexto não se refere à programação de computadores , mas vem do uso de programa pelos militares dos Estados Unidos para se referir a cronogramas de treinamento e logística propostos , que eram os problemas que Dantzig estudou na época.) Dantzig publicou o algoritmo Simplex em 1947 e John von Neumann desenvolveu a teoria da dualidade no mesmo ano. [citação necessária ]

Outros pesquisadores notáveis ​​em otimização matemática incluem o seguinte:

Principais subcampos

  • A programação convexa estuda o caso em que a função objetivo é convexa (minimização) ou côncava (maximização) e o conjunto de restrições é convexo . Isso pode ser visto como um caso particular de programação não linear ou como generalização de programação quadrática linear ou convexa.
  • A programação inteira estuda programas lineares nos quais algumas ou todas as variáveis ​​são forçadas a assumir valores inteiros . Isso não é convexo e, em geral, muito mais difícil do que a programação linear regular.
  • A programação quadrática permite que a função objetivo tenha termos quadráticos, enquanto o conjunto factível deve ser especificado com igualdades e desigualdades lineares. Para formas específicas do termo quadrático, este é um tipo de programação convexa.
  • A programação fracionária estuda a otimização de proporções de duas funções não lineares. A classe especial de programas fracionários côncavos pode ser transformada em um problema de otimização convexa.
  • A programação não linear estuda o caso geral em que a função objetivo ou as restrições ou ambas contêm partes não lineares. Isso pode ou não ser um programa convexo. Em geral, se o programa é convexo afeta a dificuldade de resolvê-lo.
  • A programação estocástica estuda o caso em que algumas das restrições ou parâmetros dependem de variáveis ​​aleatórias .
  • A otimização robusta é, como a programação estocástica, uma tentativa de capturar a incerteza nos dados subjacentes ao problema de otimização. A otimização robusta visa encontrar soluções válidas sob todas as possíveis realizações das incertezas definidas por um conjunto de incertezas.
  • A otimização combinatória está preocupada com problemas onde o conjunto de soluções factíveis é discreto ou pode ser reduzido a um discreto .
  • A otimização estocástica é usada com medições de funções aleatórias (ruidosas) ou entradas aleatórias no processo de pesquisa.
  • A otimização de dimensão infinita estuda o caso em que o conjunto de soluções viáveis ​​é um subconjunto de um espaço de dimensão infinita , como um espaço de funções.
  • Heurísticas e metaheurísticas fazem poucas ou nenhuma suposição sobre o problema que está sendo otimizado. Normalmente, as heurísticas não garantem que nenhuma solução ótima precise ser encontrada. Por outro lado, heurísticas são usadas para encontrar soluções aproximadas para muitos problemas complicados de otimização.
  • A satisfação de restrições estuda o caso em que a função objetivo f é constante (isso é usado em inteligência artificial , particularmente em raciocínio automatizado ).
  • A programação disjuntiva é usada onde pelo menos uma restrição deve ser satisfeita, mas não todas. É de uso particular na programação.
  • O mapeamento espacial é um conceito para modelagem e otimização de um sistema de engenharia para precisão de modelo de alta fidelidade (fina), explorando um modelo grosseiro ou substituto fisicamente significativo adequado .

Em vários subcampos, as técnicas são projetadas principalmente para otimização em contextos dinâmicos (isto é, tomada de decisão ao longo do tempo):

Otimização multiobjetivo

Adicionar mais de um objetivo a um problema de otimização adiciona complexidade. Por exemplo, para otimizar um projeto estrutural, deseja-se um projeto que seja leve e rígido. Quando dois objetivos entram em conflito, um trade-off deve ser criado. Pode haver um projeto mais leve, um projeto mais rígido e um número infinito de projetos que comprometem o peso e a rigidez. O conjunto de projetos de trade-off que melhoram um critério em detrimento de outro é conhecido como conjunto de Pareto . A curva criada traçando o peso contra a rigidez dos melhores projetos é conhecida como fronteira de Pareto .

Um projeto é considerado "ótimo de Pareto" (equivalentemente, "Pareto eficiente" ou no conjunto de Pareto) se não for dominado por nenhum outro projeto: Se for pior do que outro projeto em alguns aspectos e não melhor em nenhum aspecto, então ele é dominado e não é o ótimo de Pareto.

A escolha entre as soluções "ótimas de Pareto" para determinar a "solução favorita" é delegada ao tomador de decisão. Em outras palavras, definir o problema como otimização multiobjetivo sinaliza que alguma informação está faltando: objetivos desejáveis ​​são dados, mas combinações deles não são avaliados uns em relação aos outros. Em alguns casos, as informações que faltam podem ser derivadas de sessões interativas com o tomador de decisão.

Os problemas de otimização multiobjetivo foram generalizados ainda mais em problemas de otimização vetorial , onde a ordenação (parcial) não é mais dada pela ordenação de Pareto.

Otimização multimodal ou global

Os problemas de otimização geralmente são multimodais; ou seja, eles possuem várias boas soluções. Eles podem ser globalmente bons (mesmo valor de função de custo) ou pode haver uma mistura de soluções globalmente boas e localmente boas. Obter todas (ou pelo menos algumas) das múltiplas soluções é o objetivo de um otimizador multimodal.

As técnicas clássicas de otimização devido à sua abordagem iterativa não funcionam satisfatoriamente quando são utilizadas para obter múltiplas soluções, pois não é garantido que soluções diferentes serão obtidas mesmo com diferentes pontos de partida em múltiplas execuções do algoritmo.

Abordagens comuns para problemas de otimização global , onde vários extremos locais podem estar presentes, incluem algoritmos evolutivos , otimização Bayesiana e recozimento simulado .

Classificação de pontos críticos e extremos

Problema de viabilidade

O problema de satisfatibilidade , também chamado de problema de viabilidade , é apenas o problema de encontrar qualquer solução viável sem levar em consideração o valor objetivo. Isso pode ser considerado como o caso especial de otimização matemática em que o valor objetivo é o mesmo para todas as soluções e, portanto, qualquer solução é ótima.

Muitos algoritmos de otimização precisam começar de um ponto viável. Uma maneira de obter tal ponto é relaxar as condições de viabilidade usando uma variável de folga ; com folga suficiente, qualquer ponto de partida é viável. Em seguida, minimize essa variável de folga até que a folga seja nula ou negativa.

Existência

O teorema do valor extremo de Karl Weierstrass afirma que uma função contínua de valor real em um conjunto compacto atinge seu valor máximo e mínimo. Mais geralmente, uma função semicontínua inferior em um conjunto compacto atinge seu mínimo; uma função semicontínua superior em um conjunto compacto atinge seu ponto ou visualização máximo.

Condições necessárias para otimização

Um dos teoremas de Fermat afirma que ótimos de problemas irrestritos são encontrados em pontos estacionários , onde a primeira derivada ou o gradiente da função objetivo é zero (ver teste da primeira derivada ). Mais geralmente, eles podem ser encontrados em pontos críticos , onde a primeira derivada ou gradiente da função objetivo é zero ou indefinida, ou no limite do conjunto de escolha. Uma equação (ou conjunto de equações) declarando que a(s) primeira(s) derivada(s) é(são) igual(is) a zero em um ótimo interior é chamada de 'condição de primeira ordem' ou um conjunto de condições de primeira ordem.

Os ótimos de problemas com restrições de igualdade podem ser encontrados pelo método do multiplicador de Lagrange . Os ótimos de problemas com restrições de igualdade e/ou desigualdade podem ser encontrados usando as ' condições de Karush–Kuhn–Tucker '.

Condições suficientes para otimização

Enquanto o teste da primeira derivada identifica pontos que podem ser extremos, este teste não distingue um ponto mínimo de um máximo ou de um que não é nenhum dos dois. Quando a função objetivo é duas vezes diferenciável, esses casos podem ser distinguidos verificando a segunda derivada ou a matriz de segundas derivadas (chamada de matriz Hessiana ) em problemas irrestritos, ou a matriz de segundas derivadas da função objetivo e as restrições chamadas de bordadas Hessiano em problemas restritos. As condições que distinguem máximos, ou mínimos, de outros pontos estacionários são chamadas de 'condições de segunda ordem' (ver ' Teste da segunda derivada'). Se uma solução candidata satisfaz as condições de primeira ordem, então a satisfação das condições de segunda ordem também é suficiente para estabelecer pelo menos a otimalidade local.

Sensibilidade e continuidade de optima

O teorema do envelope descreve como o valor de uma solução ótima muda quando um parâmetro subjacente muda. O processo de calcular essa mudança é chamado de estática comparativa .

O teorema do máximo de Claude Berge (1963) descreve a continuidade de uma solução ótima em função de parâmetros subjacentes.

Cálculo de otimização

Para problemas irrestritos com funções duas vezes diferenciáveis, alguns pontos críticos podem ser encontrados encontrando os pontos onde o gradiente da função objetivo é zero (isto é, os pontos estacionários). Mais geralmente, um subgradiente zero certifica que um mínimo local foi encontrado para problemas de minimização com funções convexas e outras funções locais de Lipschitz .

Além disso, os pontos críticos podem ser classificados usando a definição da matriz Hessiana : Se a Hessiana for positiva definida em um ponto crítico, então o ponto é um mínimo local; se a matriz Hessiana for negativa definida, então o ponto é um máximo local; finalmente, se indefinido, então o ponto é algum tipo de ponto de sela .

Problemas restritos podem frequentemente ser transformados em problemas irrestritos com a ajuda de multiplicadores de Lagrange . A relaxação lagrangiana também pode fornecer soluções aproximadas para problemas restritos difíceis.

Quando a função objetivo é uma função convexa , então qualquer mínimo local também será um mínimo global. Existem técnicas numéricas eficientes para minimizar funções convexas, como métodos de pontos interiores .

Convergência global

De maneira mais geral, se a função objetivo não for uma função quadrática, muitos métodos de otimização usam outros métodos para garantir que alguma subsequência de iterações convirja para uma solução ótima. O primeiro e ainda popular método para garantir a convergência depende de pesquisas de linha , que otimizam uma função ao longo de uma dimensão. Um segundo método cada vez mais popular para garantir a convergência usa regiões de confiança . Tanto as pesquisas de linha quanto as regiões de confiança são usadas em métodos modernos de otimização não diferenciável . Normalmente, um otimizador global é muito mais lento do que os otimizadores locais avançados (como BFGS ), portanto, um otimizador global eficiente pode ser construído iniciando o otimizador local a partir de diferentes pontos de partida.

Técnicas de otimização computacional

Para resolver problemas, os pesquisadores podem usar algoritmos que terminam em um número finito de passos, ou métodos iterativos que convergem para uma solução (em alguma classe específica de problemas), ou heurísticas que podem fornecer soluções aproximadas para alguns problemas (embora suas iterações não precisem convergem).

Algoritmos de otimização

Métodos iterativos

Os métodos iterativos usados ​​para resolver problemas de programação não linear diferem conforme avaliam Hessians , gradientes ou apenas valores de função. Embora a avaliação de Hessians (H) e gradientes (G) melhore a taxa de convergência, para funções para as quais essas quantidades existem e variam suficientemente suavemente, essas avaliações aumentam a complexidade computacional (ou custo computacional) de cada iteração. Em alguns casos, a complexidade computacional pode ser excessivamente alta.

Um dos principais critérios para otimizadores é apenas o número de avaliações de funções necessárias, pois isso geralmente já é um grande esforço computacional, geralmente muito mais esforço do que dentro do próprio otimizador, que precisa operar principalmente sobre as N variáveis. As derivadas fornecem informações detalhadas para esses otimizadores, mas são ainda mais difíceis de calcular, por exemplo, aproximar o gradiente leva pelo menos N+1 avaliações de função. Para aproximações das 2ª derivadas (coletadas na matriz Hessiana), o número de avaliações da função é da ordem de N². O método de Newton requer as derivadas de 2ª ordem, portanto, para cada iteração, o número de chamadas de função é da ordem de N², mas para um otimizador de gradiente puro mais simples é apenas N. No entanto, otimizadores de gradiente geralmente precisam de mais iterações do que o algoritmo de Newton.

Heurística

Além de algoritmos (finitamente terminados) e métodos iterativos (convergentes) , existem heurísticas . Uma heurística é qualquer algoritmo que não é garantido (matematicamente) para encontrar a solução, mas que, no entanto, é útil em certas situações práticas. Lista de algumas heurísticas bem conhecidas:

Aplicações

Mecânica

Problemas em dinâmica de corpo rígido (em particular dinâmica de corpo rígido articulado) geralmente requerem técnicas de programação matemática, pois você pode ver a dinâmica de corpo rígido como uma tentativa de resolver uma equação diferencial comum em uma variedade de restrições; [5] as restrições são várias restrições geométricas não lineares, como "estes dois pontos devem sempre coincidir", "esta superfície não deve penetrar em nenhuma outra" ou "este ponto deve sempre estar em algum lugar nesta curva". Além disso, o problema de calcular as forças de contato pode ser resolvido resolvendo um problema de complementaridade linear , que também pode ser visto como um problema QP (programação quadrática).

Muitos problemas de projeto também podem ser expressos como programas de otimização. Esta aplicação é chamada de otimização de design. Um subconjunto é a otimização de engenharia , e outro subconjunto recente e crescente desse campo é a otimização de projeto multidisciplinar , que, embora útil em muitos problemas, tem sido aplicada em particular a problemas de engenharia aeroespacial .

Esta abordagem pode ser aplicada em cosmologia e astrofísica. [6]

Economia e finanças

A economia está tão intimamente ligada à otimização de agentes que uma definição influente descreve a economia qua ciência como o "estudo do comportamento humano como uma relação entre fins e meios escassos " com usos alternativos. [7] A teoria de otimização moderna inclui a teoria de otimização tradicional, mas também se sobrepõe à teoria dos jogos e ao estudo dos equilíbrios econômicos . Os códigos do Journal of Economic Literature classificam programação matemática, técnicas de otimização e tópicos relacionados em JEL:C61-C63 .

Em microeconomia, o problema de maximização de utilidade e seu problema dual , o problema de minimização de gastos , são problemas de otimização econômica. Na medida em que se comportam consistentemente, presume-se que os consumidores maximizem sua utilidade , enquanto as empresas geralmente maximizam seus lucros . Além disso, os agentes são frequentemente modelados como avessos ao risco , preferindo assim evitar o risco. Os preços dos ativos também são modelados usando a teoria de otimização, embora a matemática subjacente dependa da otimização de processos estocásticos em vez da otimização estática. teoria do comércio internacionaltambém usa a otimização para explicar os padrões de comércio entre as nações. A otimização de portfólios é um exemplo de otimização multiobjetivo em economia.

Desde a década de 1970, os economistas modelaram decisões dinâmicas ao longo do tempo usando a teoria de controle . [8] Por exemplo, modelos de busca dinâmica são usados ​​para estudar o comportamento do mercado de trabalho . [9] Uma distinção crucial é entre modelos determinísticos e estocásticos. [10] Os macroeconomistas constroem modelos de equilíbrio geral estocástico dinâmico (DSGE) que descrevem a dinâmica de toda a economia como resultado das decisões de otimização interdependentes de trabalhadores, consumidores, investidores e governos. [11] [12]

Engenharia elétrica

Algumas aplicações comuns de técnicas de otimização em engenharia elétrica incluem projeto de filtro ativo , [13] redução de campo disperso em sistemas supercondutores de armazenamento de energia magnética, projeto de mapeamento espacial de estruturas de micro -ondas , [14] antenas de aparelhos, [15] [16] [17] eletromagnetismo projeto baseado em A otimização do projeto validado eletromagneticamente de componentes e antenas de micro-ondas fez uso extensivo de um modelo substituto baseado em física ou empírico apropriado e metodologias de mapeamento espacial desde a descoberta do mapeamento espacial em 1993.[18] [19]

Engenharia Civil

A otimização tem sido amplamente utilizada na engenharia civil. O gerenciamento de construção e a engenharia de transporte estão entre os principais ramos da engenharia civil que dependem fortemente da otimização. Os problemas de engenharia civil mais comuns que são resolvidos pela otimização são corte e aterro de estradas, análise do ciclo de vida de estruturas e infraestruturas, [20] nivelamento de recursos , [21] [22] alocação de recursos hídricos , gerenciamento de tráfego [23] e cronograma otimização.

Pesquisa operacional

Outro campo que usa técnicas de otimização extensivamente é a pesquisa operacional . [24] A pesquisa operacional também usa modelagem estocástica e simulação para apoiar a tomada de decisão aprimorada. Cada vez mais, a pesquisa operacional usa programação estocástica para modelar decisões dinâmicas que se adaptam a eventos; tais problemas podem ser resolvidos com otimização em larga escala e métodos de otimização estocástica .

Engenharia de controle

A otimização matemática é usada em muitos projetos de controladores modernos. Controladores de alto nível, como controle preditivo de modelo (MPC) ou otimização em tempo real (RTO), empregam otimização matemática. Esses algoritmos são executados online e determinam repetidamente valores para variáveis ​​de decisão, como aberturas de estrangulamento em uma planta de processo, resolvendo iterativamente um problema de otimização matemática incluindo restrições e um modelo do sistema a ser controlado.

Geofísica

Técnicas de otimização são regularmente utilizadas em problemas de estimação de parâmetros geofísicos . Dado um conjunto de medições geofísicas, por exemplo, registros sísmicos , é comum resolver as propriedades físicas e formas geométricas das rochas e fluidos subjacentes. A maioria dos problemas em geofísica são não lineares, com métodos determinísticos e estocásticos amplamente utilizados.

Modelagem molecular

Os métodos de otimização não linear são amplamente utilizados na análise conformacional .

Biologia de Sistemas Computacionais

As técnicas de otimização são usadas em muitas facetas da biologia de sistemas computacionais, como construção de modelos, projeto experimental ideal, engenharia metabólica e biologia sintética. [25] A programação linear foi aplicada para calcular os rendimentos máximos possíveis de produtos de fermentação, [25] e inferir redes reguladoras de genes a partir de múltiplos conjuntos de dados de microarrays [26] , bem como redes reguladoras transcricionais a partir de dados de alto rendimento. [27] A programação não linear tem sido usada para analisar o metabolismo energético [28] e tem sido aplicada à engenharia metabólica e estimativa de parâmetros em vias bioquímicas. [29]

Aprendizado de máquina

Solucionadores

Veja também

Notas

  1. ^ " The Nature of Mathematical Programming Archived 2014-03-05 at the Wayback Machine ," Mathematical Programming Glossary , INFORMS Computing Society.
  2. ^ Martins, Joaquim RRA; Ning, Andrew (2021-10-01). Otimização do Projeto de Engenharia . Cambridge University Press. ISBN 978-1108833417.
  3. ^ Du, DZ; Pardalos, PM; Wu, W. (2008). "História da Otimização". Em Floudas, C .; Pardalos, P. (eds.). Enciclopédia de Otimização . Boston: Springer. pp. 1538–1542.
  4. ^ W. Erwin Diewert (2008). "funções de custo", The New Palgrave Dictionary of Economics , conteúdo da 2ª edição.
  5. ^ Vereshchagin, AF (1989). "Modelagem e controle de movimento de robôs de manipulação". Jornal Soviético de Ciências da Computação e Sistemas . 27 (5): 29–38.
  6. ^ Haggag, S.; Desokey, F.; Ramadã, M. (2017). "Um modelo inflacionário cosmológico usando controle ótimo". Gravitação e Cosmologia . 23 (3): 236–239. Código Bib : 2017GrCo ...23..236H . doi : 10.1134/S0202289317030069 . ISSN 1995-0721 . S2CID 125980981 .  
  7. ^ Lionel Robbins (1935, 2ª ed.) Um ensaio sobre a natureza e o significado da ciência econômica , Macmillan, p. 16.
  8. ^ Dorfman, Robert (1969). "Uma interpretação econômica da teoria de controle ideal". Revisão Econômica Americana . 59 (5): 817–831. JSTOR 1810679 . 
  9. ^ Sargent, Thomas J. (1987). "Pesquisar" . Teoria macroeconômica dinâmica . Harvard University Press. pp. 57–91. ISBN 9780674043084.
  10. ^ AG Malliaris (2008). "controle ótimo estocástico", The New Palgrave Dictionary of Economics , 2ª edição. Resumo Arquivado em 18/10/2017 na Wayback Machine .
  11. ^ Rotemberg, Júlio ; Woodford, Michael (1997). "Uma estrutura econométrica baseada em otimização para a avaliação da política monetária" (PDF) . NBER Macroeconomia Anual . 12 : 297–346. doi : 10.2307/3585236 . JSTOR 3585236 .  
  12. ^ Do The New Palgrave Dictionary of Economics (2008), 2ª edição com links abstratos:
       • " métodos de otimização numérica em economia " de Karl Schmedders
       • " programação convexa " de Lawrence E. Blume
       • " modelo Arrow-Debreu de equilíbrio geral " de João Geanakoplos .
  13. ^ De, Bishnu Prasad; Kar, R.; Mandal, D.; Ghoshal, SP (2014-09-27). "Seleção ótima de valor de componentes para projeto de filtro ativo analógico usando otimização de enxame de partículas simplex". Jornal Internacional de Machine Learning e Cibernética . 6 (4): 621–636. doi : 10.1007/s13042-014-0299-0 . ISSN 1868-8071 . S2CID 13071135 .  
  14. ^ Koziel, Slawomir; Bandler, John W. (janeiro de 2008). "Mapeamento espacial com vários modelos grosseiros para otimização de componentes de microondas". Cartas de componentes sem fio e de micro-ondas IEEE . 18 (1): 1–3. CiteSeerX 10.1.1.147.5407 . doi : 10.1109/LMWC.2007.911969 . S2CID 11086218 .  
  15. ^ Tu, Sheng; Cheng, Qingsha S.; Zhang, Yifan; Bandler, John W.; Nikolova, Natalia K. (julho de 2013). "Otimização do Mapeamento Espacial de Antenas de Aparelhos Explorando Modelos de Fios Finos" . Transações IEEE em Antenas e Propagação . 61 (7): 3797–3807. Código Bib : 2013ITAP ...61.3797T . doi : 10.1109/TAP.2013.2254695 .
  16. ^ N. Friedrich, "O mapeamento espacial supera a otimização EM no design de antena de aparelho", microondas & rf, 30 de agosto de 2013.
  17. ^ Cervantes-González, Juan C.; Rayas-Sánchez, José E.; López, Carlos A.; Camacho-Pérez, José R.; Brito-Brito, Zabdiel; Chávez-Hurtado, José L. (fevereiro de 2016). "Otimização de mapeamento espacial de antenas de aparelhos considerando efeitos EM de componentes de telefones celulares e corpo humano". Jornal Internacional de RF e Engenharia Auxiliada por Computador de Microondas . 26 (2): 121–128. doi : 10.1002/mmce.20945 . S2CID 110195165 . 
  18. ^ Bandler, JW; Biernacki, RM; Chen, Shao Hua; Grobelny, PA; Hemmers, RH (1994). "Técnica de mapeamento espacial para otimização eletromagnética". Transações IEEE sobre Teoria e Técnicas de Microondas . 42 (12): 2536–2544. Código Bib : 1994ITMTT..42.2536B . doi : 10.1109/22.339794 .
  19. ^ Bandler, JW; Biernacki, RM; Shao Hua Chen; Hemmers, RH; Madsen, K. (1995). "Otimização eletromagnética explorando mapeamento espacial agressivo". Transações IEEE sobre Teoria e Técnicas de Microondas . 43 (12): 2874–2882. Código Bib : 1995ITMTT..43.2874B . doi : 10.1109/22.475649 .
  20. ^ Piryonesi, Sayed Madeh; Tavakolan, Mehdi (9 de janeiro de 2017). "Um modelo de programação matemática para resolver problemas de otimização de custo-segurança (CSO) na manutenção de estruturas". Jornal KSCE de Engenharia Civil . 21 (6): 2226–2234. doi : 10.1007/s12205-017-0531-z . S2CID 113616284 . 
  21. ^ Hegazy, Tarek (junho de 1999). "Otimização da Alocação e Nivelamento de Recursos Utilizando Algoritmos Genéticos" . Revista de Engenharia e Gestão da Construção . 125 (3): 167–175. doi : 10.1061/(ASCE)0733-9364(1999)125:3(167) .
  22. ^ Piryonesi, S. Madeh; Nasseri, Mehran; Ramezani, Abdollah (9 de julho de 2018). "Piryonesi, SM, Nasseri, M., & Ramezani, A. (2018). Nivelamento de recursos em projetos de construção com divisão de atividades e restrições de recursos: uma otimização simulada de recozimento". Jornal Canadense de Engenharia Civil . 46 : 81–86. doi : 10.1139/cjce-2017-0670 . hdl : 1807/93364 . S2CID 116480238 . 
  23. ^ Herty, M.; Klar, A. (2003-01-01). "Modelagem, Simulação e Otimização de Redes de Fluxo de Tráfego" . Jornal SIAM em Computação Científica . 25 (3): 1066–1087. doi : 10.1137/S106482750241459X . ISSN 1064-8275 . 
  24. ^ "Nova força na cena política: o Seophonisten" . Arquivado do original em 18 de dezembro de 2014 . Consultado em 14 de setembro de 2013 .
  25. ^ a b Papoutsakis, Eleftherios Terry (fevereiro de 1984). "Equações e cálculos para fermentações de bactérias de ácido butírico". Biotecnologia e Bioengenharia . 26 (2): 174–187. doi : 10.1002/bit.260260210 . ISSN 0006-3592 . PMID 18551704 . S2CID 25023799 .   
  26. ^ Wang, Yong; Joshi, Trupti; Zhang, Xiang-Sun; Xu, Dong; Chen, Luonan (2006-07-24). "Inferir redes reguladoras de genes a partir de vários conjuntos de dados de microarranjos" . Bioinformática . 22 (19): 2413–2420. doi : 10.1093/bioinformatics/btl396 . ISSN 1460-2059 . PMID 16864593 .  
  27. ^ Wang, Rui-Sheng; Wang, Yong; Zhang, Xiang-Sun; Chen, Luonan (2007-09-22). "Inferindo redes regulatórias transcricionais a partir de dados de alto rendimento" . Bioinformática . 23 (22): 3056–3064. doi : 10.1093/bioinformatics/btm465 . ISSN 1460-2059 . PMID 17890736 .  
  28. ^ Vo, Thuy D.; Paul Lee, WN; Palsson, Bernhard O. (maio de 2007). "A análise de sistemas do metabolismo energético elucida o complexo da cadeia respiratória afetada na síndrome de Leigh". Genética Molecular e Metabolismo . 91 (1): 15–22. doi : 10.1016/j.ymgme.2007.01.012 . ISSN 1096-7192 . PMID 17336115 .  
  29. ^ Mendes, P. ; Kell, D. (1998). "Otimização não linear de vias bioquímicas: aplicações à engenharia metabólica e estimativa de parâmetros" . Bioinformática . 14 (10): 869–883. doi : 10.1093/bioinformatics/14.10.869 . ISSN 1367-4803 . PMID 9927716 .  

Leitura adicional

Links externos