Quadratische Optimierung

Die quadratische Optimierung oder quadratische Programmierung und der damit eng verbundene Begriff des quadratischen Programms mit quadratischen Restriktionen ist ein spezielles Problem in der mathematischen Optimierung, das sich durch die Einfachheit der auftretenden Funktionen auszeichnet. Quadratische Programme treten zum Beispiel bei der Minimierung von Abstandsfunktionen auf oder als Unterprobleme von komplexeren Optimierungsproblemen.

Definition

Es seien E ; G R m × n {\displaystyle E;G\in \mathbb {R} ^{m\times n}} reelle m × n {\displaystyle m\times n} -Matrizen, Q R n × n {\displaystyle Q\in \mathbb {R} ^{n\times n}} eine symmetrische Matrix, c ; x R n {\displaystyle c;x\in \mathbb {R} ^{n}} sowie f ; h R m {\displaystyle f;h\in \mathbb {R} ^{m}} reelle Vektoren und schließlich d R {\displaystyle d\in \mathbb {R} } eine reelle Zahl.

Ein Optimierungsproblem der Form

Minimiere  s ( x ) = 1 2 x T Q x + c T x + d unter den Nebenbedingungen  E x f G x = h {\displaystyle {\begin{aligned}{\text{Minimiere }}&s(x)={\tfrac {1}{2}}x^{T}Qx+c^{T}x+d\\{\text{unter den Nebenbedingungen }}&Ex\leq f\\&Gx=h\end{aligned}}}

heißt ein quadratisches Optimierungsproblem oder ein quadratisches Programm (englisch quadratic program, kurz QP).

Ist das Problem von der Form

Minimiere  s ( x ) = 1 2 x T Q x + c T x + d unter den Nebenbedingungen  1 2 x T P i x + r i T x + f i 0 i = 1 , , m G x = h {\displaystyle {\begin{aligned}{\text{Minimiere }}&s(x)={\tfrac {1}{2}}x^{T}Qx+c^{T}x+d&\\{\text{unter den Nebenbedingungen }}&{\tfrac {1}{2}}x^{T}P_{i}x+r_{i}^{T}x+f_{i}\leq 0&i=1,\dots ,m\\&Gx=h&\end{aligned}}}

für symmetrische Matrizen ( P i ) 1 i m {\displaystyle (P_{i})_{1\leq i\leq m}} und Serien von Vektoren ( r i ) i ; ( f i ) i {\displaystyle (r_{i})_{i};(f_{i})_{i}} , so heißt es ein quadratisches Programm mit quadratischen Nebenbedingungen (englisch quadratically constrained quadratic program, kurz QCQP).

Anmerkungen

  • Die additive Konstante d {\displaystyle d} beeinflusst nicht die Lage der Optimalpunkte und kann deshalb bei der Formulierung des Optimierungsproblems unterschlagen werden.
  • Die Symmetrieforderung an die Matrizen Q {\displaystyle Q} und P i {\displaystyle P_{i}} stellt keine Einschränkung dar, was auf folgendem Trick beruht. Falls die quadratische Matrix A {\displaystyle A} nicht symmetrisch ist, kann der Ausdruck x T A x {\displaystyle x^{T}Ax} durch x T A ~ x {\displaystyle x^{T}{\tilde {A}}x} ersetzen werden, wobei A ~ := 1 2 ( A + A T ) {\displaystyle {\tilde {A}}:={\frac {1}{2}}\left(A+A^{T}\right)} gilt. Die Matrix A ~ {\displaystyle {\tilde {A}}} ist symmetrisch und es gilt x T A x = x T A ~ x {\displaystyle x^{T}Ax=x^{T}{\tilde {A}}x} für alle x {\displaystyle x} .

Spezialfälle

  • Jedes lineare Optimierungsproblem ist ein quadratisches Optimierungsproblem. Setze dazu Q = 0 {\displaystyle Q=0} .
  • Jedes quadratische Optimierungsproblem ist ein quadratisches Programm mit quadratischen Nebenbedingungen. Dazu setzt man P i = 0 {\displaystyle P_{i}=0} und ordnet die Vektoren r i {\displaystyle r_{i}} zeilenweise zur Matrix E {\displaystyle E} an.
  • Sind alle auftretenden Matrizen Q , P i {\displaystyle Q,P_{i}} positiv semidefinit, so sind quadratische Programme und quadratische Programme mit quadratischen Nebenbedingungen konvexe Optimierungsprobleme.
  • Unter gewissen Umständen kann ein SOCP auch als quadratisches Programm mit quadratischen Nebenbedingungen formuliert werden.

Beispiel

Betrachte als Beispiel das Problem

min   x ( 1 , 1 ) T 2 2 u. d. N.  x 1 2 4 + x 2 2 1 0 x 1 x 2 1 {\displaystyle {\begin{aligned}\min \ &\left\Vert x-(-1,-1)^{T}\right\Vert _{2}^{2}&\\{\text{u. d. N. }}&{\tfrac {x_{1}^{2}}{4}}+x_{2}^{2}-1\leq 0&\\&x_{1}-x_{2}\geq -1&\end{aligned}}}

Ein Umschreiben der quadratischen Terme liefert die in der Definition gegebene Darstellung mit Matrix-Vektor-Produkten:

min   1 2 x T ( 2 0 0 2 ) x + ( 2 , 2 ) x + 2 u. d. N.  1 2 x T ( 0 , 5 0 0 2 ) x 1 0 ( 1 , 1 ) x 1 0 {\displaystyle {\begin{aligned}\min \ &{\tfrac {1}{2}}x^{T}{\bigl (}{\begin{smallmatrix}2&0\\0&2\end{smallmatrix}}{\bigr )}x+(2,2)x+2&\\{\text{u. d. N. }}&{\tfrac {1}{2}}x^{T}{\bigl (}{\begin{smallmatrix}0{,}5&0\\0&2\end{smallmatrix}}{\bigr )}x-1\leq 0&\\&(-1,1)x-1\leq 0&\end{aligned}}} .

Es handelt sich also um ein quadratisches Programm mit quadratischen Nebenbedingungen. Insbesondere ist es ein konvexes Optimierungsproblem, da alle auftretenden Matrizen positiv definit sind.

Optimalitätskriterien

Allgemeiner Fall

Für beliebige Eingabeparameter gibt es das notwendige Optimalitätskriterium, dass wenn x {\displaystyle x^{*}} ein lokales Minimum eines QPs oder QCQPs ist, dann existieren μ , λ , z {\displaystyle \mu ^{*},\lambda ^{*},z^{*}} , so dass ( z , x , μ , λ ) {\displaystyle (z^{*},x^{*},\mu ^{*},\lambda ^{*})} ein Fritz-John-Punkt ist und ( z , μ , λ ) {\displaystyle (z^{*},\mu ^{*},\lambda ^{*})} ungleich dem Nullvektor ist. Sind noch zusätzliche gewisse Regularitätsvoraussetzungen wie zum Beispiel die LICQ, die MFCQ oder die Abadie CQ in x {\displaystyle x^{*}} erfüllt, so gibt es μ , λ {\displaystyle \mu ^{*},\lambda ^{*}} , so dass ( x , μ , λ ) {\displaystyle (x^{*},\mu ^{*},\lambda ^{*})} ein Karush-Kuhn-Tucker-Punkt ist.

Für konvexe Probleme

Sind die Matrizen Q , P i {\displaystyle Q,P_{i}} alle positiv semidefinit, so handelt es sich um ein konvexes Problem. Als Regularitätsbedingung für die Karush-Kuhn-Tucker-Bedingungen steht somit auch die Slater-Bedingung zur Verfügung, welche die Regularität aller zulässigen Punkte liefert. Des Weiteren ist jedes lokale Minimum ein globales Minimum. Außerdem ist jeder Karush-Kuhn-Tucker-Punkt ohne weitere Regularitätsvoraussetzungen ein globales Minimum und somit ein hinreichendes Optimalitätskriterium.

Quadratische Programme mit Gleichungsrestriktionen

Betrachtet man das Quadratische Programm, das nur Gleichungsrestriktionen enthält

min   1 2 x T Q x + c T x + d u.d.N.  G x = h , {\displaystyle {\begin{aligned}\min \ &\,{\tfrac {1}{2}}x^{T}Qx+c^{T}x+d\\{\text{u.d.N. }}&\,Gx=h,\end{aligned}}}

so ist jeder KKT-Punkt ( x , μ ) {\displaystyle (x^{*},\mu ^{*})} des obigen Problems eine Lösung des linearen Gleichungssystems

[ Q G T G 0 ] [ x λ ] = [   c h ] {\displaystyle {\begin{bmatrix}Q&G^{T}\\G&0\end{bmatrix}}{\begin{bmatrix}x\\\lambda \end{bmatrix}}={\begin{bmatrix}-\ c\\h\end{bmatrix}}} .

Ist Q {\displaystyle Q} positiv semidefinit, so ist die Lösung des Gleichungssystems aufgrund der Konvexität des Problems eine globale Optimallösung des Optimierungsproblems. Lineare Gleichungssysteme der obigen Form werden auch Sattelpunktprobleme genannt, da man sie als Bestimmung des Sattelpunktes der Lagrange-Funktion auffassen kann.

Anwendungen

Typische Anwendungsfälle sind:

  • Methode der kleinsten Quadrate mit oder ohne Nebenbedingungen an die zu bestimmenden Parameter.
  • Bestimmen des minimalen Abstandes zweier Mengen, die Polyeder sind (und damit lineare Ungleichungsrestriktionen erzeugen) oder Schnitte von Ellipsoiden sind (und damit quadratische Ungleichungsrestriktionen erzeugen).
  • Als Teilproblem zur Lösung eines größeren Optimierungsproblems zum Beispiel mittels des SQP-Verfahrens (Sequential Quadratic Programming)

Lösungsmethoden

Als Lösungsmethoden werden verwendet:

Literatur

  • C. Geiger, C. Kanzow: Theorie und Numerik restringierter Optimierungsaufgaben. Springer, 2002, ISBN 3-540-42790-2 (eingeschränkte Vorschau in der Google-Buchsuche).
  • Stephen Boyd, Lieven Vandenberghe: Convex Optimization. Cambridge University Press, 2004, ISBN 978-0-521-83378-3 (online).