Principio di Pontryagin

Il principio (del massimo o del minimo) di Pontrjagin è un risultato di teoria del controllo ottimo, formulato nel 1956 dal matematico russo Lev Semënovič Pontrjagin assieme ai suoi studenti.[1]

Il principio consiste nell'identificazione delle condizioni necessarie per realizzare il controllo ottimo che porti un sistema dinamico da uno stato ad un altro stato, specialmente in presenza di vincoli per lo stato o per i controlli. L'equazione di Eulero-Lagrange del calcolo delle variazioni è un caso speciale del principio di Pontrjagin.

Il principio di Pontrjagin, quando viene soddisfatto, restituisce una condizione necessaria per dimostrare l'ottimalità di una selezionata traiettoria. Tale condizione non è tuttavia sufficiente: l'equazione di Hamilton-Jacobi-Bellman sarebbe una condizione necessaria e sufficiente per un controllo ottimale, ma questa condizione dovrebbe essere verificata per tutto lo spazio degli stati mentre il principio del massimo restringe la scelta.

Massimizzazione e minimizzazione

Informalmente, il principio di Pontrjagin afferma che la funzione obiettivo, detta Hamiltoniana, deve necessariamente raggiungere un estremo tra tutti i controlli ammissibili. Se tale estremo sia il massimo o il minimo dell'Hamiltoniana dipende dal problema e dalla convenzione sul segno usato per definire l'Hamiltoniana.

Il principio fu noto inizialmente come principio del massimo di Pontrjagin, per la convenzione del segno usata, e quindi la sua dimostrazione è basata sulla massimizzazione della Hamiltoniana. Inizialmente, fu utilizzato per massimizzare la velocità finale di un razzo. Poiché fu utilizzato in seguito in numerosi problemi di minimizzazione, divenne noto come principio del minimo.

Sia U {\displaystyle {\mathcal {U}}} l'insieme di tutti i controlli ammissibili. Allora il principio del minimo afferma che il controllo ottimo u {\displaystyle u^{*}} deve soddisfare:

H ( x ( t ) , u ( t ) , λ ( t ) , t ) H ( x ( t ) , u , λ ( t ) , t ) , u U , t [ t 0 , t f ] {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t),t)\leq H(x^{*}(t),u,\lambda ^{*}(t),t),\quad \forall u\in {\mathcal {U}},\quad t\in [t_{0},t_{f}]}

dove x C 1 [ t 0 , t f ] {\displaystyle x^{*}\in C^{1}[t_{0},t_{f}]} è la traiettoria ottimale e λ B V [ t 0 , t f ] {\displaystyle \lambda ^{*}\in BV[t_{0},t_{f}]} è la traiettoria aggiunta ottimale.[2]

Il risultato è stato applicato inizialmente per risolvere problemi di minimizzazione nel tempo dove il controllo era vincolato, ma può essere utile anche nello studio di problemi con vincoli sullo stato. Possono essere imposte condizioni speciali per l'Hamiltoniana: nel caso in cui il tempo finale t f {\displaystyle t_{f}} sia fissato e l'Hamiltoniana non dipenda esplicitamente dal tempo, (i.e. t H 0 {\displaystyle \partial _{t}H\equiv 0} ), allora:

H ( x ( t ) , u ( t ) , λ ( t ) ) c o s t a n t e {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t))\equiv \mathrm {costante} \,}

altrimenti, se il tempo finale non è vincolato, allora:

H ( x ( t ) , u ( t ) , λ ( t ) ) 0. {\displaystyle H(x^{*}(t),u^{*}(t),\lambda ^{*}(t))\equiv 0.\,}

Notazione

Nel seguito, verrà utilizzata la seguente notazione

Ψ T ( x ( T ) ) = Ψ ( x ) T | x = x ( T ) {\displaystyle \Psi _{T}(x(T))={\frac {\partial \Psi (x)}{\partial T}}|_{x=x(T)}\,}
Ψ x ( x ( T ) ) = [ Ψ ( x ) x 1 | x = x ( T ) Ψ ( x ) x n | x = x ( T ) ] {\displaystyle \Psi _{x}(x(T))={\begin{bmatrix}{\frac {\partial \Psi (x)}{\partial x_{1}}}|_{x=x(T)}&\cdots &{\frac {\partial \Psi (x)}{\partial x_{n}}}|_{x=x(T)}\end{bmatrix}}}
H x ( x , u , λ , t ) = [ H x 1 | x = x , u = u , λ = λ H x n | x = x , u = u , λ = λ ] {\displaystyle H_{x}(x^{*},u^{*},\lambda ^{*},t)={\begin{bmatrix}{\frac {\partial H}{\partial x_{1}}}|_{x=x^{*},u=u^{*},\lambda =\lambda ^{*}}&\cdots &{\frac {\partial H}{\partial x_{n}}}|_{x=x^{*},u=u^{*},\lambda =\lambda ^{*}}\end{bmatrix}}}
L x ( x , u ) = [ L x 1 | x = x , u = u L x n | x = x , u = u ] {\displaystyle L_{x}(x^{*},u^{*})={\begin{bmatrix}{\frac {\partial L}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\cdots &{\frac {\partial L}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\end{bmatrix}}}
f x ( x , u ) = [ f 1 x 1 | x = x , u = u f 1 x n | x = x , u = u f n x 1 | x = x , u = u f n x n | x = x , u = u ] {\displaystyle f_{x}(x^{*},u^{*})={\begin{bmatrix}{\frac {\partial f_{1}}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\cdots &{\frac {\partial f_{1}}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\\\vdots &\ddots &\vdots \\{\frac {\partial f_{n}}{\partial x_{1}}}|_{x=x^{*},u=u^{*}}&\ldots &{\frac {\partial f_{n}}{\partial x_{n}}}|_{x=x^{*},u=u^{*}}\end{bmatrix}}}

Enunciato formale del principio del minimo

Sia x {\displaystyle x} lo stato del sistema dinamico con input u {\displaystyle u} , tale che

x ˙ = f ( x , u ) , x ( 0 ) = x 0 , u ( t ) U , t [ 0 , T ] {\displaystyle {\dot {x}}=f(x,u),\quad x(0)=x_{0},\quad u(t)\in {\mathcal {U}},\quad t\in [0,T]}

dove U {\displaystyle {\mathcal {U}}} è l'insieme dei controlli ammissibili e T {\displaystyle T} è il termpo terminale del sistema (i.e. il tempo finale).

Un controllo u U {\displaystyle u\in {\mathcal {U}}} deve essere scelto ad ogni t [ 0 , T ] {\displaystyle t\in [0,T]} , tale che minimizzi il funzionale obiettivo del problema J {\displaystyle J} definito astrattamente come

J = Ψ ( x ( T ) ) + 0 T L ( x ( t ) , u ( t ) ) d t {\displaystyle J=\Psi (x(T))+\int _{0}^{T}L(x(t),u(t))\,dt}

I vincoli sulle dinamiche del sistema possono essere imposti alla Lagrangiana L {\displaystyle L} introducendo i moltiplicatori di Lagrange λ ( t ) {\displaystyle \lambda (t)} , dipendenti dal tempo, i cui elementi sono chiamati aggiunti del sistema. Ciò motiva la costruzione dell'Hamiltoniana H {\displaystyle H} definita per ogni t [ 0 , T ] {\displaystyle t\in [0,T]} da:

H ( x ( t ) , u ( t ) , λ ( t ) , t ) = λ T ( t ) f ( x ( t ) , u ( t ) ) + L ( x ( t ) , u ( t ) ) {\displaystyle H(x(t),u(t),\lambda (t),t)=\lambda ^{\rm {T}}(t)f(x(t),u(t))+L(x(t),u(t))\,}

dove λ T {\displaystyle \lambda ^{\rm {T}}} è il trasposto di λ {\displaystyle \lambda } .

Il principio del minimo di Pontrjagin afferma che:

la traiettoria ottimale x {\displaystyle x^{*}} , il controllo ottimo u {\displaystyle u^{*}} e il corrispondente vettore dei moltiplicatori di Lagrange λ {\displaystyle \lambda ^{*}} devono minimizzare l'Hamiltoniana H {\displaystyle H} in modo tale che

( 1 ) H ( x ( t ) , u ( t ) , λ ( t ) , t ) H ( x ( t ) , u , λ ( t ) , t ) {\displaystyle (1)\qquad H(x^{*}(t),u^{*}(t),\lambda ^{*}(t),t)\leq H(x^{*}(t),u,\lambda ^{*}(t),t)\,}

per ogni tempo t [ 0 , T ] {\displaystyle t\in [0,T]} e per tutti i controlli ammisibili u U {\displaystyle u\in {\mathcal {U}}} .

Deve inoltre soddisfare la condizione finale

( 2 ) Ψ T ( x ( T ) ) + H ( T ) = 0 {\displaystyle (2)\qquad \Psi _{T}(x(T))+H(T)=0\,}

Devono essere soddisfatte le equazioni aggiunte

( 3 ) λ ˙ T ( t ) = H x ( x ( t ) , u ( t ) , λ ( t ) , t ) = λ T ( t ) f x ( x ( t ) , u ( t ) ) + L x ( x ( t ) , u ( t ) ) {\displaystyle (3)\qquad -{\dot {\lambda }}^{\rm {T}}(t)=H_{x}(x^{*}(t),u^{*}(t),\lambda (t),t)=\lambda ^{\rm {T}}(t)f_{x}(x^{*}(t),u^{*}(t))+L_{x}(x^{*}(t),u^{*}(t))}

Nel caso in cui lo stato finale x ( T ) {\displaystyle x(T)} non sia fissato (i.e. la sua variazione differenzia non sia zero), deve soddisfare anche il vincolo finale sulle variabili aggiunte:

( 4 ) λ T ( T ) = Ψ x ( x ( T ) ) {\displaystyle (4)\qquad \lambda ^{\rm {T}}(T)=\Psi _{x}(x(T))\,}

Le condizioni in (1)-(4) sono condizioni necessarie per un controllo ottimo. Si noti che (4) si applica solo nel caso in cui x ( T ) {\displaystyle x(T)} sia libero da vincolo. Se fosse fissato, questa condizione non è necessaria per raggiungere l'ottimo.

Note

  1. ^ Boltyanskiĭ, V. G.; Gamkrelidze, R. V.; Pontrjagin, L. S, К теории оптимальных процессов [On the theory of optimal processes. (Russian)]., in Dokl. Akad. Nauk SSSR, vol. 110, 7–10, 1956.
  2. ^ Maggiori informazioni su spazi C1 e BV.

Bibliografia

  • Arnold Kaufmann, Il teorema di ottimalità di Bellman-Pontryagin, in Le tecniche decisionali. Introduzione alla Praxeologia, traduzione di Giampaolo Barosso, Milano, il Saggiatore, 1968, SBN IT\ICCU\SBL\0076985.

Collegamenti esterni

  • (EN) Principio di Pontryagin, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata