Cours d'Automatique ELEC4. S. Icart. Table des mati`eres. I Généralités. 3. 1 Syst
`emes multivariables. 3. 2 Quelques rappels sur la transformée de Laplace. 3.
Automatique
Cours d’Automatique ELEC4 S. Icart
Table des mati` eres I
G´ en´ eralit´ es
3
1 Syst` emes multivariables
3
2 Quelques rappels sur la transform´ ee de Laplace
3
3 Transfert 3.1 Fonction de transfert (syst`eme monovariable) . . . . . . . . . . . . . . . . 3.2 Matrice de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 4 4
4 Prise en compte des conditions initiales
4
5 Lin´ earisation autour d’un point de fonctionnement
5
II
7
Syst` emes lin´ eaires stationnaires
1 Syst` eme lin´ eaire stationnaire continu 1.1 Equations d’´etat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 R´esolution du syst`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Calcul d’une exponentielle de matrice . . . . . . . . . . . . . . . . . . . . .
7 7 7 7
2 Lien entre repr´ esentation interne et repr´ esentation externe
9
3 Changement de base sur l’´ etat et r´ ealisation
10
4 Modes d’un syst` eme
11
5 Stabilit´ e 5.1 Rappels sur la stabilit´e d’une repr´esentation externe . . . . . . . . . . . . . 5.2 Stabilit´e au sens de Lyapounov . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Stabilit´e asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12 12 12 13
6 Syst` eme discret lin´ eaire stationnaire 6.1 R´esolution du syst`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Calcul d’une puissance de matrice . . . . . . . . . . . . . . . . . . . . . . . 6.3 Stabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13 13 13 14
1
7 Discr´ etisation d’un syst` eme continu
14
III
15
Implantation d’une loi de commande par retour d’´ etat
1 Commandabilit´ e 1.1 D´efinition . . . . . . . . . . . . 1.2 Crit`ere de commandabilit´e . . . 1.3 Forme canonique commandable 1.4 Propri´et´es . . . . . . . . . . . .
. . . .
15 15 15 15 16
2 Observabilit´ e 2.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Crit`ere d’observabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Dualit´e observabilit´e–commandabilit´e . . . . . . . . . . . . . . . . . . . . .
16 16 17 17
3 Minimalit´ e
17
4 D´ ecomposition canonique dans l’espace d’´ etat 4.1 Sous-espace de commandabilit´e . . . . . . . . . 4.2 D´ecomposition d’un syst`eme non commandable 4.3 Sous-espace non observable . . . . . . . . . . . . 4.4 D´ecomposition d’un syst`eme non observable . .
17 17 17 18 18
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
5 Commande par retour d’´ etat
18
6 Observateur
19
7 Association d’un observateur et d’une commande par retour d’´ etat
20
2
Automatique
Premi` ere partie
G´ en´ eralit´ es 1
Syst` emes multivariables
Dans ce cours, on s’int´eressera a` des syst`emes multivariables, i.e des syst`emes comportant plusieurs entr´ees (actionneurs) et plusieurs sorties (capteurs). Les signaux d’entr´ee et de sortie sont alors repr´esent´es par des vecteurs not´es respectivement u(t) et y(t) en temps continu et uk et y k en temps discret. • m entr´ees u(t) est un vecteur ∈ IRm • p sorties y(t) est un vecteur ∈ IRp On supposera toujours v´erifi´e le Principe de causalit´ e : la sortie ne d´epend pas des valeurs futures de l’entr´ee. y(t) = h(u[t0 ,t] , t) t0 ≤ t
2
Quelques rappels sur la transform´ ee de Laplace • D´efinition : Soit f (t) est une fonction causale (i.e nulle pour t n´egatif), alors, on d´efinit la transform´ee de Laplace de f (t) par : Z
+∞
F (p) =
f (t)e−pt dt
0
(relation biunivoque entre f (t) et F (p)). • Th´eor`eme de la d´eriv´ee : df (t) = pL(f (t)) − f (0+ ) L dt • Th´eor`eme du produit : L(f (t))L(g(t))
= L(f ? g(t))
o` u ? est le produit de convolution. • Transform´ee de Laplace d’un vecteur :
x1 (t) L(x1 (t)) .. si x(t) = ... alors L(x(t)) = . xn (t) L(xn (t)) 3
3 3.1
Transfert Fonction de transfert (syst` eme monovariable)
• Si le syst`eme est lin´eaire stationnaire continu i.e si les signaux d’entr´ee et de sortie sont reli´es par une ´equation diff´erentielle `a coefficients constants, • Si les conditions initiales sont nulles, alors par le th´eor`eme de la d´eriv´ee, on obtient : Y (p) = G(p)U (p) avec G(p) fraction rationnelle en p. G(p) est appel´ee fonction de transfert du syst`eme. Pour obtenir la r´eponse du syst`eme a` une entr´ee quelconque, il suffit d’utiliser la transform´ee de Laplace inverse : Z +∞ −1 y(t) = L (Y (p)) = g ? u(t) = g(τ )u(t − τ ) dτ −∞
o` u g(t) est la r´eponse impulsionnelle du syst`eme (transform´ee de Laplace inverse de la fonction de transfert). D’apr`es le principe de causalit´e, on obtient donc : Z t g(τ )u(t − τ ) dτ y(t) = g ? u(t) = 0
La fonction de transfert (ou de mani`ere ´equivalente la r´eponse impulsionnelle du syst`eme) est une rep´esentation entr´ee/sortie du syst`eme, appel´ee aussi repr´esentation externe.
3.2
Matrice de transfert
Dans le cas d’un syst`eme lin´eaire sationnaire multivariable, si les conditions initiales sont nulles, on obtient : Y (p) = G(p)U (p) o` u U (p) et Y (p) sont les transform´ees de Laplace des signaux (vectoriels) d’entr´ee et de sortie et o` u G(p) est cette fois une matrice rationnelle (p×m), appel´ee matrice de transfert.
4
Prise en compte des conditions initiales
Si les conditions initiales sont non nulles, alors, une repr´esentation externe ne suffit plus. L’´etude du comportement du syst`eme n´ecessite une repr´esentation interne. On ´ecrit le syst`eme dynamique sous la forme : x(t) ˙ = f (x(t), u(t), t), x0 = x(t0 ) (Σ) y(t) = ρ(x(t), u(t), t) 4
Automatique
Si les conditions initiales sont en nombre suffisant, et si les fonctions f et g sont suffisamment r´eguli`eres, le syst`eme (Σ) admet une solution unique. Le vecteur x(t) est alors appel´e vecteur d’´etat du syst`eme (vecteur ∈ IRn ) et (Σ) est une repr´esentation interne du syst`eme. Propri´ et´ e: Tout le pass´e est r´esum´e dans l’´etat, soit : x(t) = φ(t0 , t, x(t0 ), u[t0 ,t] ) = φ(t1 , t, x(t1 ), u[t1 ,t] ) ∀t ∈ [t0 , t1 ] u(t) = u˜(t) ∀t ∈ [t0 , t1 ] x(t0 ) = x ˜ (t0 )
⇒ x(t) = x ˜ (t) ∀t ∈ [t0 , t1 ] Notion d’état
état
u(t)
u(t)=u~(t)
x(t ) 0
u~(t)
t0
5
temps
t1
Lin´ earisation autour d’un point de fonctionnement
On lin´earise autour d’un point de fonctionnement (trajectoire admissible) (x∗ , y ∗ , u∗ ) en faisant le changement de variables : ∗ x˜(t) = x(t) − x y˜(t) = y(t) − y ∗ u˜(t) = u(t) − u∗ ( x(t) ˙ = f (x, u, t) y(t) = ρ(x, u, t)
( x˜˙ (t) = f (˜ x + x∗ , u˜ + u∗ , t) devient y(t) = ρ(˜ x + x∗ , u˜ + u∗ , t) − y ∗ 5
Examinons le cas monovariable et o` u l’´etat n’a qu’une composante. On fait alors un d´eveloppement limit´e au premier ordre de f et ρ : ∂f ∗ ∗ ∂f ∗ ∗ (x , u , t)˜ x+ (x , u , t)˜ u x˜˙ (t) = f (x∗ , u∗ , t) + ∂ x˜ ∂ u˜ soit, x˜˙ (t) = f (x∗ , u∗ , t) + a˜ x + b˜ u. Si (x∗ , y∗) est un point d’´equilibre, on a f (x∗ , u∗ , t) = 0 De mˆeme, ∂ρ ∗ ∗ ∂ρ ∗ ∗ y˜(t) = ρ(x∗ , u∗ , t) + (x , u , t)˜ x+ (x , u , t)˜ u − y∗ ∂ x˜ ∂ u˜ soit y(t) = c˜ x + d˜ u. Dans le cas multivariable stationnaire, on peut montrer que le syst`eme lin´earis´e est x(t) ˙ = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) avec
∂fi ∗ ∗ A= (x , u ) i = 1 `a n ∂xj j = 1 `a n ∂ρi ∗ ∗ C= (x , u ) i = 1 a` p ∂xj j = 1 a` n
6
∂fi ∗ ∗ B= (x , u ) i = 1 a` n ∂uj j = 1 a` m ∂ρi ∗ ∗ D= (x , u ) i = 1 `a p ∂uj j = 1 `a m
Automatique
Deuxi` eme partie
Syst` emes lin´ eaires stationnaires 1
Syst` eme lin´ eaire stationnaire continu
1.1
Equations d’´ etat
Dans le cas d’un syst`eme lin´eaire stationnaire continu, la repr´esentation interne est : x(t) ˙ = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t) A, B, C, D ´etant des matrices constantes. Remarque : syst`eme non lin´eaire A(x, u), . . ., non stationnaire A(t), . . . • A matrice d’´evolution (ou de dynamique) (∈ IRn×n ) • B matrice de commande (ou d’entr´ee) (∈ IRn×m ) • C matrice d’observation (ou de sortie) (∈ IRp×n ) • D matrice de transmission directe (∈ IRp×m ) On appelle matrice de transition d’´etat la matrice φ(t, t0 ) telle que la solution du syst`eme libre (u(t) = 0∀t) est x(t) = φ(t, t0 )x0 .
1.2
R´ esolution du syst` eme x(t) = y(t) =
1.3
e
A(t−t0 )
t
Z x0
eA(t−τ ) Bu(τ )dτ
+ t0
r´eponse syst`eme libre A(t−t0 )
Ce
r´eponse forc´ee ´etat initial nul Z
x0
t
+
CeA(t−τ ) Bu(τ )dτ
t0
Calcul d’une exponentielle de matrice
• D´eveloppement en s´erie eAt = I + At +
A2 t2 Ak tk + ··· + ··· 2 k!
(`a ´eviter sauf si A nilpotente ou involutive) • Transform´ee de Laplace inverse eAt = L−1 (pI − A)−1 7
• Changement de base (diagonalisation ou forme de Jordan) Soient v i les vecteurs propres de A
Av i = λi v i
– Si A poss`ede n vecteurs propres ind´ependants, alors A est diagonalisable. Soit T la matrice form´ee des vecteurs propres et Λ la matrice diagonale ayant les valeurs propres de A sur la diagonale :
λ1 ..
T = (v 1 | v 2 | . . . | v n ) Λ =
. λn
AT = A (v 1 | v 2 | . . . | v n ) = (v 1 | v 2 | . . . | v n )
λ1 ..
. λn
= TΛ
Or il est simple de montrer que eΛt = diag eλi t et que
eAt = T eΛt T −1
– Sinon, A poss`ede des vecteurs propres et des vecteurs propres g´en´eralis´es. On peut alors mettre A sous forme de Jordan On d´ecompose J en J = Λ + Z, o` u Λ est diagonale et Z nilpotente. Λ et Z commutant, on obtient eJt = eΛt eZt . 8
Automatique
multiplicit´e de λi
2
nb de vect. propres ind´ependants n − rg(λI − A)
Bloc de Jordan
1
λi 1 0 λi
2
λi 0 diagonalisable 0 λi
3
λi 1 0 0 λi 1 1 bloc de dim 3 0 0 λi
1
λi 1 0 λi 0 0 0 λi 0 ou 0 λi 1 0 0 λi 0 0 λi
2
λi 0 0 0 λi 0 diagonalisable 0 0 λi
3
2
Lien entre repr´ esentation interne et repr´ esentation externe
Si les conditions initiales sont nulles, alors en prenant la transform´ee de Laplace des ´equations d’´etat et de sortie, on obtient le matrice de transfert : G(p) = C(pI − A)−1 B + D Le syst`eme est strictement propre si D = 0 (pas de lien direct entr´ee/sortie, le syst`eme ne laisse pas passer les impulsions), il est juste propre sinon. Exemple (cf cours) ; “on ne voit pas tout sur le transfert”. R´eciproquement, comment obtenir une r´ealisation a` partir d’une fonction de transfert ? (p) . On ´etudiera seulement les syst`emes monovariables. Notons G(p) = N D(p) ◦ ◦ • Si d (N (p)) = d (D(p)), alors, il existe une partie enti`ere (qui donne la matrice D) 1 (p) d’o` u, G(p) = q + ND(p) avec d◦ (N1 (p)) < d◦ (D(p)) (strictement propre). • Si N (p) scalaire, alors, Y (p) N (p) b = = n n−1 U (p) D(p) p + an−1 p + · · · + a0 9
On choisit comme variables d’´etat les d´eriv´ees successives de la sortie et on obtient comme r´ealisation : 0 1 0 ··· 0 0 0 0 1 . .. A= B= 0 1 b −a0 −a1 −an−1 C=
1 0
···
0
A est sous forme compagne : Les coefficients ai sont les coefficients du polynˆome caract´eristique de A : det(λI − A) = λn + an−1 λn−1 + · · · + a1 λ + a0 • Si N (p) polynomial, bm pm + bm−1 pm−1 + · · · + b0 Y (p) = U (p) pn + an−1 pn−1 + · · · + a0 alors, en posant 1 Z(p) = U (p) D(p) et en prenant comme ´etat les d´eriv´ees successives de z, on obtient A et B inchang´ees C = b 0 b 1 · · · bm 0 · · ·
0
• Autres choix possibles. . .
3
Changement de base sur l’´ etat et r´ ealisation On consid`ere la r´ealisation d’´etat suivante : = Ax(t) + Bu(t) x0 = x(t0 ) x(t) ˙ y(t) = Cx(t) + Du(t)
Comme nous le verrons plus loin, il peut ˆetre int´eressant de faire des changements de base dans l’espace d’´etat (afin de ”d´emˆeler” les ´equations). Soit P la matrice de changement de base associ´ee et soit x˜ les coordonn´ees du vecteur d’´etat dans la nouvelle base. On a ainsi x = P x˜. Le syst`eme d’´equations pr´ec´edent devient donc : P x˜˙ (t) = AP x˜(t) + Bu(t) y(t) = CP x˜(t) + Du(t) 10
Automatique
ou encore :
x˜˙ (t) = P −1 AP x˜(t) + P −1 Bu(t), y(t) = CP x˜(t) + Du(t)
x˜0 = P −1 x0
On obtient ainsi une r´ealisation appel´ee r´ealisation ´equivalente o` u les matrices A, B, C, D ˜ = P −1 B, C˜ = CP, D ˜ =D sont remplac´ees respectivement par les matrices A˜ = P −1 AP, B (il est normal que cette derni`ere matrice soit inchang´ee puisque rien n’a ´et´e modifi´e d’un point de vue entr´ee-sortie). On v´erifiera que la matrice de transfert est inchang´ee : ˜ ˜ −1 B ˜ +D ˜ G(p) = C(pI − A)−1 B + D = C(pI − A)
4
Modes d’un syst` eme
= Ax(t) est donn´ee par x(t) = eAt x0 . La r´eponse du syst`eme libre x(t) ˙ * Si A est diagonalisable, • si x0 est un vecteur propre de A, A2 t2 x(t) = eAt x0 = (I + At + + · · · )v i 2 λ2 t2 = (1 + λi t + i + · · · )v i = eλi t v i 2 La trajectoire libre est donc une droite que l’on parcourt plus ou moins vite selon la valeur de λi . Les couples (λi ,v i ) sont appel´es modes du syt`eme (direction et ”vitesse” dans cette direction). • si x0 est quelconque A ´etant diagonalisable, on peut d´ecomposer x0 sur la base des vecteurs propres : x0 =
n X
αi v i
i=1
La trajectoire obtenue est donc une combinaison lin´eaire des trajectoires propres. * Si A n’est pas diagonalisable, par exemple, bloc de Jordan tn−1 1 t ··· (n−1)! λt .. eJt = . t e 1 • Si x0 est un vecteur propre de A. x(t) = eλt x0 • Si x0 est un vecteur propre g´en´eralis´e la trajectoire est une combinaison des eλt , teλt , 11
t2 λt e 2
...
5
Stabilit´ e
5.1
Rappels sur la stabilit´ e d’une repr´ esentation externe
La r´eponse d’un syst`eme a` une entr´ee quelconque ´etant le produit de convolution de la r´eponse impulsionnelle et de l’entr´ee, on va s’int´eresser `a la transform´ee de Laplace inverse de la fonction de transfert. Soient pi les pˆ oles de G(p) : • si tous les pˆoles sont simples, on d´ecompose G(p) en ´el´ements simples : G(p) =
n X i=1
L−1
; g(t) =
n X
ki p − pi
ki epi t (r´eponse impulsionnelle)
i=1
• s’il existe des pˆoles multiples r´eels : G(p) =
mi r X X i=1 l=1
L−1
; g(t) =
mi r X X
ki,l (p − pi )l
ki,l tl−1 epi t
i=1 l=1
• s’il existe des pˆoles complexes pi = σi + jωi , la r´eponse impulsionnelle fera intervenir eσi t sin ωi t . . . Enfin, la r´eponse a` une entr´ee quelconque ´etant le produit de convolution de la r´eponse impulsionnelle et de l’entr´ee, on obtient le r´esultat (connu) suivant : Le syst`eme est stable ssi tous les pˆoles de la fonction de transfert sont `a partie r´eelle n´egative. On distingue deux types de stabilit´e : la stablit´e au sens de Lyapounov et la stabilit´e asymptotique que l’on va ´enoncer dans le cas d’un repr´esentation interne.
5.2
Stabilit´ e au sens de Lyapounov
Un syst`eme est stable au sens de Lyapounov si lorsqu’on l’´ecarte (l´eg`erement) d’un point d’´equilibre, il reste au voisinage de ce point : ∀ ε ∃ δ tq ||x0 || ≤ δ ⇒ ||x(t, x0 )|| < ε Soient λi les valeurs propres de la matrice d’´evolution A d’une repr´esentation d’´etat, alors on obtient le r´esultat suivant : Le syst`eme est stable au sens de Lyapounov ssi Re(λi ) ≤ 0 ∀λi . 12
Automatique
5.3
Stabilit´ e asymptotique
Un syst`eme est asymptotiquement stable si lorsqu’on l’´ecarte (l´eg`erement) d’un point d’´equilibre, il y revient : ∃ δ tq ||x0 || < δ ⇒
x(t, x0 ) → 0 quand t → ∞
soit avec les mˆemes notations que pr´ec´edemment : Le syst`eme est stable au sens de Lyapounov ssi Re(λi ) < 0 ∀λi .
6
Syst` eme discret lin´ eaire stationnaire
Dans le cas d’un syst`eme lin´eaire stationnaire `a temps discret , les ´equations diff´erentielles sont remplac´ees par des ´equations r´ecurrentes : xk+1 = φ xk + Γ uk , xk0 = x0
yk
= H xk (+Duk )
φ, Γ, H ´etant des matrices constantes. Remarque : syst`eme non lin´eaire φ(x, u), non stationnaire φk . On obtient ais´ement la relation entre une r´ealisation discr`ete et la matrice de transfert du syst`eme : G(z) = H(zI − φ)−1 Γ + D
6.1
R´ esolution du syst` eme xk+1 = yk
6.2
=
k+1−k0
φ
x0
k X
+
φk−i Γui
i=k0
r´eponse syst`eme libre Hφk−k0 x0
r´eponse ´etat initial nul +
k−1 X
Hφk−1−i Γui + Duk
i=k0
Calcul d’une puissance de matrice
• Transform´ee en z Soit X(z) = Z(xk ), Z(xk+1 )
= z(X(z) − x0 ) (CI non nulles)
Or, z(X(z) − x0 ) = φX(z), d’o` u φk = Z−1 z(zI − φ)−1 13
• Changement de base (diagonalisation ou forme de Jordan) J = P −1 φP φk = P J k P −1
6.3
J k facile `a calculer
Stabilit´ e
Idem que dans le cas continu en rempla¸cant le demi-plan gauche par le cercle unit´e (Re(pi ) < 0 par |zi | < 1).
7
Discr´ etisation d’un syst` eme continu
On suppose que la p´eriode d’´echantillonnage est T et qu’en entr´ee on a bloqueur d’ordre z´ero, soit u(τ ) = u(kT ) kT ≤ τ < (k + 1)T , d’o` u: AT
x((k + 1)T ) = e
Z
(k+1)T
x(kT ) +
eA((k+1)T −τ ) Bdτ u(kT )
kT
soit
φ = eAT Z
(k+1)T
e
Γ =
A((k+1)T −τ )
Z Bdτ = 0
kT
14
T
eAv Bdv
Automatique
Troisi` eme partie
Implantation d’une loi de commande par retour d’´ etat 1
Commandabilit´ e
1.1
D´ efinition
• En continu : = Ax(t) + Bu(t) est compl`etement commandable au Le syst`eme lin´eaire stationnaire x(t) ˙ temps t0 , ssi pour tout ´etat initial x(t0 ) = x0 et tout ´etat x1 , il existe un temps fini t1 > t0 et une entr´ee u[t0 ,t1 ] qui permet de passer de l’´etat x(t0 ) `a l’´etat x(t1 ) `a l’instant t1 . On parle de commandabilit´e de la paire (A, B). En continu, il est ´equivalent de prendre x(t0 ) = 0. • En discret : xk+1 = φxk + Γuk est CC ssi son ´etat xk peut ˆetre transf´er´e de l’´etat x0 = 0 a` l’instant t0 a` un ´etat quelconque x dans un intervalle de temps fini, [t0 , to + f T ].
1.2
Crit` ere de commandabilit´ e
• En continu (A, B) CC ssi la matrice de commandabilit´e CA,B = B | AB | · · · | An−1 B
est de rang n. Remarque : on appelle indice de commandabilit´e l’entier k tq rang B | AB | · · · | Ak−1 B = n • En discret (φ, Γ) CC ssi Cφ,Γ = Γ | φΓ | · · · | φn−1 Γ est de rang n
1.3
Forme canonique commandable
On ne s’int´eresse qu’aux syst`emes monoentr´ee (la matrice B est alors un vecteur colonne). 15
Si le syst`eme est compl`etement commandable, alors il existe une 0 1 0 ··· 0 0 0 1 .. ˜= A˜ = B . 1 −a0 −a1 −an−1
base o` u 0
0 b
Comme pour la forme de Jordan, pour trouver le changement de base associ´e, on part de la forme que l’on veut obtenir : A˜ = M −1 AM M A˜ = AM ; n ´equations vectorielles dont une v´erifi´ee (th. Cayley Hamilton) ; un degr´e de libert´e : le vecteur mn . Si le syst`eme est compl`etement commandable, alors on peut choisir mn = B et la matrice obtenue est alors inversible.
1.4
Propri´ et´ es
• On ne “voit” pas les modes non-commandables sur le transfert (simplification pˆolez´ero) • La commandabilit´e est invariante par changement de base sur l’´etat. • La commandabilit´e est invariante par retour d’´etat. Remarque : L’observation n’intervient pas dans la commandabilit´e.
2 2.1
Observabilit´ e D´ efinition
– En continu :
x˙ = Ax + Bu est compl`etement observable y = Cx a` t0 , si pour tout ´etat x0 a` l’instant t0 , , il existe t1 (> t0 ) fini tel que la connaissance de u[t0 ,t1 ] et y[t0 ,t1 ] soit suffisante pour d´eterminer de mani`ere unique l’´etat x0 initial. NB : la commande n’intervient pas dans l’observabilit´e (on supposera u(t) = 0). On parle d’observabilit´e de la paire (C, A). Le syst`eme est CO a` t0 ssi ∃t1 > t0 fini tq {y(t, t0 , x0 ) = 0∀ t ∈ [t0 , t1 ]} ⇒ x0 = 0. – En discret : la d´efinition est analogue au cas continu, mais il existe une diff´erence entre • observabilit´e (on “veut” x0 ) • reconstructibilit´e (on “veut” x1 ) Le syst`eme lin´eaire stationnaire continu
16
Automatique
2.2
Crit` ere d’observabilit´ e
(C, A) CO ssi la matrice d’observabilit´e C CA OC,A = .. est de rang n. . CAn−1
2.3
Dualit´ e observabilit´ e–commandabilit´ e
• (A, B) CC ssi (B T , AT ) CO. • Forme canonique observable : utiliser la dualit´e • Propri´et´es : idem que celles du § 1.4
3
Minimalit´ e
D´ efinition : Soit (A, B, C, D) une r´ealisation associ´ee a` une matrice de transfert G(p). Soit n0 la dimension de l’´etat associ´e. Alors, cette r´ealisation est minimale ssi toute autre r´ealisation est d’ordre n ≥ n0 . Propri´ et´ e: Un syst`eme est minimal ssi il est compl`etement commandable et compl`etement observable.
4
D´ ecomposition canonique dans l’espace d’´ etat
4.1
Sous-espace de commandabilit´ e
D´ efinition : = Ax(t) + Bu(t). On appelle sous-espace de commandabilit´e le Soit le syst`eme x(t) ˙ sous-espace vectoriel engendr´e par les ´etats qui peuvent ˆetre atteints a` partir de l’´etat nul en un temps fini. Propri´ et´ e: Le sous-espace de commandabilit´e est engendr´e par les colonnes de la matrice de commandabilit´e.
4.2
D´ ecomposition d’un syst` eme non commandable
Supposons (A, B) non CC (avec B = 6 0) alors il existe une base o` u le syst`eme s’´ecrit A11 A12 x1 B1 x˙ = + u 0 A22 x2 0 17
avec dim(A11 ) = r = rg(CA,B ) X
=
⊕
C
↑ commandable
X2
↑ non commandable
vp de A11 ; modes commandables vp de A22 ; modes non-commandables
4.3
Sous-espace non observable
D´ efinition :
x˙ = Ax (+Bu) On appelle sous-espace non observable le sousy = Cx espace vectoriel engendr´e par les ´etats qui donnent une sortie nulle sur un intervalle de temps non nul (commande suppos´ee nulle). Propri´ et´ e: Le sous-espace non observable co¨ıncide avec le noyau de la matrice d’observabilit´e : Soit le syst`eme
N
4.4
= KerOC,A
D´ ecomposition d’un syst` eme non observable
Supposons (C, A) non CO (avec C 6= 0) alors il existe une base o` u le syst`eme s’´ecrit x˙ =
y =
A11 0 A21 A22
C1
x1 B1 + u x2 B2
x1 0 x2
avec (C1 , A11 ) CO dim(A11 ) = rg(OC,A ) (n − r = dim(Ker(OC,A )) ) vp de A11 ; modes observables vp de A22 ; modes non-observables
5
Commande par retour d’´ etat • Commande par retour de sortie Loi de commande u(t) = −Ky(t) + v(t) v “nouvelle(s)” entr´ee(s). 18
Automatique
• Commande par retour d’´etat On se sert des dynamiques propres au syst`eme (peu coˆ uteux) commande plus “riche” u(t) = −Kx(t) + v(t) Probl`eme : Peut-on choisir les dynamiques du syst`eme boucl´e ? Th´ eor` eme : Soit Λ un ensemble de n complexes sym´etrique (λi ∈ Λ ⇒ λ∗i ∈ Λ), alors il existe K tq le spectre de A − BK soit ´egal a` Λ ssi (A, B) est CC. • Si le syst`eme n’est pas CC : ; on ne peut plus placer le spectre a` volont´e. On se sert de la base o` u X = C ⊕ X2 . Les vp correspondant a` A22 ne peuvent ˆetre modifi´ees par retour d’´etat. • Syst`eme stabilisable : les modes non commandables sont stables.
6
Observateur
La commande par retour d’´etat n´ecessite la connaissance de l’´etat du syst`eme. Or, on ne connaˆıt que la sortie. On va donc construire une estim´ee de l’´etat `a partir de ce dont on dispose. ˙ ˆ = Aˆ x + Bu + G (y − C x ˆ) x | {z } innovation
yˆ = C x ˆ
G est le gain de l’observateur (n × p) Soit ε l’erreur d’estimation, ε˙ = (A − GC) ε CNS pour que ε(t) → 0, t → ∞ : les valeurs propres de (A − GC) doivent ˆetre `a partie r´eelle n´egative. Th´ eor` eme : On peut placer le spectre de l’observateur a` volont´e ssi la paire (C, A) est CO. Observateurs minimaux : th´eorie de Luenberger, il est inutile de reconstruire tout l’´etat puisque y nous donne d´ej`a des informations. 19
7
Association d’un observateur et d’une commande par retour d’´ etat
On r´ealise la commande `a l’aide de l’´etat estim´e (puisque on ne dispose pas de tout l’´etat). La loi de commande devient alors : u = −K x ˆ + Lv, soit pour le syst`eme total : x˙ A − BK BK x BL = + v ε˙ 0 A − GC ε 0 y
=
x C 0 ε
Principe de s´eparation 1 : σ(A) = σ(A − BK) ∪ σ(A − GC) On r`egle s´epar´ement chacun des deux spectres (attention aux “vitesses”).
1. en notant σ le spectre de la matrice consid´er´ee i.e l’ensemble de ses valeurs propres
20