Privacy Policy Cookie Policy Terms and Conditions Matrice esponenziale - Wikipedia

Matrice esponenziale

Da Wikipedia, l'enciclopedia libera.


In matematica, più precisamente in algebra lineare, la matrice esponenziale è una funzione analoga alla funzione esponenziale.

La matrice esponenziale viene utilizzata nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici.

Indice

[modifica] Definizione

Sia A una matrice quadrata n \times n a coefficienti reali o complessi. La matrice esponenziale di A, indicata con e^{A} \,\!, è una matrice quadrata n \times n ottenuta con lo sviluppo in serie di potenze

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!}

Questa serie è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A è una matrice 1 \times 1 (quindi A è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione formale della funzione esponenziale.

[modifica] Proprietà

Siano X e Y due matrici complesse di dimensione n \times n e siano a e b due numeri complessi. Si indica la matrice identità con I e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:

[modifica] Calcolo della matrice esponenziale

Per il calcolo della matrice esponenziale eA non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.

Considerando la diagonalizzabilità della matrice A si hanno due casi distinti.

[modifica] Il caso di A diagonalizzabile

Se la matrice A è diagonalizzabile significa che ha n autovalori distinti \lambda_1, \lambda_2, \dots ,\lambda_n. Si può quindi scrivere

\begin{matrix} A \vec{t_1} = \vec{t_1} \lambda_1 \\ A \vec{t_2} = \vec{t_2} \lambda_2 \\ \vdots \\ A \vec{t_n} = \vec{t_n} \lambda_n \end{matrix}


Con \vec{t_n} autovettore associato all'autovalore λn.

Si raggruppano tutti gli autovettori in un'unica matrice

[ \begin{matrix} A \vec{t_1} & \dots & A \vec{t_n} \end{matrix}] = [ \begin{matrix} \vec{t_1} \lambda_1 & \dots & \vec{t_n} \lambda_n \end{matrix}]


A [ \begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix}] = [\begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\  0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}


Ponendo la matrice formata dagli autovettori pari a T e la matrice diagonale degli autovalori pari a Λ si ottiene

A T = T \Lambda \,\!

Introducendo la matrice S, inversa di T, si ottengono le seguenti relazioni

\begin{matrix} S A T = \Lambda \\ A = T \Lambda S \\ S A = \Lambda S \end{matrix}


Dalla seconda relazione si ricava

A^k = (T \Lambda S)^k = T \cdot \Lambda \cdot S \cdot T \cdot \Lambda \cdot S \dots = T \Lambda^k S


Quindi

e^{A} = \sum_{k=0}^\infty \frac{A^k}{k!} = T \left[ \sum_{k=0}^\infty \frac{\Lambda^k}{k!} \right] S = T e^\Lambda S


Si calcola eΛ

e^\Lambda = \sum_{k=0}^\infty \frac{\Lambda^k}{k!} = I + \begin{bmatrix} \lambda_1 & 0 & 0 & \dots \\  0 & \lambda_2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \\ \end{bmatrix} \frac{1}{1!} + \begin{bmatrix} \lambda_1^2 & 0 & 0 & \dots \\  0 & \lambda_2^2 & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n^2 \\ \end{bmatrix} \frac{1}{2!} + \dots =
= \begin{bmatrix} 1 + \frac{\lambda_1}{1!} + \frac{\lambda_1^2}{2!} + \dots & 0 & 0 & \dots \\  0 & 1 + \frac{\lambda_2}{1!} + \frac{\lambda_2^2}{2!} + \dots  & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & 1 + \frac{\lambda_n}{1!} + \frac{\lambda_n^2}{2!} + \dots  \\ \end{bmatrix} = \begin{bmatrix} e^{\lambda_1} & 0 & 0 & \dots \\  0 & e^{\lambda_2} & 0 & \dots \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & e^{\lambda_n} \\ \end{bmatrix}


Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta

S A = \Lambda S \Rightarrow (S A)^T = (\Lambda S)^T \Rightarrow A^T S^T = S^T \Lambda^T \Rightarrow A^T S^T = S^T \Lambda


Si può quindi scrivere

A^T [ \begin{matrix}  \vec{s_1^T} & \dots & \vec{s_n^T} \end{matrix}] = [\begin{matrix}  \vec{s_1^T} & \dots & \vec{s_n^T} \end{matrix} ] \begin{bmatrix} \lambda_1 & 0 & 0 & 0 & \dots \\  0 & \lambda_2 & 0 & 0 & \dots \\ 0 & 0 & \lambda_3 & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & \lambda_n \\ \end{bmatrix}


Si nota quindi che gli \vec{s_n^T} sono autovettori sinistri di A. Si può quindi partizionare la matrice S per righe

S = \left[ \begin{matrix}  \vec{s_1^T} \\ \vec{s_2^T} \\ \vdots \\ \vec{s_n^T} \end{matrix} \right]

In questo modo si ottiene

e^A = [\begin{matrix}  \vec{t_1} & \dots & \vec{t_n} \end{matrix} ] \begin{bmatrix} e^{\lambda_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{\lambda_n} \\ \end{bmatrix} \left[ \begin{matrix}  \vec{s_1^T} \\ \vdots \\ \vec{s_n^T} \end{matrix} \right] = \vec{t_1}e^{\lambda_1} \vec{s_1^T} + \vec{t_2}e^{\lambda_2} \vec{s_2^T} + \dots + \vec{t_n}e^{\lambda_n} \vec{s_n^T}


In conclusione, nel caso A abbia n autovalori distinti, si ha

e^A = \sum_{k=1}^n \vec{t_k} \cdot \vec{s_k^T} \cdot e^{\lambda_k}

con \vec{t_k} autovettore destro e \vec{s_k^T} autovettore sinistro, entrambi associati all'autovalore λk

[modifica] Il caso di A non diagonalizzabile

Se A non è diagonalizzabile si ricorre alla forma di Jordan.

In questo caso si ha A = T J S  \,\!, con J matrice diagonale a blocchi

J = \begin{bmatrix} J_1 & 0 & 0 & \cdots \\ 0 & J_2 & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & J_k \end{bmatrix}

dove il k-esimo blocco è della forma

J_k = \begin{bmatrix} \lambda_k & 1 & 0 & \cdots \\ 0 & \lambda_k & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} = \begin{bmatrix} \lambda_k & 0 & 0 & \cdots \\ 0 & \lambda_k & 0 & \cdots \\ \vdots & \vdots & \ddots & 0 \\ 0 & 0 & \cdots & \lambda_k \end{bmatrix} + \begin{bmatrix} 0 & 1 & 0 & \cdots \\ 0 & 0 & 1 & \cdots \\ \vdots & \vdots & \ddots & 1 \\ 0 & 0 & \cdots & 0 \end{bmatrix} = \Lambda_k + J_{k0}

Le matrici Jk vengono detti blocchi di Jordan.

Per approfondire, vedi la voce forma canonica di Jordan.

Utilizzando il procedimento seguito nel caso di A diagonalizzabile si ottiene

eA = TeJS

dove

e^J = \begin{bmatrix} e^{J_1} & 0 & 0 & \cdots \\ 0 & e^{J_2} & 0 & \cdots \\ \vdots & \vdots & \ddots & \cdots \\ 0 & 0 & \cdots & e^{J_k} \end{bmatrix}

Si nota che il prodotto delle matrici Λk e Jk0 è commutativo. Si può quindi scrivere

e^{J_k} = e^{\lambda_k I}e^{J_{k0}}

Si calcola ora e^{J_{k0}}

e^{J_{k0}} = \sum_{k=0}^\infty \frac{J_{k0}^k}{k!}

Si verifica facilmente che J_{k0}^k si calcola spostando in alto e a destra la diagonale formata dagli 1

J_{k0} = \begin{bmatrix} 0 & 1 & 0 & 0 & \dots \\ 0 & 0 & 1 & 0 & \dots \\ 0 & 0 & 0 & 1 & \dots \\ \vdots & \vdots & \vdots & \ddots & 1 \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}, J_{k0}^2 = \begin{bmatrix} 0 & 0 & 1 & \dots & 0 \\ 0 & 0 & 0 & 1 & \vdots \\ 0 & 0 & 0 & \dots & \vdots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}
J_{k0}^{\nu_k - 1} = \begin{bmatrix} 0 & 0 & 0 & \dots & 1 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}, J_{k0}^{\nu_k} = \begin{bmatrix} 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ 0 & 0 & 0 & \dots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix}

Dove νk è la dimensione di Jk0. Per potenze superiori a νk si ha la matrice nulla.

Quindi

e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}

Inoltre

e^{\lambda_k I} = \begin{bmatrix} e^{\lambda_k} & 0 & 0 & 0 & \dots \\ 0 & e^{\lambda_k} & 0 & 0 & \dots \\ 0 & 0 & e^{\lambda_k} & 0 & \dots \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \dots & 0 \end{bmatrix} = e^{\lambda_k}I

Quindi il k-esimo blocco di eJ ha la seguente espressione

e^{J_k} = e^{\lambda_k I}e^{J_{k0}} = \sum_{k=0}^{\nu_k - 1} \frac{J_{k0}^k}{k!}e^\lambda_k

La matrice esponenziale vale

e^A = [\begin{matrix}  T_1 & \dots & T_s \end{matrix} ] \begin{bmatrix} e^{J_1} & 0 & \dots \\ \vdots & \ddots & \vdots \\ 0 & \dots & e^{J_n} \\ \end{bmatrix} \left[ \begin{matrix}  S_1^T \\ \vdots \\ S_s^T \end{matrix} \right] = \sum_{k=1}^s[ T_k e^{J_k}S_k^T ] = \sum_{k=1}^s \sum_{i=1}^{\nu_k - 1} \frac{T_k J_{k0}^i S_k^T}{i!}e^{\lambda_k}

dove T_k \in \mathbb{R}^{n \times \nu_k} e S_k^T \in \mathbb{R}^{\nu_k \times n}.

T non è costituita dagli autovettori di A. Il calcolo della matrice di trasformazione T è più complesso rispetto al caso di A diagonalizzabile.

[modifica] Applicazione ai sistemi di equazioni differenziali

Un sistema di equazioni differenziali di ordine n può sempre scritto con n equazioni differenziali del primo ordine.

[modifica] Collegamenti esterni


THIS WEB:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia 2006:

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - be - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - closed_zh_tw - co - cr - cs - csb - cu - cv - cy - da - de - diq - dv - dz - ee - el - eml - en - eo - es - et - eu - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gd - gl - glk - gn - got - gu - gv - ha - haw - he - hi - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mg - mh - mi - mk - ml - mn - mo - mr - ms - mt - mus - my - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - rm - rmy - rn - ro - roa_rup - roa_tara - ru - ru_sib - rw - sa - sc - scn - sco - sd - se - searchcom - sg - sh - si - simple - sk - sl - sm - sn - so - sq - sr - ss - st - su - sv - sw - ta - te - test - tet - tg - th - ti - tk - tl - tlh - tn - to - tokipona - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu