MATRICE (XXII, p. 572)
Teoria delle matrici. - I principali elementi della teoria delle m. sono già stati dati. Qui vogliamo, anzitutto, giustificare le regole del calcolo delle m. (alcune delle quali appaiono a prima vista un po' artificiose), sulla base della teoria delle sostituzioni lineari.
1. Spazi vettoriali e matrici. - Siano V e W due spazi vettoriali di dimensione finita rispettivamente eguale a m ed n sopra un campo C (per es., sul campo reale). Un'applicazione f di V in W si dice "lineare" se, comunque si prendano v1, v2 in V e c1, c2 in C, si ha (c1v1 + c2v2)f = c1(v1f) + c2(v2f). Siano v1, ..., vm gli elementi di una base di V, e w1, ..., wn quelli di una base di W. Allora la f porta vi (i = 1, ..., m) in un elemento di W, che si esprimerà quindi come combinazione lineare di w1, ..., wn. Sarà cioè
Alla f si può quindi associare la m.
a m righe ed n colonne, a elementi in C. Viceversa, ogni tale m. è associata a un'applicazione lineare di V in W.
Se f1, f2 sono due applicazioni lineari di V in W, si dice "somma" di f1 e f2 l'applicazione f1 + f2 così definita: per ogni v in C, è v(f1 + f2) vf1 + vf2. Se alla f1 è associata la m. A = ∥aij∥ e alla f2 la m. B = ∥bij∥, alla f1 + f2 è associata la m. ∥aij + bij∥. Tale m. verrà chiamata "somma" delle due m. A e B, cioè si pone ∥aij∥ + ∥bij∥ = ∥aij + bij∥. Analogamente, se f è un'applicazione lineare di V in W e c un elemento di C, si dice "prodotto" di c per f. l'applicazione così definita: per ogni v ∈ V è v(cf) = (cv)f. Se alla f è associata la m. ∥aij∥++, alla cf è associata la m. ∥caij∥. Si chiamerà perciò "prodotto scalare" di c per A = ∥aij∥ la m. ∥caij∥. Rispetto a dette operazioni di somma e di prodotto scalare, le m. a m righe ed n colonne a elementi in C formano uno spazio vettoriale su C di dimensione mn.
Siano ora V, W, X tre spazi vettoriali di dimensioni m, n, p su C, sia f un'applicazione lineare di V in W, e f1 un'applicazione lineare di W in X. Allora si dice "prodotto" di f1 per f2 l'applicazione f1 f2 di V in X così definita: per ogni v in V è v(f1f2) = (vf1)f2. Se ∥aij∥ (i =1, ..., m; j =1, ..., n) è la m. a m righe e n colonne associata a f1, e ∥bij∥ (i = 1, ..., n; j = 1, ..., p) la m. a n righe e p colonne associata a f2, si ha che la m. a m righe e p colonne associata a f1 f2 è
La m. ∥cij∥ (i = 1, ..., m; j = 1, ..., p) è detta "prodotto" delle due m. ∥aij∥ e ∥bij∥. Si noti che il prodotto di due m. è definito quando il numero delle colonne della prima m. coincide con quello delle righe della seconda. In particolare esso risulta definito quando le due m. sono ambedue quadrate dello stesso ordine.
L'insieme di tutte le m. quadrate di ordine n, a elementi in un campo C, risulta essere, rispetto alle operazioni di somma e prodotto sopra definite, un anello con unità, e più in particolare un'algebra di dimensione n rispetto a C.
Si possono considerare, oltre alle m. a elementi in un campo, anche m. a elementi in un dominio d'integrità, e in particolare m. i cui elementi sono polinomi in una o più indeterminate a coefficienti in un campo.
2. Relazioni di equivalenza tra matrici. - A seconda delle particolari utilizzazioni, si possono definire nell'insieme delle m. di dato tipo diverse relazioni di equivalenza (cioè relazioni godenti delle proprietà riflessiva, simmetrica e transitiva) e conseguentemente suddividere l'insieme stesso in classi di equivalenza rispetto alla relazione considerata: m. appartenenti alla stessa classe vengono a risultare, sotto molti aspetti, sostituibili l'una con l'altra ai fini della particolare utilizzazione che ha suggerito la relazione stessa. Si pone allora il problema d'individuare, entro ciascuna classe di equivalenza, una m. di forma particolarmente semplice. Diamo qui gli esempi più comuni e significativi.
Si consideri un sistema di m equazioni lineari a n incognite a coefficienti in un campo C:
Si ponga
Allora il sistema [1] può scriversi in forma matriciale
Due sistemi lineari si dicono equivalenti se ogni soluzione del primo sistema è soluzione del secondo e viceversa. Alcune operazioni elementari sulle equazioni del sistema permettono di trasformarlo in un sistema equivalente, ma di più facile soluzione: esse sono lo scambio di due equazioni, la moltiplicazione di un'equazione per un elemento ≠ 0 di C, il sommare a un'equazione una combinazione lineare delle altre. A queste operazioni sul sistema corrispondono altrettante operazioni sulla m. A. Due m. si diranno "equivalenti per righe" se sono ottenute l'una dall'altra mediante un numero finito di operazioni di tale tipo. Due m. A, Ā a m righe ed n colonne sono equivalenti per righe se e solo se Ā =
HA, con H conveniente m. quadrata non singolare d'ordine m a elementi in C. La relazione di equivalenza per righe è riflessiva, simmetrica e transitiva.
In modo simile si può definire per le m. a m righe ed n colonne a elementi in C una relazione di equivalenza per colonne: due m. A, Ā??? a m righe ed n colonne sono "equivalenti per colonne" se è Ā??? = AK con K conveniente m. quadrata non singolare d'ordine n a elementi in C. Infine, due m. A, A* a m righe ed n colonne si diranno "equivalenti per righe e colonne" se esistono due m. quadrate non singolari H e K a elementi in C, rispettivamente di ordini m ed n, tali che A* = HAK. Si dimostra che ogni m. A a m righe ed n colonne a elementi in C è equivalente per righe e colonne a una m. della forma
ove Ir è la m. identica d'ordine r a elementi in C (cioè con gli elementi della diagonale principale eguali all'unità, e gli altri nulli), mentre con 0 si sono indicate tre m. a elementi tutti nulli e tali che la A0 risulti a m righe ed n colonne. Il numero r, che è un invariante rispetto all'equivalenza per righe e colonne, si dice "rango" di A.
3. Matrici simmetriche. - Sia C un campo di caratteristica ≠ 2. Si dice "forma quadratica" di dimensione n su C un polinomio della forma
con gli aij in C, aij = aij (i,j = 1, ..., n) e le xi indeterminate (i = 1, ..., n). Alla forma f è associata la m. simmetrica ∥aij∥ d'ordine n a elementi in C.
Posto
la f può scriversi f = X′AX, ove si convenga d'indicare con H′ la trasposta di una m. generica H.
Si consideri una sostituzione lineare invertibile sulle indeterminate xi a coefficienti in C
Posto P = ∥pij∥ si ha che P è una m. quadrata non singolare d'ordine n a elementi in C. La sostituzione può quindi scriversi nella forma X = PY, avendo posto
Eseguita tale sostituzione nella f, essa diviene Y′P′APY a cui è associata la m. simmetrica B - P′AP.
Date due m. simmetriche A, B di ordine n a elementi in C, diremo che B è "congrua" ad A se esiste una m. quadrata P non singolare d'ordine n a elementi in C tale che sia B = P′AP. Tale relazione tra m. è una relazione di equivalenza (cioè riflessiva, simmetrica e transitiva).
Ogni m. simmetrica d'ordine n su C è congrua a una m. diagonale D (cioè in cui tutti gli elementi fuori della diagonale principale sono nulli). Il numero degli elementi ≠ 0 di D eguaglia il rango di A.
Se C è il campo reale, A è congrua a una m. della forma
ove r è il rango di A, e p un intero > 0, univocamente determinato da A, e detto "indice" di A.
4. Matrici hermitiane. - Sia ora C il campo complesso. Si dice m. t[ hermitiana) i una m. quadrata ∥aij∥ (i, j = 1, ..., n) a elementi in C tale che, per ogni valore di i e j, aij è il complesso coniugato āij di aij. Di conseguenza, in una m. hermitiana, i termini della diagonale principale sono reali. Si dice "forma hermitiana " un polinomio della forma
Alla forma hermitiana f. è associata una m. hermitiana ∥aij∥.
Se A e B sono m. hermitiane d'ordine n si dice che B è "congrua" ad A se è B = Ä′AP, con P conveniente m. complessa non singolare d'ordine n e Ä′ trasposta della complessa coniugata di P. Ogni m. hermitiana è congrua a una m. della forma [3].
5. Equazione caratteristica di una matrice. - Abbiamo visto che, dato uno spazio vettoriale V di dimensione n su un campo C, e considerata una base v = (v1, ..., vn) di V e un'applicazione lineare di V in V, resta associata a f e v una m. quadrata A d'ordine n a elementi in C. Se si esegue in V un cambiamento di base, a f e alla nuova base resta associata la m. P-1 AP, P essendo la m. quadrata non singolare d'ordine n relativa al cambiamento di base. Una m. B d'ordine n si dice "simile" ad A se appunto è B = P-1 AP con P m. non singolare conveniente. La relazione di similitudine tra m. è una relazione di equivalenza. Data una m. A, interessa individuare, tra quelle a essa simili, una m. di tipo particolarmente semplice, detta "forma canonica". La teoria delle forme canoniche è piuttosto complicata, anche perché vi sono varie specie di forme canoniche: ci limiteremo alla forma canonica classica (o di Jordan) e al caso del campo complesso.
Data una m. A di ordine n a elementi in C, ha particolare interesse la m. xI − A a elementi nel dominio d'integrità C[x] dei polinomi, a coefficienti in C, nell'indeterminata x, ove I è la m. identica d'ordine n. Essa si chiama m. "caratteristica" di A.
Se A = ∥aij∥ (i,j − 1, ..., n) si ha
L'equazione in x: ∣xI − A∣ = 0 si dice "equazione caratteristica" di A. Sia g il massimo comune divisore dei minori d'ordine t che si possono estrarre dalla m. xI − A. Si ha ovviamente gn = ∣xI - A∣, e, per note proprietà dei determinanti, gt-1 divide gt(t = 2, ..., n). Si ponga ft(x) = gt/gt-1(t = 2, ..., n), f1(x) = g1. I polinomi f1(x), ..., fn(x) si dicono "invarianti per similitudine" della A, perché non cambiano se al posto della A si considera una m. a essa simile. Si dimostra che ft-1(x) divide ft(x) (t = 2, ..., n).
Sia
ove p1(x), ..., ps(x) sono polinomi irriducibili su C e monici (cioè col coefficiente del termine di grado massimo =1), ed e1, ..., es interi > 0. Allora è
con gli eij ≥ 0, e con ei+1,j ≥ eij. I polinomi
per i quali è eij > 0, sono chiamati i "divisori elementari" della A.
Per semplicità, consideriamo il caso particolare in cui C sia il campo complesso (o, almeno, un campo algebricamente chiuso, in cui cioè ogni polinomio irriducibile è di primo grado). Allora pj(x) = x − bj con bj in C(i = 1, ..., s). Si associ a ogni divisore elementare
la m. d'ordine eij;
in cui gli unici elementi ≠ 0 sono quelli della diagonale principale, che sono eguali a bj, e quelli della diagonale immediatamente sovrastante la principale che sono eguali a1.
Siano
i divisori elementari che sono potenze di x − bi. Allora la A è simile a una m. costituita dai blocchi
disposti lungo la diagonale principale e con tutti gli altri elementi nulli. Detta m. è chiamata "forma canonica di Jordan".
6. Matrici ortogonali, unitarie, normali. - Ricordiamo che una m. quadrata A = ∥aij∥ d'ordine n a elementi reali si dice h ortogonale" se, detta A′ la trasposta di A, è A′ = A-1 cioè se è
e
Date due m. quadrate A,B d'ordine n a elementi reali si dice che B è "ortogonalmente simile" ad A se esiste una m. ortogonale P tale che B = P-1AP. La relazione di similitudine ortogonale è una relazione di equivalenza. Una m. reale è ortogonalmente simile a una m. diagonale se e solo se è simmetrica.
Una m. quadrata A = ∥aij∥ d'ordine n a elementi complessi si dice "unitaria" se, detta Ā la complessa coniugata di A, e Ā′ la n trasposta di A è A-1 = Ā′, cioè se è
e
Date due m. quadrate A, B d'ordine n a elementi complessi si dice che B è "unitariamente simile" ad A se esiste una m. unitaria P tale che B = P-1AP. Una m. quadrata A a elementi complessi si dice "normale" se AĀ′ = Ā′A. Una m. quadrata a elementi complessi è unitariamente simile a una m. diagonale se e solo se è nommale. Tra le m. normali figurano le m. hermitiane e le m. reali simmetriche.
7. Applicazioni delle teorie delle matrici. - Il massiccio uso della teoria delle m. nelle più diverse applicazioni ha reso necessario studiare i procedimenti da seguire per effettuare nel modo più rapido possibile calcoli numerici sulle matrici. I problemi di tale tipo che si presentano più frequentemente sono quelli di risolvere un sistema lineare di equazioni in più incognite, quello di calcolare l'inversa di una m. data, e quello di determinare gli autovalori e gli autovettori di una matrice. Data una m. quadrata A d'ordine n, si dicono "autovalori" (o radici caratteristiche) di A le radici della sua equazione caratteristica ∣A − xI∣ = 0. Se x1 è un autovalore, esiste un vettore λ = (λ1, λ2, ..., λn) tale che Aλ = x1λ, tale cioè che la sostituzione lineare legata alla A muti il vettore λ nel vettore x1λ a esso proporzionale. Allora λ si dice un "autovettore" legato all'autovalore x1. La ricerca degli autovalori e degli autovettori interessa moltissime applicazioni (risoluzione di equazioni differenziali e integrali, teoria delle correlazioni, ecc.). Per questo è importante possedere dei metodi rapidi per la determinazione numerica degli autovalori e autovettori.
Non possiamo qui descrivere le tecniche usate per i calcoli numerici relativi alle matrici. Ci limiteremo a far presente che esistono due tipi di metodi: i metodi diretti e i metodi iterativi.
Per illustrare i due tipi di metodi, riferiamoci al problema della soluzione di un sistema di n equazioni lineari in n incognite. I metodi diretti consistono in procedimenti di successive eliminazioni di incognite. I metodi iterativi si applicano con successo quando nella m. dei coefficienti del sistema i termini della diagonale principale sono di un ordine di grandezza nettamente maggiore rispetto agli altri. Mostriamo come si procede con uno dei metodi iterativi.
Il sistema considerato sia
Si ponga
Allora il sistema può scriversi
Supponiamo A non singolare, di modo che il sistema avrà una e una sola soluzione. Se fosse aij = 0 tutte le volte che j ≠ i, la soluzione del sistema sarebbe data dal vettore
Data l'ipotesi sulla dominanza dei termini della diagonale principale, il vettore a risulterà abbastanza "vicino" alla soluzione del sistema. Posto x = a + y nel sistema [4], esso diviene Ay = v − Aa = w.
Sia
Procedendo come sopra anche con questo nuovo sistema, si ottiene per il vettore y il valore approssimato
e per x il valore approssimato a + b. Indi si ripeta l'operazione. Sotto opportune ipotesi, il vettore
converge a un vettore che fornisce la soluzione del sistema [4].
I metodi iterativi si usano con vantaggio nel problema della determinazione degli autovalori di una matrice. Non ci è possibile entrare nei dettagli circa i vari procedimenti numerici usati per questo e per gli altri problemi; per essi rimandiamo alle opere di E. Bodewig, R. Bellman, e A. S. Householder citate nella bibliografia. Facciamo notare infine come tali metodi siano oggi fortemente influenzati dalle esigenze dei grandi elaboratori elettronici.
Bibl.: E. Bodewig, Matrix calculus, Amsterdam 1956; S. Cherubino, Calcolo delle matrici, Roma 1957; S. Perlis, Theory of matrices, Reading, Mass., 1958; R. Bellman, Introduction to matrix analysis, New York 1960; A. S. Householder, Principles of numerical analysis, New York 1960; F. R. Gantmacher, Théorie des matrices, 2 voll., Parigi 1966; J. R. Westlake, A book of numerical matrix inversion and solutions of non-linear equations, New York 1968; L. A. Pipes, S. A. Hovanessian, Matrix-computer methods in Engineering, ivi 1969; S. Barnett, Matrices in control theory, Londra 1971; J. R. Bunch, D. J. Rose, Sparse matrix computations, New York 1976; A. S. Householder, The theory of matrices in numerical analysis, ivi 1976.