A cura di: Gianni Sammito

Dato $n > 1$, sia $alpha:M_{n}(mathbb{C}) rightarrow M_{n}(mathbb{C})$ l’applicazione definita come: $alpha(M)=M^t$ (l’esponente $t$ indica la trasposizione, mentre $M_{n}(mathbb{C})$ indica lo spazio vettoriale delle matrici quadrate di ordine $n$ a coefficienti complessi).
 
  1. È vero che$alpha$ è lineare? (se no, dire perché e tralasciare le domande successive, se sì dire perché e rispondere anche alle altre domande)
  2. È vero che $alpha$ è invertibile? Se sì, qual è la sua inversa? Se invece no, descrivere $"ker"(alpha)$ e $"Im"(alpha)$.
  3. È vero che $alpha^2 = I$?
  4. Determinare gli autovalori di $alpha$, con le loro molteplicità, algebricae e geometrica.
  5. $alpha$ è diagonalizzabile?
  6. Sia $beta: M_{n}(mathbb{C}) to M_{n}(mathbb{C})$ definita come segue: $beta(M) = M + M^t$. $beta$ è lineare? Se no, tralasciare le domande seguenti.
  7. È vero che $alpha$ e $beta$ hanno gli stessi autovalori?
  8. È vero che $alpha$ e $beta$ hanno gli stessi autospazi?
  9. È vero che $alpha – beta + I = O$?

Un’applicazione si dice lineare se rispetta le proprietà di additività e omogeneità. Date due matrici $A, B in M_{n}(mathbb{C})$ e dato $gamma in mathbb{C}$, per ogni $i=1, 2, ldots, n$, e per ogni $j = 1, 2, ldots, n$ risulta
 
 $(A+B)_{i,j}^t = (A+B)_{j,i} = (A)_{j,i} + (B)_{j,i} = (A)_{i,j}^t +(B)_{i,j}^t$ (1)
 
$(gamma A)_{i,j}^t = (gamma A)_{j,i} = gamma (A)_{j,i} = gamma (A)_{i,j}^t$ (2)
 
Da (1) si deduce che
 
$alpha(M_1 + M_2) = (M_1 + M_2)^{t} = (M_1)^{t} + (M_2)^{t} =alpha(M_1) + alpha(M_2) quad forall M_1, M_2 in M_{n}(mathbb{C})$ (additività)
 
Da (2) si deduce che
 
$alpha(lambda M) = (lambda M)^{t} = lambda M^{t} = lambda alpha(M) quad forall M in M_{n}(mathbb{C}) quad forall lambda in mathbb{C}$ (omogeneità)
 
Quindi $alpha$ è un’applicazione lineare. $"ker"(alpha)$ è il sottospazio lineare del dominio che ha come immagine il vettore nullo, in questo caso è l’insieme delle matrici $M$ tali che $alpha(M) = O$, dove $O in M_{n}(mathbb{C})$ indica la matrice nulla.
 
$alpha(M) = O implies M^t = O implies M = O$
 
Quindi l’applicazione $alpha$ è iniettiva, visto che il nucleo coincide con lo spazio nullo, ma è anche suriettiva, perché è un endomorfismo, e quindi invertibile. L’inversa di $alpha(cdot)$ coincide con $alpha(cdot)$ stessa, dato che
 
$alpha(alpha(M)) = (M^{t})^t = M$
 
che è per l’appunto l’identità, di conseguenza $alpha^2 = I$, dove $I$ indica l’operatore identità.
Sia $M_s$ una matrice simmetrica, allora
 
$alpha(M_s) = M_s^{t} = M_s$
 
quindi le matrici simmetriche sono gli autovettori relativi all’autovalore $1$. Sia $M_a$ una matrice antisimmetrica, allora
 
$alpha(M_a) = M_a^{t} = -M_a$
 
quindi le matrici antisimmetriche sono gli autovettori relativi all’autovalore $-1$.
Data una matrice quadrata $A$, si può sempre scrivere:
 
$A = frac{A+A^{t}}{2} + frac{A-A^{t}}{2}$
 
dove il primo addendo è una matrice simmetrica e il secondo addendo è una matrice antisimmetrica. Questo vuol dire che ogni matrice quadrata può essere scritta come la somma di una matrice simmetrica e una matrice antisimmetrica, perciò gli autovettori di $alpha$ formano una base di $M_n(mathbb{C})$, per questo $alpha$ è diagonalizzabile.
Gli autospazi di $alpha$ sono due: lo spazio delle matrici antisimmetriche e lo spazio delle matrici simmetriche.
Una matrice antisimmetrica ha valori tutti nulli sulla diagonale principale, mentre i valori sopra la diagonale sono opposti a quelli sotto, per questo, per poter formare una base dello spazio delle matrici antisimmetriche, servono tante matrici quanti sono gli elementi sopra la diagonale, cioè
 
$frac{n^2-n}{2}$
 
ovvero da tutti gli elementi si tolgono quelli sulla diagonale e si divide per due. Quindi la dimensione dell’autospazio relativo alle matrici antisimmetriche è $frac{n^2-n}{2}$, ma dato che $alpha$ è diagonalizzabile questa è anche la molteplicità algebrica dell’autovalore $-1$.
Ragionando analogamente per lo spazio delle matrici simmetriche, per formare una base servono tanti elementi quanto sono quelli sopra la diagonale, più gli $n$ elementi della diagonale, quindi la dimensione dell’autospazio delle matrici simmetriche vale
 
$n+frac{n^2-n}{2} = frac{n^2+n}{2}$
 
e questa è anche la molteplicità algebrica dell’autovalore $1$, sempre perché $alpha$ è diagonalizzabile.
Verifichiamo che $beta$ è un’applicazione lineare:
 
$beta(M_1 + M_2) = (M_1 + M_2) + (M_1 + M_2)^t = (M_1 + M_1^t) + (M_2 + M_2^t) =$
$= beta(M_1) + beta(M_2) quad forall M_1, M_2 in M_{n}(mathbb{C}) $
 
$beta(lambda M) = lambda M + (lambda M)^t = lambda(M+M^t) = lambda beta(M) quad forall M in M_{n}(mathbb{C}) quad forall lambda in mathbb{C}$
 
Sia $M_s$ una matrice simmetrica, allora risulta:
 
$beta(M_s) = M_s + M_s^t = M_s + M_s = 2 cdot M_s$
 
quindi le matrici simmetriche sono gli autovettori di $beta$ relativi all’autovalore $2$, inoltre, sia $M_a$ una matrice antisimmetrica, allora:
 
$beta(M_a) = M_a + M_a^t = M_a – M_a = O$
 
dove $O$ è la matrice nulla, quindi le matrici antisimmetriche sono gli autovettori di $beta$ relativi all’autovalore $0$.
$alpha$ e $beta$ hanno gli stessi autovettori, quindi anche gli stessi autospazi, anche se relativi ad autovalori diversi.
Per quanto riguarda l’ultima domanda, si può scrivere:
 
$(alpha – beta + I)(M) = M^t – (M + M^t) + M = M^t – M – M^t + M = O$
 
che è l’applicazione nulla, quindi è vero che
 
$alpha – beta + I = O$
 
dove $I$ indica l’identità. 
 
FINE