Cos'è ElectroYou | Login Iscriviti

ElectroYou - la comunità dei professionisti del mondo elettrico

0
voti

Un breve viaggio attraverso gli spazi vettoriali

Con questo articolo, stavolta, proviamo a compiere un "viaggetto" attraverso gli spazi vettoriali.
Come sempre avremo a che fare con un campo K al quale apparterranno i "nostri" scalari.

Indice

Definizione di spazio vettoriale

Consideriamo un insieme non vuoto V in cui siano definite due operazioni:

  • somma vettoriale: essa associa ad ogni coppia di vettori u, v appartenenti a V la somma u + v in V;
  • moltiplicazione per uno scalare: essa associa ad ogni vettore u appartenente a V e ad ogni scalare k appartenente a K il prodotto ku in V.

Ebbene V è detto spazio vettoriale sul campo K se valgono i seguenti assiomi, comunque vengano presi i vettori u, v e w appartenenti a V:

  • (u + v) + w\ =\ u + (v + w) ;
  • in V esiste un vettore, detto vettore nullo (o vettore zero), indicato con 0, per il quale vale la seguente relazione: u + 0\ =\ 0 + u = u ;
  • in V, per ogni u, esiste un vettore indicato con -u e detto opposto di u tale che: u + (-u)\ =\ (-u) + u = 0 ;
  • u + v\ =\ v + u ;
  • per ogni scalare k appartenente a K: k(u + v)\ =\ ku + kv ;
  • per ogni scalare a, b, appartenenti a K: (a + b)u\ =\ au + bu ;
  • per ogni scalare a, b, appartenenti a K: (ab)u\ =\ a(bu) ;
  • detta 1 l'unità di K : 1u\ =\ u .

Risulta chiaro che u, v e w siano gli elementi dello spazio vettoriali, che chiameremo d'ora in poi vettori.
Gli assiomi citati nell'elenco di prima si dividono in due tipologie:

  • i primi quattro hanno a che fare con la struttura additiva di V e possono essere riassunti affermando che V è un gruppo commutativo dal punto di vista dell'addizione;
  • i restanti quattro hanno a che fare con l'azione di K su V.

Da questi ultimi derivano delle ulteriori semplici proprietà:

  • per ogni scalare k appartenente a K e 0 appartenente a V, k0\ =\ 0 ;
  • per ogni 0 appartenente a K e per ogni vettore u appartenente a V, 0u\ =\ 0 ;
  • se ku = 0 con k appartentente a K e il vettore u appartenente a V, allora si ha che k\ =0 oppure u\ =0 (vettore nullo);
  • per ogni scalare k appartenente a K e per ogni vettore u appartenente a V: (-k)u\ =\ k(-u)\ =\ -ku .


Qualche esempio di spazio vettoriale

Di seguito riportiamo alcuni esempi di spazi vettoriali.

Spazio Kn

Detto K un campo arbitrario, la notazione Kn indica l'insieme delle n-ple di elementi di K. Kn è uno spazio vettoriale su K e abbiamo utilizzato le seguenti operazioni:

  • somma vettoriale:

(a_{1},\ a_{2},\ \cdots,\ a_{n})\ +\ (b_{1},\ b_{2},\ \cdots,\ b_{n})=\ (a_{1}+b_{1},\ a_{2}+b_{2},\ \cdots,\ a_{n}+b_{n})
  • moltiplicazione per uno scalare:

k(a_{1},\ a_{2},\ \cdots,\ a_{n})\ = (ka_{1},\ ka_{2},\ \cdots,\ ka_{n})


Il vettore nullo è l'n-pla di zeri: 0\ =\ (0,0,\cdots,\ 0).
L'opposto di un vettore è definito da:


-(a_{1},\ a_{2},\ \cdots,\ a_{n})\ = (-a_{1},\ -a_{2},\ \cdots,\ -a_{n})


Spazio polinomiale P(t)

Chiameremo P(t) l'insieme di tutti i polinomi reali nella forma seguente:


p(t)=\ a_{0}\ +\ a_{1}t\ +\ a_{2}t^{2}\ +\ \cdots\ +\ a_{s}t^{s},\ \ s=(1,\ 2,\ \cdots)


dove i coefficienti ai sono scalari appartenenti al campo K.
P(t) allora è uno spazio vettoriale su K, con le operazioni:

  • somma vettoriale: p(t)\ +\ q(t) è la operazione di somma di polinomi in P(t);
  • moltiplicazione per uno scalare: \ kp(t) è l'operazione già nota di prodotto per uno scalare k di un polinomio p(t).


Si denota, in maniera analoga a quanto fatto prima, un polinomio zero denotato con 0.


Spazio matriciale Mm,n

La notazione Mm,n denota l'insieme delle matrici m x n sul campo K arbitrario.
Mm,n è uno spazio vettoriale su K con le operazoini usuali di somma vettoriale e moltiplicazione per uno scalare.


Spazio delle funzioni F(X)

Detto X un insieme qualsiasi non vuoto e K un campo arbitrario. F(X) è uno spazio vettoriale su K rispetto alle operazioni che seguono:

  • somma vettoriale:consideriamo l'insieme F(X) di tutte le funzioni da X a K. La somma di due funzioni f e g appartenenti ad F(X), che è la funzione f + g appartenente a F(X), è definita da:

(f\ +\ g)(x)=\ f(x)\ +\ g(x),\ \ per\ ogni\ x\ appartenente\ ad\ X
  • moltiplicazione per uno scalare: il prodotto di una funzione f appartenente ad F(X) per uno scalare k appartenente a K è la funzione kf appartenente ad F(X), così definita:

(kf)(x)\ =\ kf(x),\ \ per\ ogni\ x\ appartenente\ ad\ X


Il vettore zero IN f(x) è la funzione 0 che associa ad ogni x appartenente ad X lo scalare 0 (appartenente a K):


0(x)=\ 0.


Per ogni funzione f, è definita anche la funzione -f detta opposto della funzione f così definita:


(-f)(x)\ =\ -f(x),\ \ per\ ogni\ x\ appartenente\ ad\ X


Combinazioni lineari

Dato uno spazio vettoriale V su un campo K, un vettore v in V è una combinazione lineare di vettori u1, u2, ... , un in V se esistono degli scalari a1, a2, .. , am appartenenti a K tali che si abbia:


v=\ a_{1}u_{1}+\ a_{2}u_{2}+\ \cdots+\ a_{m}u_{m}.


Oppure v è combinazione lineare dei vettori u1, u2, .. , un se esiste una soluzione dell'equazione che segue:

v=\ x_{1}u_{1}+\ x_{2}u_{2}+\ \cdots+\ x_{m}u_{m}


dove gli x1, x2, ... , xm sono scalari incogniti.


Sistemi span

Dato uno spazio vettoriale V su K. Si dice che i vettori u1, u2, .. , um appartenenti a V formano un sistema span di V se ogni vettore in V è combinazione lineare dei vettori u1, u2, .. , um, cioè se si verifica la seguente relazione:


v=\ a_{1}u_{1}+\ a_{2}u_{2}+\ \cdots+\ a_{m}u_{m}

dove a1, a2, .. , am sono scalari di K.


Sottospazio vettoriale

Consideriamo, come sempre, il nostro spazio vettoriale generico V sul campo K. Sia W un sottoinsieme di V. Diremo che W è un sottospazio di V se W è a sua volta uno spazio vettoriale su K rispetto alle operazioni (già viste) di somma vettoriale e moltiplicazione per uno scalare.
Un modo per verificare se W è sottospazio o meno consiste nel verificare gli otto assiomi enunciati per uno spazio vettoriale in principio di articolo.
Ad ogni modo di seguito sono elencati semplici criteri di riconoscimento di un sottospazio:

  • il vettore zero appartiene a W;
  • per ogni u, v appartenenti a W e per ogni k appartenente a K: u + v appartiene a W e ku appartiene a W.

L'ultima condizione espressa può essere "riassunta" nella seguente:


per\ ogni\ u,v\ \in \ W\ e\ per\ ogni\ a,\ b,\ \in\ K:\ au+\ bv\ \in\ W


Inoltre dato uno spazio vettoriale V, esso contiene due sottospazi detti banali che sono V stesso e il sottospazio contenente il solo vettore zero.


Intersezione di sottospazi vettoriali

Detti U e W due sottospazi di uno spazio vettoriale V. Vogliamo appurare che l'intersezione tra i due spazi vettoriali U ∩ W è ancora un sottospazio vettoriale di V.
Iniziamo col dire che il vettore nullo (il vettore zero 0) appartiene sia a U che a W in quanto sono sottospazi vettoriali. Quindi il vettore nullo appartiene anche a U ∩ W .
Supposto che u, v appartengano a U ∩ W, allora u,v apparterranno sia a U che a W.
Inoltre essenso U e W sottospazi valer per essi la proprietà:
per\ ogni\ u,v\ \in \ W\ e\ per\ ogni\ a,\ b,\ \in\ K:\ au+\ bv\ \in\ W\ e\ au+\ bv\ \in\ U
quindi si ha: au+\ bv\ \in U\ \cap W.
Concludendo: U ∩ W è sottospazio di V.


Dipendenza ed indipendenza lineare

Dato uno spazio vettoriale V su un campo K, affermiamo che:
i vettori v1, v2, .. ,vm sono linearmente dipendenti su K se esistono degli scalari a1, a2, ... , am appartenenti a K non tutti nulli tali che:


a_{1}v_{1}+\ a_{2}v_{2}+\ \cdots+\ a_{m}v_{m}=\ 0\ .


In caso contrario essi si dicono linearmente indipendenti su K.

Esempio 1

I seguenti vettori u, v e w:


u=\ (1,1,0),\ v=\ (1,3,2),\ w=\ (4,9,5)

sono linearmente dipendenti perchè:


3u+\ 5v-\ 2w=\ 3(1,1,0)+\ 5(1,3,2)-\ 2(4,9,5)=\ (0,0,0)=\ 0

perchè esistono degli scalari non tutti nulli (in questo caso essi sono 3, 5, -2) tali che la combinazione lineare di cui sopra sia pari a 0.

Esempio 2

I seguenti vettori invece sono linearmente indipendenti:


u=\ (1,2,3),\ v=\ (2,5,7),\ w=\ (1,3,5)

Infatti formiamo l'equazione vettoriale xy+\ yv+\ zw=\ 0 , dove x,y e z sono degli scalari incogniti. Andando a svolgere:


x\cdot\begin{bmatrix}
1\\ 
2\\ 
3
\end{bmatrix}+
y\cdot\begin{bmatrix}
2\\ 
5\\ 
7
\end{bmatrix}+ 
z\cdot\begin{bmatrix}
1\\ 
3\\ 
5
\end{bmatrix}=\ 
\begin{bmatrix}
0\\ 
0\\ 
0
\end{bmatrix}

otteniamo che:


x=\ 0,\ y=\ 0,\ z=\ 0

In altre parole l'unica combinazione lineare che rispetti l'equazione vettoriale di cui sopra è a coefficienti tutti nulli, ergo i tre vettori sono linearmente indipendenti.

Base e dimensione

Diamo di base due definizioni equivalenti tra loro:

  • Definizione A: un insieme di vettori S= \begin{Bmatrix}
u_{1}, & u_{2}, & \cdots & u_{n} 
\end{Bmatrix} è detto base di V se valgono le due condizioni: (1) S è linearmente indipendente, (2) S è un sistema span per V;
  • Definizione B: un insieme di vettori S= \begin{Bmatrix}
u_{1}, & u_{2}, & \cdots & u_{n} 
\end{Bmatrix} è detto base di V se ogni vettore v di V è combinazione lineare dei vettori della base in modo unico.

Importante è il seguente teorema:

dato uno spazio vettoriale V che ammette una base di m elementi e un'altra base di n elementi. Allora certamente m=\ n.
Uno spazio vettoriale V, se possiede una base di n elementi, si dice di dimensione finita n e si scrive : dimV=\ n


Lo spazio vettoriale S=\ \begin{Bmatrix}
0
\end{Bmatrix}, ha dimensioni O per definizione, mentre uno spazio vettoriale di dimensione non finita è detto di dimensione infinita.


Introduciamo anche il seguente lemma:

poniamo V=\ span(v_{1},\ v_{2}\ \cdots,\ v_{n}) e supponiamo che \begin{Bmatrix}
w_{1}, & w_{2} & \cdots & w_{m}
\end{Bmatrix} sia linearmente indipendente. Allora m\ \leq n e si ha:


V=\ span(w_{1},\cdots,w_{m},v_{i_{1}},\cdots,v_{i_{n-m}})

quindi n+\ 1 o più vettori qualsiasi di V sono linearmente dipendenti.

Dimensione di un sottospazio

Sia W un sottospazio vettoriale di V che è n-dimensionale. Si ha che dimW\ \leq n. Qualora invece si avesse dimW\ =\ n, allora è chiaro che W=\ V .

Torniamo un momento alle matrici...

Data la matrice A = [aij] di ordine m x n su un campo K, le righe di A: R_{1}=\ (a_{11},a_{12},\cdots,a_{1n}),R_{2}=\ (a_{21},a_{22},\cdots,a_{2n}),\cdots,R_{m}=\ (a_{m1},a_{m2},\cdots,a_{mn}) sono viste come vettori in Kn, generano in esso un sottospazio detto spazio delle righe di A e indicato con: rowsp(A)=\ span(R_{1},R_{2},\cdots,R_{m}).


Analogamente, quanto detto per le righe può essere detto per le colonne di A. Si parla di spazio delle colonne di A e si indica con \ colsp(A) .


Consideriamo, a titolo di esempio, la seguente matrice A in forma a scala, in cui sono stati messi in evidenza i pivot:


A=\begin{bmatrix}
0 & {\color{Purple} 2} & 4 & 5 & 6 & 8 & 9\\ 
0 & 0 & {\color{Purple} 4} & 3 & 1 & 2 & 3\\ 
0 & 0 & 0 & 0 & {\color{Purple} 7} & 8 & 4\\ 
0 & 0 & 0 & 0 & 0 & {\color{Purple} 6} & 7\\ 
0 & 0 & 0 & 0 & 0 & 0 & 0
\end{bmatrix}

Ebbene, un risultato importantissimo è il seguente: le righe non zero di una matrice in forma a scala sono linearmente indipendenti.


Possiamo quindi, sulla base di quanto detto finora, dare una definizione "nuova" di rango:
il rango di una matrice A è equivalente alla dimensione dello spazio delle righe di A o al numero massimo di righe linearmente indipendenti di A.

Bibliografia

"Algebra lineare" - Lipschutz, Lipson

2

Commenti e note

Inserisci un commento

di ,

Quando ero ragazzino alle medie "inventai" una teoria che in sostanza si avvicinava alla teoria degli spazi vettoriali. Proseguendo negli studi scoprii che tale teoria esisteva già, molto più completa, rigorosa e ben spiegata sui libri. Be', fu lo stesso una bella soddisfazione.

Rispondi

di ,

hai deciso di Scrivere un'enciclopedia di ingegneria meccanica? :P

Rispondi

Inserisci un commento

Per inserire commenti è necessario iscriversi ad ElectroYou. Se sei già iscritto, effettua il login.