Sistema di generatori, Spazio e Sottospazio vettoriale

Rubrica: Officina della Matematica

Titolo o argomento: I sistemi di generatori e lo spazio vettoriale

Un sistema di generatori di uno spazio vettoriale V è un insieme di vettori v1, v2, …, vn che generano lo spazio stesso. Quindi, dato un elemento w appartenente a V, esistono degli scalri α1, α2, …, αn appartenenti a R tali che:

w =  α1v1 + α2v2 + … + αnvn

Pertanto un sistema di generatori è un insieme di vettori i quali, tramite determinate combinazioni lineari, permettono di ottenere tutto lo spazio V. Un sistema di generatori è una Base (vedi l’articolo: Sistema di riferimento affine, Base e Span) quando i vettori sono linearmente indipendenti.

Uno spazio vettoriale (talvolta chiamato anche spazio lineare) su R è un insieme V su cui sono definite le operazioni di somma e prodotto per scalari che soddisfino gli assiomi dello spazio vettoriale (vedi l’articolo: Assiomi campo ed assiomi spazio vettoriale).

Un sottospazio vettoriale W di uno spazio vettoriale V è un sottoinsieme chiuso rispetto alla somma ed al prodotto per scalari. Questo significa che W è contenuto in V (o uguale a V) ed in esso valgono ancora le operazioni di somma e prodotto per scalari che soddisfano gli assiomi dello spazio vettoriale.

Assiomi campo ed assiomi spazio vettoriale

Rubrica: Officina della Matematica

Titolo o argomento: Gli assiomi del campo e dello spazio vettoriale

In tutti gli insiemi numerici studiati in geometria sono definite due operazioni: la somma (+) ed il prodotto (·). Questi godono delle proprietà riportate di seguito le quali prendono il nome di assiomi campo.

Assiomi campo

1. Proprietà associativa della somma: per ogni a, b, c si ha che (a + b) + c = a + (b + c).

2. Esistenza dell’elemento neutro per la somma: esiste un “a0” tale che per ogni “a” abbiamo che (a + a0) = (a0 + a) = a, dove l’elemento a0 (ovvero l’elemento neutro)  non è altro che lo zero.

3. Esistenza dell’opposto: per ogni “a” esiste un “a1” tale che (a + a1) = (a1 + a) = a0, dove a1 non è altro che -a.

4. Proprietà commutativa della somma: per ogni a + b = b + a.

5. Proprietà distributiva della somma rispetto al prodotto: per ogni a, b, c si ha che a · (b + c) = a · b + a · c.

6. Proprietà associativa del prodotto: per ogni a, b, c  si ha che (a · b) · c = a · (b · c).

7. Esistenza dell’elemento neutro per il prodotto: esiste un “a1” tale che per ogni a · a1 = a1 · a =  a, dove  l’elemento a1 (ovvero l’elemento neutro) non è altro che 1.

8. Esistenza dell’inverso: per ogni a diverso da zero, esiste  un ã tale che a · ã = ã · a = a1, dove l’elemento “a1″ non è altro che a-1 ovvero 1/a.

9. Proprietà commutativa del prodotto: per ogni a, b si ha che a · b =  b · a

Uno spazio vettoriale (ovvero uno spazio lineare) su R (l’insieme dei Reali) è un insieme che possiamo chiamare V dove sono definite due operazioni: la somma (dove due elementi di V, sommati, formano un nuovo elemento di V) ed il prodotto per scalari (dove il prodotto di un elemento di R per uno di V, mi restituisce un elemento di V). La somma ed il prodotto per scalari soddisfano le proprietà riportate di seguito le quali prendono il nome di assiomi dello spazio vettoriale.

Note

Gruppo: trattasi di un insieme che soddisfa le proprietà 1, 2, 3 sopra elencate

Gruppo commutativo: un insieme che soddisfa le proprietà 1, 2, 3, 4 sopra elencate

Anello: si tratta di un insieme che soddisfa le proprietà 1, 2, 3, 4, 5, 6, 7 sopra elencate

Anello commutativo: un insieme che soddisfa le proprietà 1, 2, 3, 4, 5, 6, 7, 9 sopra elencate

Corpo: un insieme che soddisfa le proprietà 1, 2, 3, 4, 5, 6, 7, 8 sopra elencate

Campo: un insieme che soddisfa tutte le proprietà 1-9 sopra riportate

Assiomi spazio vettoriale

1. Per ogni u, v, w appartenenti allo spazio vettoriale V, si ha che: (u + v) + w = u + (v + w).

2. Esiste uno 0 appartenente allo spazio vettoriale V tale che, per ogni elemento v appartenente a V, si ha che: v + 0 = 0 + v = v.

3. Per ogni elemento v appartenente allo spazio vettoriale V, esiste un elemento -v (sempre appartenente allo spazio vettoriale V) tale che: v + (-v) = (-v) + v = 0.

4. Per ogni v, w appartenenti allo spazio vettoriale V si ha che: v + w = w + v.

5. Per ogni λ appartenente ad R (l’insieme dei Reali)  e per ogni v, w appartenenti allo spazio vettoriale V si ha che: λ · (v + w) = λ · v + λ · w.

6. Per ogni λ, μ appartenenti ad R (l’insieme dei Reali) e per ogni v appartenente allo spazio vettoriale V si ha che: (λ + μ) · v = λ · v + μ · v.

7. Per ogni λ, μ appartenenti ad R (l’insieme dei Reali) e per ogni v appartenente allo spazio vettoriale V si ha che: (λ · μ) · v = λ · (μ · v).

8. Per ogni elemento v appartenente allo spazio vettoriale V si ha che: 1 · v = v e 0 · v = 0.

Metodi di dimostrazione logico matematica

Rubrica: Utilità di ingegneria

Titolo o argomento: Dimostrare una tesi

Se questa mattina vi siete alzati con la voglia di intrecciare il vostro cervello, questo è l’articolo che fa per voi… Premesso che con il termine “ipotesi” si intende il presupposto ad un ragionamento e che con il termine “tesi” si intende una proposizione di cui si desidera accertare la veridicità, possiamo riportare i tre principali metodi di dimostrazione accompagnati da esempi che spero di aver scritto in modo comprensibile 🙂

Dimostrazione diretta

Si tratta del metodo che solitamente risulta più spontaneo e naturale per la mente. Consiste nel supporre vera l’ipotesi e, tramite ragionamenti, dedurre la tesi. La via più intuitiva per dimostrare affermazioni quali “A implica B”.

Es. Premesso che il paraurti sia in tinta con l’auto allora, se il paraurti è rosso, anche l’auto è rossa.

Dimostrazione per assurdo

Trattasi di un metodo di dimostrazione che suppone contemporaneamente vere l’ipotesi “A” e la negazione “non B” della tesi per poi giungere mediante ragionamenti ad una contraddizione. La contraddizione, ossia la presenza di qualcosa di falso, fa cadere la supposizione assurda che “A” e “non B” possano essere contemporaneamente vere. Quindi se “A” è vera, anche “B” deve esserlo.

Es. Premesso che il paraurti sia in tinta con l’auto allora, se il paraurti è rosso, l’auto non è rossa. Se il paraurti è rosso e se il paraurti è in tinta con l’auto, allora deve essere per forza dello stesso colore dell’auto. Se l’auto è arancione ed il paraurti è rosso, allora il paraurti non è in tinta con l’auto. Quindi se il paraurti è in tinta con l’auto ed è rosso, per forza l’auto deve essere rossa.

Dimostrazione inversa

Tale tipo di dimostrazione suppone vera la negazione “non B” della tesi e, sempre mediante ragionamenti, deduce la negazione “non A” dell’ipotesi. Come per la dimostrazione diretta (dove “A” implica “B”) se “non B” implica “non A”, allora la presenza ad esempio della situazione in cui “A” implica “non B” equivarrebbe a dire che “A” e “non A” sono vere contemporaneamente… il che è impossibile.

Es. Se è vero che l’auto non è rossa, allora anche il paraurti non è rosso in quanto abbiamo supposto il paraurti essere in tinta con l’auto. Se l’auto che non è di colore rosso implica che il paraurti non è di colore rosso, allora la situazione in cui il paraurti rosso implica che l’auto non è rossa equivale a dire che il paraurti rosso e il paraurti non rosso sono affermazioni vere contemporaneamente… il che è illogico.

metodi_dimostrazione_logico_matematica.jpg

Introduzione alle matrici

Rubrica: Officina della Matematica

Titolo o argomento: Introduzione alle matrici

L’articolo che segue “ovviamente” non sostituisce le importanti nozioni riportate in un ottimo libro, quanto riportato ha il solo ed unico scopo di fungere da memorandum di rapida esplorazione. Spetta poi al lettore approfondire debitamente i concetti di cui necessita. Innanzitutto ricordiamo che:

con Mm,n si intende l’insieme delle matrici con m righe ed n colonne
con
Mm,n(R) si intende l’insieme delle matrici a coefficienti Reali
con Mm,n(C) si intende l’insieme delle matrici a coefficienti complessi
con An si intende la colonna n-esima della matrice Mm,n
con Am si intende la riga m-esima della matrice Mm,n
con GLn si intende l’insieme delle matrici invertibli di ordine n
con In si intende la matrice identità (o se vogliamo identica o, ancora, unità)
con AT si intende la matrice trasposta
con AH si intende la matrice trasposta coniugata

Una matrice è una tabella rettangolare di numeri con “m” righe ed “n” colonne. Il numero “aij” è l’elemento posizionato alla riga “i” in corrispondenza della colonna “j”. Una matrice è un importante strumento matematico che concretizza la complessa teoria matematica ed è ampiamente utilizzato in diverse branche dell’ingegneria.

Una matrice quadrata è una matrice che ha tante righe quante colonne. Una matrice quadrata “n x n” è detta di ordine n. Una matrice quadrata può essere “semplificata” e trasformata in una matrice triangolare superiore grazie ai procedimenti previsti dall’eliminazione di Gauss.

Una matrice quadrata diagonale è una matrice che ha tutti gli elementi nulli eccetto quelli presenti sulla diagonale principale ovvero la diagonale che va dall’angolo in alto a sinistra a quello in basso a destra.

Una matrice simmetica è una matrice quadrata A a coefficienti reali tale per cui la sua trasposta AT è uguale alla matrice iniziale, ovvero A = AT.

Una matrice antisimmetrica è una matrice quadrata A a coefficienti reali tale per cui: AT = -A.

Una matrice identica è una matrice che ha sulla diagonale princiapali tutti valori pari a 1 e sulle restanti posizioni tutti valori pari a 0.

Una matrice completa è una matrice che al suo interno comprende la matrice dei coefficienti e la matrice dei termini noti.

Una matrice triangolare superiore è caratterizzata dall’avere tutti gli elementi al di sotto della diagonale principale sono nulli; viceversa si definisce matrice triangolare inferiore.

Una matrice quadrata singolare ha almeno uno dei suoi pivot nullo, mentre una matrice quadrata non singolare ha tutti i pivot non nulli.

Una matrice a scala è una matrice “m x n” i cui pivot (posizionati a scala) sono tutti non nulli. Matrici qualunque possono essere semplificate tramite riduzione a scala, ovvero tramite un procedimento simile all’eliminazione di Gauss.

Una matrice trasposta è una matrice in cui vengono scambiate le righe con le colonne. La prima riga diventa la prima colonna, la seconda riga diventa la seconda colonna e così via. La matrice trasposta della matrice A si indica con AT.

La matrice coniugata di A è la matrice Ã appartenente all’insieme delle matrici a coefficienti complessi, ovvero a Mm,n(C), i cui elementi sono i “coniugati” degli elementi di A. Per sapere cosa sono gli elementi coniugati è necessario studiare i numeri complessi (potrebbe interessarti leggere gli articoli: I numeri complessiI numeri complessi parte seconda).

La matrice trasposta coniugata (o aggiunta) AH (appartenente all’insieme delle matrici a coefficienti complessi) di A è la matrice trasposta della coniugata di A. La matrice A viene detta hermitiana quando A = AH, mentre viene detta anti-hermitiana quando AH = -A.

Una matrice invertibile è una matrice A appartenente a Mm,n(K) per la quale esiste una matrice B appartenente a Mm,n(K) tale che A·B = B·A = In (dove In sta per matrice identica). La matrice B, inversa di A, è unica e si indica con A-1. L’insieme delle matrici invertibili di ordine n si rappresenta con GLn.

Una matrice di cambiamento di base (o matrice di cambiamento di coordinate) è una matrice di passaggio dalla base B alla base B’, tale matrice si indica con B. La matrice di cambiamento di base B contiene per colonne le coordinate dei vettori della nuova base B’ rispetto alla vecchia base B. La matrice di cambiamento di base B-1 è ovviamente la matrice di passaggio dalla base B’ alla base B (direzione inversa alla precedente), essa contiene per colonne le coordinate dei vettori della base B rispetto alla base B’.

Una matrice associata all’applicazione lineare T… – In preparazione

Le matrici quadrate simili A e A’ sono tali solo se esiste una matrice B invertibile tale per cui è valida la relazione: A’ = B-1AB.

La matrice minore (o minore complementare) è la matrice che si ottiene cancellando la riga i e la colonna j di una matrice quadrata durante il calcolo del determinante. La matrice minore si indica con Aij dove “i” e “j” indicano rispettivamente la riga e la colonna che sono state eliminate per il calcolo del determinante (es. A13 se è stata cancellata la riga 1 e la colonna 3).

Link correlati

Metodi per calcolare il determinante di una matrice

Teorema della selezione

Rubrica: Una frase per teorema

Titolo o argomento: Teorema della selezione

Consideriamo uno spazio vettoriale V e un sistema di vettori (v1, v2, …, vk) contenuto in V. Possiamo affermare che esiste un procedimento canonico di selezione che permette di ottenere una “sottolista L” che ha le seguenti proprietà:

1. I vettori della “sottolista L” sono linearmente indipendenti.
Vedi l’articolo: Combinazione lineare, span, lineare dipendenza – indipendenza

2. Lo spazio generato dai vettori della “sottolista L” è uguale allo spazio generato dai vettori di V.
Vedi gli articoli: Sistema di riferimento affine, base e span | Sistema di generatori, spazio e sottospazio vettoriale

Dimostrazione

Abbiamo ad esempio i vettori (v1, v2, v3, …, vk) e non sappiamo quali di questi resterà nella sottolista. Lo spazio che generano è L(v1, v2, v3, …, vk) = S contenuto in V.

Se v1=0 allora il vettore viene escluso. Se v1≠0 allora lo chiamiamo vi1 e lo inseriamo come primo elemento della sottolista.

Se v2 appartiene già alla lista L(v1) allora viene escluso. Questo significa che il vettore v2 è linearmente dipendente rispetto a v1. Se v2 non appartiene già alla lista L(v1) entra a farne parte. Questo significa che il vettore v2 è linearmente indipendente rispetto a v1.

Se v3 appartiene già alla lista L(v1, v2) allora viene escluso. Questo significa che vi è un rapporto di lineare dipendenza tra v3 e gli altri due vettori. Viceversa se v3 non appartiene alla lista L(v1, v2) allora viene aggiunto in quanto i 3 vettori sono linearmente dipendenti e generano spazio nuovo.

E così via…

I vettori in più che ho cancellato non generano spazio in più, ma lo stesso spazio, ad ogni momento della selezione. Per convenzione la sottolista, ed i suoi elementi, verranno indicati come segue: L˜ = (vi1, vi2, vi3).

Esempio

Se ad esempio abbiamo 3 vettori λ1v1 + λ2v2 + λ3v3 ed il vettore v3 ha le seguenti caratteristiche:

v3 = αv1 + βv2

v3 appartiene alla lista L(v1, v2)

ovvero il vettore v3 è linearmente dipendente rispetto alla lista L(v1, v2),

allora dalla combinazione lineare λ1v1 + λ2v2 + λ3v3 otteniamo λ1v1 + λ2v2 + (λ3α)v1 + (λ3β)v2.

All’ultimo membro ho semplicemente moltiplicato λ3 per v3 = αv1 + βv2 ed ho messo in evidenza rispettivamente v1 e v2 per arrivare a:

1)v1 + (λ2)v2

da cui deduco che non ho generato nuovo spazio tramite il vettore v3.

Funzione Φ, funzione FB, applicazione LA

Rubrica: Officina della Matematica

Titolo o argomento: Funzione Φ, funzione FB, applicazione LA

Innanzitutto va premesso quanto segue:

con A si intende il punto appartenente ad A1, oppure A2, o ancora A3,
con A1 si intende la retta euclidea,
con A2 si intende il piano euclideo,
con A3 si intende lo spazio euclideo,

con V02 si intende l’insieme dei vettori applicati nell’origine O dello spazio bidimensionale,
con V03 si intende l’insieme dei vettori applicati nell’origine O dello spazio tridimensionale,

con R si intende l’insieme dei numeri reali,
con R2 si intende l’insieme delle coppie ordinate di numeri reali,
con R3 si intende l’insieme delle terne ordinate di numeri reali,

con Mm,n si intende l’insieme delle matrici con m righe ed n colonne
con An si intende la colonna n-esima della matrice
Mm,n
con Am si intende la riga m-esima della matrice Mm,n

La funzione Φ0: A2 → V02 è una funzione biunivoca (o bigettiva) che associa al punto A (appartenente ad A2) il vettore applicato in O che termina in A; possiamo pertanto scrivere Φ0(A) = OA. Si tratta di una funzione che trasforma un generico segmento in un vettore avente un’origine ed un termine ben preciso.

La funzione FB: V02 → R2 è anch’essa biunivoca e viene definita in seguito ad una Base (vedi l’articolo: Sistema di riferimento affine, Base e Span). Tale funzione associa ad ogni vettore una sola coppia di reali ovvero le sue coordinate rispetto alla Base; possiamo pertanto scrivere FB(OA) = |x1, x2|. I valori x1, x2 sono gli unici che verificano: OA = x1i + x2j dove “i” e “j” sono due vettori non proporzionali che costituiscono una Base di V02.

Un’applicazione LA: Rn → Rm è un’applicazione associata ad una matrice A (la nomenclatura “A”, in questo caso, esime da quella riportata nella premessa) appartenente ad Mm,n (R) e si scrive:

LA (x) = x1A1 + … + xnAn

Ed altro non è che una matrice A che moltiplica un vettore “x” le cui coordinate sono tante quante le colonne di A. L’applicazione LA si intende appartenente a Rm per ogni “x” appartenente a Rn. Inoltre va notato che i termini A1, A2, …, An, quando si parla di matrici, si riferiscono alle colonne delle matrici stesse.

Endomorfismo, isomorfismo, monomorfismo, epimorfismo

Rubrica: Officina della Matematica

Titolo o argomento: Endomorfismo, isomorfismo, monomorfismo, epimorfismo

Come abbiamo detto, un’applicazione lineare è una funzione additiva ed omogenea tra due spazi vettoriali V e W,  T: V → W. Per meglio capire i concetti che verranno esposti di seguito vedi anche gli articoli linkati di seguito e ricorda inoltre il Th. della dimensione che mette in relazione “dimensione, nucleo Ker, immagine e rango”, ovvero: dimV = dim KerT + dim ImT.

Funzione (applicazione), iniettività, suriettività, applicazione lineare
Funzione Φ – Funzione FB – Applicazione LA
Dimensione – Nucleo Ker – Immagine – Rango
Composizione di applicazioni lineari – Applicazione lineare invertibile

Se lo spazio vettoriale V è uguale allo spazio vettoriale W (V=W) si parla di endomorfismo, ovvero una rappresentazione di una struttura in sé stessa (conservando le operazioni). Ne sono un esempio:

1. La funzione identità che ad ogni elemento del dominio associa sé stesso.

 

2. L’applicazione nulla 0(v) = 0 per ogni elemento v appartenente allo spazio vettoriale V.

 

3. L’applicazione LA associata alla matrice A appartenente ad Mm,n (K)  che va da Kn a Km.

 

4. L’applicazione FB: V → Kn che manda ogni vettore v dello spazio vettoriale V nella n-upla delle sue coordinate rispetto alla Base (l’applicazione FB infatti è associata ad una Base di V). La lettera “n” si riferisce alla dimensione di V.

5. La trasposizione T: Mm,n (K) → Mn,m (K) la quale associa ad una matrice A la sua trasposta AT.

Nella teoria degli insiemi con il termine monomorfismo si indica una funzione iniettiva. Pertanto se f(x)=f(y) allora x=y. Se la dimensione dell’immagine di T (ovvero il rango di T) è uguale alla dimensione di V, allora l’applicazione lineare T è iniettiva.

Nella teoria degli insiemi con il termine epimorfismo si indica una funzione suriettiva. Se la dimensione dell’immagine di T (ovvero il rango di T) è uguale alla dimensione di W, allora l’applicazione lineare T è suriettiva. Se l’epimorfismo è anche iniettivo siamo davanti ad un isomorfismo e cioè davanti ad una corrispondenza biunivoca.

Se esiste un’applicazione lineare invertibile T: V → W allora esiste un isomorfismo tra V e W, quindi V e W sono isomorfi (V≈W). Si tratta quindi di una corrispondenza biunivoca tra due strutture dello stesso tipo.

Funzione (applicazione), iniettività, suriettività, applicazione lineare

Rubrica: Officina della Matematica

Titolo o argomento: Funzione (applicazione), iniettività, suriettività, applicazione lineare

Una funzione (ma puoi chiamarla anche applicazione) è una relazione, una legge, una sorta di meccanismo che sussiste tra due insiemi A e B. Essa si indica con “f: A → B” ed associa ad ogni elemento di A un solo elemento di B. L’insieme A viene chiamato “dominio della funzione”, l’insieme B viene chiamato “codominio”. Vedi anche l’articolo: Dominio, codominio, invertibilità, monotonia. La funzione f mette in relazione l’elemento “a” dell’insieme “A” con l’elemento “b” dell’insieme “B”. L’elemento b è immagine di a tramite f. L’insieme degli elementi di B che sono immagine degli elementi di A, tramite f, è detto immagine di f.

Quando una funzione f è tale per cui ogni elemento del codominio arriva da un elemento del dominio (se disegnamo due insiemi, dominio e codominio, non ci sono quindi elementi liberi nel codominio che non sono in relazione con il dominio), questa si dice funzione suriettiva (o surgettiva). Attenzione perchè due elementi del dominio possono arrivare sullo stesso elemento del codominio ma non vice-versa altrimenti non siamo davanti ad una funzione.

Quando una funzione f è tale per cui a diversi elementi del dominio vengono associati diversi elementi del codominio, questa si dice iniettiva (se disegnamo due insiemi, dominio e codominio, non possono esserci più elementi del dominio che raggiungono il medesimo elemento del codominio; possono però esserci elementi liberi nel codominio che non sono in relazione con il dominio).

Un’applicazione lineare T (fra due spazi vettoriali) è semplicemente una funzione “additiva” e “omogenea”. Con il termine “additiva” si indica una funzione per la quale T(v1+v2) = T(v1)+T(v2) per ogni elemento v dello spazio vettoriale V. Il termine “omogenea”, invece, indica che la funzione T(λv) = λT(v) per ogni numero reale λ appartenente al campo K e per ogni elemento v appartenente allo spazio vettoriale V.

Dimensione – Nucleo Ker – Immagine – Rango

Rubrica: Officina della Matematica

Titolo o argomento: Dimensione – Nucleo (Ker) – Immagine – Rango

Il numero di vettori contenuti all’interno di una Base di uno spazio vettoriale V è la Dimensione dello spazio stesso. Quindi se (v1, v2, …, vn) è una Base di V, allora n = dimV.

Se T è un’applicazione “lineare” (T: V → W) allora possiamo definire il nucleo Ker T come l’insieme degli elementi v, dello spazio vettoriale V, tali che T(v) = 0. Il nucleo è un sottospazio di V.

Inoltre essendo T è un’applicazione “lineare” (T: V → W) possiamo definire l’immagine di T ovvero “ImT = T(V)” come l’insieme degli elementi T(v) appartenenti allo spazio vettoriale W tali che gli elementi v appartengono allo spazio vettoriale V. L’immagine di T è un sottospazio di W.

La dimensione dell’immagine di T è detta rango di T (e si scrive rgT).

Il Teorema della dimensione stabilisce una precisa relazione tra gli argomenti appena trattati: dimV = dim KerT + rgT. Si può scrivere anche: dimV = dim KerT + dim ImT, ovviamente è la stessa cosa.