Geometria per Fisica (L-Pa)

Prima settimana (26 set - 28 set - 29 set)

Informazioni logistiche. Presentazione del corso. Due esempi motivanti di linearità.
Insiemi, elementi, appartenenza. Sottoinsiemi ed inclusione. L'insieme vuoto. Unione, intersezione, differenza tra insiemi. Applicazioni. Un'applicazione è l'informazione del suo insieme di partenza (dominio), di quello di arrivo (codominio) e di come calcola le immagini a partire dagli argomenti. Composizione di applicazioni: la composizione è associativa. Applicazioni suriettive iniettive biunivoche. Prodotto cartesiano di due insiemi. Gli insiemi N dei numeri naturali, Z dei numeri interi relativi, Q dei numeri razionali, R dei numeri reali e proprieta' delle operazioni in essi definite. Irrazionalità di radice di 2. Numeri complessi: definizione, somma e prodotto. Parte reale e parte immaginaria. I numeri complessi di parte immaginaria nulla si sommano e si moltiplicano come i numeri reali. Numeri immaginari puri. Somma e prodotto sono commutative e associative; il prodotto distribuisce rispetto alla somma; 0 + 0i è l'elemento neutro della somma, mentre 1 + 0i è l'elemento neutro del prodotto. Il concetto di anello. Piano di Argand-Gauss. La somma di numeri complessi è data dalla regola del parallelogramma. Coniugazione complessa: il coniugato del coniugato di z è z; la coniugazione complessa commuta con somma e prodotto. Norma complessa: coincide con il valore assoluto nel caso reale; disuguaglianza triangolare. La norma complessa di zw è il prodotto delle norme complesse di z e di w. Notazione polare di numeri complessi: norma e argomento. Prodotto di numeri complessi di norma 1: gli argomenti si sommano (a meno di multipli di 2pigreco); formule di somma per seno e coseno; notazione esponenziale o di Eulero. Inverso di un numero complesso diverso da 0 in forma cartesiana e polare. I numeri complessi formano un campo. Calcolo delle radici di z^3 - 1 in due modi. Calcolo delle radici di z^2 - i. Enunciato del Teorema Fondamentale dell'Algebra. Un polinomio di grado n a coefficienti complessi ha n radici complesse, se contate con la loro molteplicità.

Abate - de Fabritiis, Cap. 1, pagg. 2-8, 11-12; Cap. 4, pagg. 77-86.

Bramanti-Pagani-Salsa, Analisi Matematica I, pp. 1-13, 35-47.



Seconda settimana (3 ott - 5 ott)

Sistemi di riferimento sulla retta affine e coordinate di punto. Fissato un sistema di riferimento, si ottiene una corrispondenza tra punti della retta affine e numeri reali. Interpretazione geometrica delle operazioni dei numeri reali; varie proprietà. Le diverse scelte di campo portano a diversi "modelli" di retta. Piano affine. Vettori applicati e interpretazione come traslazioni (che vuol dire "vettore libero?"). Somma tra vettori: commutatività e associatività. Elemento neutro e inverso additivo. I vettori possiedono una struttura di gruppo abeliano (= commutativo). Moltiplicazione per uno scalare (= numero reale, o elemento del campo). Moltiplicazione per 1, per 0, per -1. Compatibilità delle operazioni di somma con il prodotto per uno scalare. Concetto di spazio vettoriale. I ragionamenti fatti valgono anche per lo spazio affine tridimensionale. Sistemi di riferimento nel piano affine e nello spazio affine tridimensionale. Collinearità e complanarità: cenni di interpretazione attraverso il concetto di combinazione lineare. Coordinate di punti. Un sistema di riferimento stabilisce una corrispondenza dei punti del piano affine (risp. dello spazio affine tridimensionale) con R^2 (risp. R^3). Equazione parametrica di una retta nel piano affine. Motivazioni, dalla fisica e dalla matematica per l'enfasi sui vettori come base di studio della geometria. Ancora numeri complessi: struttura vettoriale dell' operazione di somma, riflessioni su altre possibili definizioni di "prodotto" in R^2. Esercizi sui numeri complessi: equazioni di secondo grado, esempi di radici n-esime dell'unita'. Prodotto non commutativo in R^4: i quaternioni di Hamilton. Il prodotto vettoriale in R^3 come proiezione sui quaternioni puramente immaginari del prodotto di due quaternioni puramente immaginari.

N.B. La lezione del 6 ott non e' stata impartita, secondo quanto disposto dal Presidente CAD, a causa di concomitante presentazione del Corso di Laurea.

Abate - de Fabritiis, Cap. 2.


Terza settimana (10 ott - 12 ott - 13 ott)

Equazioni parametriche di rette e piani nel piano affine e nello spazio affine tridimensionale. Esempi di sistemi di equazioni lineari e di metodi di risoluzione: un'equazione di primo grado e un sistema di due equazioni lineari in due incognite. Manipolazioni che non cambiano l'insieme di soluzioni di un'equazione (e di un sistema di equazioni): sommare ad entrambi i membri la stessa quantità; moltiplicare entrambi i membri per un numero diverso da 0 (cioè invertibile). Il caso dei sistemi: sostituire una delle equazioni con una sua combinazione lineare con un'altra equazione; funziona se uno dei coefficienti (quale) è diverso da 0. Un esempio di risoluzione di un sistema lineare con le manipolazioni già descritte. Scrittura generale di un sistema lineare di m equazioni in n incognite. matrice A dei coefficienti e matrice B dei coefficienti e termini noti. Esempi numerici di sistemi lineari 2x2 con una, infinite o nessuna soluzione. Commento sulla geometria analitica dei sistemi lineari portati ad esempio. Esempi numerici di sistemi 3x2 con una, infinite e nessuna soluzione e analoghe considerazioni su di esse. Eliminazione di Gauss su tutti i sistemi lineari portati ad esempio e sulle rispettive matrici A e B. Pivots e rango di una matrice. Confronto tra i ranghi di A e di B e l'esistenza o meno di soluzioni. Il caso di unica soluzione. Sistemi lineari "triangolari superiori" di tre equazioni in tre incognite. Hanno soluzione unica se i tre coefficienti sulla diagonale principale sono tutti non nulli. Se qualche coefficiente sulla diagonale principale è non nullo, non vi sono soluzioni, oppure le soluzioni sono infinite. Procedimento di eliminazione di Gauss: rapida spiegazione del procedimento algoritmico. Il procedimento di eliminazione porta un sistema di tre equazioni in tre incognite in un sistema triangolare superiore equivalente; pertanto, ogni sistema (lineare) di tre equazioni in tre incognite (reali) ha infinite soluzioni, oppure una sola, oppure nessuna.

Abate- de Fabritiis, Cap. 3.


Quarta settimana (17 ott - 19 ott - 20 ott)

Ancora sul procedimento di eliminazione di Gauss per la risoluzione di sistemi di equazioni lineari. Se al termine dell'eliminazione vi è un pivot sull'ultima colonna (quella dei termini noti), allora il sistema non ha soluzioni. Se al termine dell'eliminazione non vi sono pivot sull'ultima colonna, abbiamo invece una procedura per elencare tutte le soluzioni: è sufficiente portare a secondo membro le incognite relative alle colonne senza pivot e risolvere, al variare dei valori che assumono, il sistema triangolare superiore risultante. Vari esempi. Campi: Q, R, C, F_2. K-spazi vettoriali. Va richiesto che 1 sia diverso da 0 per motivi geometrici (oltre che algebrici). Esempi di K-spazi vettoriali: {0}, K, K^n. C, visto come spazio vettoriale reale. Somma diretta di spazi vettoriali. Lo spazio vettoriale reale delle funzioni continue da R in R. Un esempio "anomalo", R^+ visto (moltiplicativamente) come spazio vettoriale reale. Un esempio di sistema lineare facilmente risolvibile con manipolazioni opportune (variazioni sul tema di eliminazione de Gauss). Esempi di sistemi lineari 3x3 con una, infinite e nessuna soluzione e rispettive interpretazioni geometriche. Linguaggio delle combinazioni lineari applicato alle equazioni di un sistema. Interpretazione di un sistema lineare come ricerca dei coefficienti che permettono di scrivere la colonna dei termini noti come combinazione lineare delle colonne dei coefficienti delle incognite. Enunciato del teorema di Rouche'-Capelli. Un esempio di sistema lineare 2x2 a coefficienti complessi. Sottospazi vettoriali: definizione. Un sottoinsieme di uno spazio vettoriale è un sottospazio vettoriale se contiene lo 0, contiene la somma di suoi elementi (comunque presi) e contiene tutti i multipli di un suo elemento (comunque preso). Esempi di sottospazi vettoriali: sottospazi banali; retta generata da un elemento non nullo; sottospazi vettoriali di R^2 (solo lo 0, rette per l'origine, tutto R^2). Sottospazi vettoriali di R^3. Somma e intersezione di sottospazi vettoriali: sono sottospazi vettoriali. Il concetto di combinazione lineare: se un sottospazio vettoriale contiene dei vettori, contiene tutte le loro combinazioni lineari. L'insieme delle combinazioni lineari di n vettori è un sottospazio vettoriale. Combinazioni lineari di combinazioni lineari sono combinazioni lineari. Un sistema di equazioni lineari ha soluzione se e solo se la colonna dei termini noti è combinazione lineare delle colonne dei coefficienti delle incognite. Il vettore nullo è sempre combinazione lineare di due elementi prendendo coefficienti 0 e 0. Può essere ottenuto anche con altre scelte di coefficienti? Due esempi. Definizione di dipendenza e indipendenza lineare.

Abate-de Fabritiis, Cap. 4, pagg. 58-65, 75; Cap. 6, pagg. 108-113


Quinta settimana (24 ott - 26 ott - 27 ott)

Richiami dalla lezione precedente: il concetto di combinazione lineare; un sistema lineare ammette soluzione se e solo se la colonna dei termini noti è combinazione lineare delle colonne dei coefficienti delle incognite. Indipendenza lineare e unicità della soluzione di un sistema lineare omogeneo. Unicità (se esiste) della soluzione di un sistema lineare non omogeneo. In uno spazio vettoriale, ogni vettore è combinazione lineare di vettori linearmente indipendenti in al più una maniera; viceversa, se un dato vettore è combinazione lineare di alcuni vettori in esattamente una maniera, allora i vettori sono linearmente indipendenti. Divagazioni su infinito e dimensione. Sottospazio vettoriale generato da un insieme di vettori: Span(v1, …, vn). Generatori di uno spazio vettoriale. Il concetto di base. Base canonica di R^2, R^3, R^n. (1, 3) e (2, 4) sono una base di R^2. Basi e sistemi di riferimento. Esercizi su sistemi di generatori, vettori linearmente indipendenti e basi. Lo spazio vettoriale dei polinomi nell'indeterminata x a coefficienti reali. sua base canonica. il suo sottospazio dei polinomi di grado minore o uguale a n. Richiami su generatori di spazi vettoriali e indipendenza lineare. Se un insieme di vettori genera V, allora un insieme di vettori che li contiene continua a generare V. Se un insieme di vettori è linearmente indipendente, allora ogni sottoinsieme continua ad essere linearmente indipendente. L'insieme vuoto è linearmente indipendente e genera {0}. Una riformulazione dell'indipendenza lineare: dei vettori sono linearmente dipendenti se e solo se (almeno) uno di essi si scrive come combinazione lineare degli altri. Basi e coordinate: ci interesseremo solo di basi finite. Esempio (comunque) di uno spazio vettoriale con una base infinita. Da un insieme (finito) di generatori di uno spazio vettoriale V si può estrarre una base. Se w è un vettore diverso da 0, e v_1, …, v_n è una base di V, allora posso sostituire w al posto di (almeno) uno degli n vettori e ottenere nuovamente una base di V.

Abate-de Fabritiis, Cap. 4, pagg. 61, 64-71


Sesta settimana (31 ott - 2 nov - 3 nov)

Se v_1, …, v_n è una base di V, e w_1, …, w_h sono elementi linearmente indipendenti di V, allora è possibile sostituire h tra i vettori v_1, …, v_n con i vettori w_1, …, w_h in modo da ottenere una nuova base di V. Conseguenze dell'enunciato: 1) Se v_1, …, v_n è una base di V, e w_1, …, w_h sono elementi linearmente indipendenti di V, allora h è minore o uguale ad n. 2) Se v_1, …, v_n e w_1, …, w_h sono basi di V, allora h = n. Questo permette di definire il concetto di dimensione di uno spazio vettoriale come il numero di elementi di una sua base (e quindi di ogni altra sua base). 3) Ogni insieme di vettori linearmente indipendenti di V si completa ad una base di V. 4) Se dim V = n, n elementi linearmente indipendenti di V sono automaticamente una base. 5) Se dim V = n, n generatori di V sono automaticamente una base. 6) La dimensione di un sottospazio è minore o uguale della dimensione dello spazio vettoriale che lo contiene. L'unico sottospazio di V la cui dimensione è uguale a dim V è V stesso. Sottospazi vettoriali di R^2 e R^3 (versione rigorosa). Formula di Grassmann: accenno di dimostrazione e un'applicazione all'intersezione di piani in R^3. Spazio vettoriale delle matrici quadrate nxn, sua base canonica. Esempi di altre basi. I sottospazi vettoriali delle matrici simmetriche e antisimmetriche, loro dimensioni e loro basi naturali. Decomposizione di M_n(R) nella somma diretta dei sottospazi U e W delle matrici risp. simmetriche e antisimmetriche. Un breve riassunto su indipendenza lineare, generatori e dimensione. Degli elementi v_1, …, v_n di uno spazio vettoriale sono linearmente indipendenti se e solo se nessuno dei vettori è combinazione lineare dei precedenti. Un sottospazio vettoriale di uno spazio vettoriale di dimensione finita ha dimensione finita. Dimostrazione delle formule di Grassmann. Due piani in R^4 che si intersecano solo in un punto. Stima della dimensione dell'intersezione di due sottospazi vettoriali. Un'applicazione ai numeri di Fibonacci: struttura di spazio vettoriale sull'insieme delle successioni reali; le successioni che soddisfano la ritorsione di Fibonacci sono un sottospazio vettoriale di dimensione 2. Esercizi per casa.

Abate - de Fabritiis, Cap. 4, pagg. 71-77


Settima settimana (7 nov - 9 nov - 10 nov)

Ancora sui numeri di Fibonacci. Somma diretta di sottospazi vettoriali. Oggi sottospazio vettoriale ammette un sottospazio complementare (o supplementare che dir si voglia). Definizione di applicazione lineare. Vari esempi. La moltiplicazione (a sinistra) per una matrice mxn fornisce un'applicazione lineare da K^n a K^m. Definizione di nucleo e immagine di un'applicazione lineare. Esempi ed esercizi su applizazioni lineari, in particolare sull'applicazione lineare L_A definita da una matrice A mxn. Gergo: omomorfismi, monomorfismi, epimorfismi, endomorfismi, isomorfismi, automorfismi. Definizione di nucleo e immagine di un'applicazione lineare e dimostrazione che sono sottospazi vettoriali dello spazio vettoriale di partenza e di arrivo. T: U --> V lineare è suriettiva se e solo se Im(T) coincide con V; è iniettavi se e solo se ker(T) = {0}. Affermazione più precisa (teorema di struttura delle fibre): Se T: U --> V è un'applicazione lineare, v è un elemento di Im(T) e T(u_0) = v, allora le soluzioni di T(u) = v sono tutte e sole quelle della forma u = u_0 + k, dove k è un elemento del nucleo. Esempi: 2x + 3y = 1 è una retta in R^2 parallela a 2x + 3y = 0. Soluzioni di y' = 2x. Soluzioni di y'-y = x^2. Se T:U --> V è lineare, e u_1, …, u_n è una base di U, allora T(u_1), …, T(u_n) generano Im(T). Se T:U --> V è lineare (e U ha dimensione finita) allora dim ker(T) + dim Im(T) = dim U. Applicazione: un'equazione lineare non banale in R^3 individua un piano. Codimensione di sottospazi vettoriali.

Abate- de Fabritiis, Cap. 4, pagg. 75-77, Cap.5, pagg. 92-99


Ottava settimana (14 nov - 16 nov - 17 nov)

Esercizi su dipendenza e indipendenza lineare di n-ple in spazi vettoriali numeriche. Esercizi su sistemi lineari omogenei. Esercizi su nucleo e immagine di un'applicazione lineare L_A data da una matrice A mxn. La somma e la composizione di applicazioni lineari sono lineari. Ogni multiplo di un'applicazione lineare è lineare. Esempi: la somma di L_A e L_B è L_A+B; l'applicazione che associa ad una funzione (derivabile) f la funzione f'-f è lineare. Applicazione inversa di un'applicazione lineare: è lineare. Decidere (in maniera arbitraria) le immagini in W dei vettori di una base di V definisce in maniera unica un'applicazione lineare da V in W. Dimostrazione dell'esistenza e dell'unicità di tale applicazione. Conseguenza: ogni applicazione lineare da K^n a K^m si ottiene moltiplicando a sinistra per una matrice m/n a coefficienti in K; tale matrice è univocamente determinata dall'applicazione lineare. Esiste pertanto una corrispondenza biunivoca tra applicazioni lineari da K^n a K^m e matrici mxn. Rango di un'applicazione lineare. Un'applicazione lineare f da V in W è iniettiva quando il suo rango coincide con dim V; è suriettiva quando il suo rango coincide con dim W. Affinché f possa essere invertibile, deve valere dim V = dim W; se questo succede, f è iniettiva se e solo se è suriettiva. Il rango di un'applicazione lineare f da K^n a K^m è il massimo numero di colonne linearmente indipendenti della matrice A tale che f = L_A; tale numero si chiama anche "rango della matrice A". L_A è iniettiva se il rango di A coincide con il numero delle sue colonne, ed è suriettiva se il rango di A coincide con il numero delle sue righe; affinché L_A possa essere invertibile, A deve essere una matrice quadrata. Il rango di una matrice coincide con il rango della sua trasposta: inizio della dimostrazione.

Abate - de Fabritiis, Cap. 5, pagg. 96, 97, 100-102. Cap. 7, pagg. 128-130


Nona settimana (21 nov - 23 nov - 24 nov)

Il rango di una matrice coincide con il rango della sua trasposta. Strategia dimostrativa: la dimensione del nucleo dell'applicazione associata alla matrice è pari al numero di colonne meno il numero dei pivot; il rango della matrice trasposta coincide con il numero dei pivot al termine dell'eliminazione di Gauss. Calcolo della dimensione dello spazio delle soluzioni di un sistema lineare omogeneo: è uguale al numero di incognite meno il numero di pivot che risultano dall'eliminazione di Gauss effettuata sulla matrice dei coefficienti. Le manipolazioni dell'eliminazione di Gauss non modificano il sottospazio vettoriale generato dalle righe della matrice su cui vengono effettuate. Le righe non nulle al termine dell'eliminazione di Gauss sono linearmente indipendenti. Passaggio da equazioni cartesiane a equazioni parametriche di un sottospazio vettoriale di K^n. Passaggio da equazioni parametriche a equazioni cartesiane (cenni). Esercizio relativo a un sistema lineare 4x4 con un piano affine di soluzioni. Sistema lineare'omogeneo associato, applicazione del teorema di struttura. Interpretazione della matrice A dei coefficienti dello stesso sistema come endomorfismo di R^4, (ri)determinando il nucleo e determinando l'immagine. Sottospazi affini, giacitura, equazioni cartesiane e equazioni parametriche. Parallelismo tra sottospazi affini. Prova scritta di autovalutazione in classe (cfr. sezione "Esercizi e Altro" per il testo e le soluzioni).

Abate - de Fabritiis, Cap. 5, pagg. 100-102. Cap. 6, pagg. 116-122


Decima settimana (28 nov - 30 nov - 1 dic)

Lo spazio delle matrici mxn e delle applicazioni lineari K^n --> K^m sono (linearmente) isomorfi. Composizione tra applicazioni lineari e prodotto righe per colonne. Alcuni esempi. Proprietà del prodotto righe per colonne. AB può essere diverso da BA. In generale (A+B)^2 è diverso da A^2 + 2AB + B^2. Matrici invertibili. Il gruppo generale lineare. Calcolo dell'inversa di una matrice invertibile. Esempi di operatori lineari: rotazione e di riflessione rispetto a una retta in R^2 (con matrici). Gruppi SO(2) e O(2). Operatori di derivazione sui polinomi di grado minore o uguale a 3, derivate successive, matrici associate, nilpotenza. Operatori di trasposizione, di simmetrizzazione e di antisimmetrizzazione sulle matrici di ordine 3, determinazione dei nuclei e delle immagini, matrici associate a tali operatori. Matrice di cambiamento di base. Matrice associata ad un'applicazione lineare fissate basi in partenza e in arrivo. Esempi.

Abate - de Fabritiis, Cap. 7, pagg. 133-138. Cap. 8, tutto.


Undicesima settimana (5 dic - 7 dic)

Esempi di matrici associate ad applicazionilineari e cambiamenti di base. Relazione di similitudine tra matrici. Esempio della derivazione sui polinomi di grado minore o uguale a 2: matrici associate in basi diverse e deduzione esplicita della loro similitudine. Area di un parallelogramma nel piano reale. Separata linearità rispetto ai lati del parallelogramma. Alternanza per scambio di lati: per esibire linearità, l'area deve avere un segno. Determinante di matrici quadrate: esempi di calcolo a partire dalle proprietà desiderate. Definizione assiomatica di determinante: garantisce l'unicità. Esistenza del determinante: definizione ricorsiva attraverso lo sviluppo di Laplace lungo la prima colonna. Così definito, il determinante è alternante per scambio di righe adiacenti.

Abate - de Fabritiis, Cap. 9, pagg. 162-171


Dodicesima settimana (12 dic - 14 dic - 15 dic)

L'alternanza per righe adiacenti implica l'alternanza per scambio di righe. La definizione ricorsiva di determinante soddisfa le tre proprietà assiomatiche. Una matrice quadrata è invertibile se e solo se ha determinante non nullo. Come cambia il segno del determinante se permuto le righe della matrice? Permutazioni e segno di permutazioni. Proprietà del segno di permutazioni. Una nuova definizione del determinante come somma alternata di prodotti dei coefficienti di matrice. Soddisfa le tre proprietà assiomatiche. Una matrice quadrata e la sua trasposta hanno lo stesso determinante. Il determinante è multilineare anche nelle colonne della matrice argomento. Sviluppo di Laplace lungo righe e colonne. Calcolo di un determinante 4x4. Complementi algebrici e matrice dei cofattori. Calcolo dell'inversa di una matrice invertibile con l'algoritmo dei cofattori. Applicazione alla risoluzione di in sistema lineare quadrato. Formule di Cramer. Formula di Binet e sua interpretazione geometrica. Matrici simili hanno lo stesso determinante. Il teorema degli orlati. Applicazione al calcolo del rango di una matrice dipendente da parametro.

Abate - de Fabritiis, Cap. 9, pagg. 171-179


Tredicesima settimana (19 dic - 21 dic - 22 dic)

Geometria metrica del piano, definizioni e esempi. Prodotto scalare canonico in R^n. Forme bilineari simmetriche su spazi vettoriali. Definizioni e esempi di forme bilineari simmetriche degeneri e non degeneri, definite positive e semidefinite positive. Disuguaglianza di Cachy-Schwarz. Traduzione matriciale delle definizioni già date per forme bilineari. Una forma bilineare è (anti)simmetrica se e solo se la matrice associata è (anti)simmetrica. Una forma bilineare può non essere simmetrica né antisimmetrica. Una forma bilineare è non degenere "a sinistra" se e solo se è non degenere "a destra" se e solo se la matrice associata è invertibile (cioè di determinante non nullo). Il concetto di "definito positivo/negativo" o "semidefinito positivo/negativo" ha senso sul campo reale, ma non sui complessi o su campi finiti. Perché non esiste una relazione d'ordine totale sui numeri complessi che sia compatibile con le operazioni. Come cambia la matrice associata ad una forma bilineare se la scriviamo in una base diversa? Matrici congruenti. Disuguaglianza triangolare per la norma indotta da un prodotto scalare definito positivo. Lunghezze e angoli in uno spazio vettoriale metrico (cioè in uno spazio euclideo reale). Identità di polarizzazione. Ortogonale ad un vettore, ad un sottoinsieme, ad un sottospazio rispetto ad un prodotto scalare. Nucleo di un prodotto scalare. Basi ortogonali e ortonormali. Geometria analitica affine e euclidea nel piano e nello spazio a tre dimensioni. Rette del piano, equazioni parametriche e cartesiane. Parametri direttori e vettore direttore, condizioni di parallelismo e di perpendicolarita'. Piani dello spazio, Equazioni parametriche e equazione cartesiana. Riconoscimento del vettore con componenti i tre coefficienti dell'equazione cartesiana come vettore perpendicolare al piano. Piani particolari: piani coordinati e piani ad essi paralleli, loro equazioni parametriche e cartesiane.

Abate- de Fabritiis, Cap. 11, pagg. 224-235. Cap. 10, pagg. 186-189, 193-195.

Quattordicesima settimana (9 gen - 11 gen - 12 gen)


Geometria analitica affine e euclidea nello spazio a tre dimensioni. Rette dello spazio, equazioni parametriche e cartesiane di rette. Parametri direttori e vettore direttore di rette dello spazio, deduzione dei parametri direttori come minori a segni alterni della matrice dei coefficienti del sistema di due equazioni cartesiane di una retta. Prodotto vettoriale di due vettori. Condizioni di parallelismo e di perpendicolarita' nello spazio a tre dimensioni: tra due piani, tra due rette e tra retta e piano. Autovalori e autovettori di operatori lineari in uno spazio vettoriale. esempi e osservazioni fondamentali. Autospazi, il nucleo come autospazio dell'autovalore nullo.Deduzione e uso del polinomio caratteristico in esempi. La rotazione di 90 gradi in R^2 e in C^2. Operatori diagonalizzabili e non diagonalizzabili. Analoghe nozioni per matrici quadrate. Richiami dei concetti di diagonalizzazione, diagonalizzabilità, autovalore, autovettore, autospazio, polinomio caratteristico. La matrice di rotazione nel piano euclideo reale di angolo theta (diverso da 0 e da 180 gradi): non è diagonalizzabile sui reali, ma è diagonalizzabile sui complessi. Calcolo degli autovalori. DUE autovettori relativi ad autovalori diversi sono automaticamente linearmente indipendenti. Lo stesso è vero per più autovettori (senza dimostrazione). Isometrie di R^n rispetto al prodotto scalare canonico (che mandano 0 in 0). Sono lineari (senza dimostrazione). Conservano sia la norma che il prodotto scalare. Isometrie lineari di R^2: possibili matrici. Quelle di determinante 1 sono le rotazioni. Quelle di determinante -1 possiedono gli autovalori 1 e -1, e gli autovettori corrispondenti sono ortogonali: sono quindi riflessioni ortogonali rispetto alla retta per l'origine costituita dal loro autospazio di autovalore 1. Non ci sono altre isometrie (lineari) del piano oltre a rotazioni e simmetrie ortogonali rispetto a rette. Determinante di un'isometria (reale): può essere solo 1 o -1. Le isometrie dello spazio euclideo n-dimensionale si indicano con O(n); quelle di determinante 1 si indicano con SO(n). SO(3). Un'isometria di determinante 1 dello spazio euclideo tridimensionale ha almeno un autovalore reale (poiché il suo polinomio caratteristico ha grado dispari e coefficienti reali). Questo autovalore può essere solamente 1 o -1. Se un elemento di SO(3) ammette l'autovalore 1, allora agisce come una rotazione sul piano ortogonale ad un autovettore di autovalore 1; è quindi una rotazione attorno ad una retta passante per l'origine. Se un elemento di SO(3) ammette l'autovalore -1, allora ha anche l'autovalore 1, ed è una rotazione di 180 gradi attorno ad una retta passante per l'origine. Ogni elemento di SO(3) è una rotazione attorno ad una retta passante per l'origine (il che è falso per SO(n), n>3).

Abate- de Fabritiis, Cap. 10, pagg. 186-204, Cap. 12, 263-266, Cap. 13, p. 276-284.

Quindicesima settimana (16 gen - 18 gen - 19 gen)

Ancora sulla diagonalizzazione. Indipendenza lineari di autovettori associati ad autovalori distinti. Diagonalizzabilita' degli operatori con tutti gli autovalori nel campo e tra loro distinti. Esempio della derivazione sullo spazio dei polinomi di grado minore o uguale a 3. esempio della trasposizione sullo spazio delle matrici quadrate 2x2. Molteplicita' algebrica e geometrica di un autovalore. Dimostraziuone che la prima e' maggiore o uguale alla seconda. Condizione necessaria e sufficiente per la diagonalizzabilita' in termini di autovalori tutti nel campo e di uguaglianza tra le rispettive molteplicita' algebriche e geometriche. Decomposizione spettrale di uno spazio vettoriale rispetto a un operatore diagonalizzabile. Diagonalizzazione delle matrici di Pauli. Richiami su molteplicità algebrica e geometria e diagonalizzabilità. Esercizi sulla diagonalizzazione. Esempi di matrici 2x2 diagonalizzabili e non. Autovalori di una matrice triangolare superiore. Forma triangolare superiore di un esempio non diagonalizzabile. Cenni sulla forma canonica di Jordan. Esempio: possibili forme canoniche di Jordan di un endomorfismo di C^3 con un unico autovalore. Interpretazione di molteplicità algebrica e geometrica di un autovalore in termini della forma canonica di Jordan (vaghi cenni). Un esempio con una matrice (simmetrica) reale 6x6. Enunciato del Teorema spettrale. Un altro esempio già visto precedentemente (simmetria ortogonale nel piano) e sua interpretazione alla luce del Teorema spettrale. Un esempio con matrice 3x3: calcolo degli autovalori.

Abate- de Fabritiis, Cap. 13, pagg. 276-288.