|
 |
|
#1
Non ho ben capito come si effettui, da un punto di vista computazionale,
l'addizione tra più partizioni. So che la somma è il minimo
maggiorante dei due addendi e so anche che la partizione risultante si
ottiene calcolando le unioni dei blocchi degli addendi ma non riesco
a tradurre questa affermazione in una regola di calcolo. Per esempio:
{1,2,3/4/5/6} + {2,4/1,3/5,6} = {1,2,3,4/5,6}
(per la definizione di somma); se però faccio l'unione dei vari
blocchi ottengo:
{1,2,3,4/1,2,3/1,2,3,5,6/ 2,4/1,3,4/4,5,6/2,4,5/1,3,5/5,6/2,4,6/1,3,6}.
Come deve esser fatta l'unione dei vari blocchi? (Mirko Tedaldi)
La somma di due partizioni può venire calcolata partendo,
ad esempio, dal primo blocco della prima partizione e calcolando la sua
unione con tutti i blocchi della seconda partizione che hanno intersezione
non vuota con il blocco stesso. Nel caso specifico si ottiene l'insieme
formato da 1,2,3,4; si torna poi alla prima partizione e si calcola
l'unione di tale insieme con tutti i blocchi con i quali ha intersezione
non vuota. Nel caso specifico l'insieme non viene incrementato e l'operazione
termina; diversamente si sarebbe tornati alla seconda partizione ripetendo
le operazioni sino a quando non si osservano ulteriori incrementi.
L'insieme ottenuto costituisce il primo blocco della somma. Durante le
operazioni precedenti vanno marcati tutti i blocchi (delle due partizioni)
che sono stati uniti a quello iniziale poiché vanno esclusi dalle
operazioni successive. Si procede poi con il primo blocco non ancora marcato
della prima partizione (nel nostro caso è il terzo blocco, contenente
il solo elemento 5) che va unito ai blocchi della seconda partizione che
hanno elementi comuni (nel nostro caso il terzo blocco, che contiene gli
elementi 5 e 6); si ritorna poi alla prima partizione unendo l'insieme
calcolato ai blocchi che hanno elementi comuni (nel nostro caso il quarto
blocco, che contiene l'elemento 6) e così via. La procedura ha
termine quando si sono esauriti tutti i blocchi delle due partizioni.
Naturalmente si può partire da qualunque blocco di una delle
due partizioni ottenendo sempre la stessa somma (a meno di un diverso
ordinamento dei blocchi). Si noti come, per gli insiemi, i termini
somma e unione siano sinonimi.
#2
Perché l'integrale di convoluzione è chiamato in questo modo?
Sfogliando alcuni manuali e testi di matematica ho trovato solo qualche
incomprensibile cenno. (Daniele Cremonini)
Il termine convoluzione è utilizzato in matematica (convoluzione di
funzioni, di serie di potenze, trasformate di convoluzione) in maniera
aderente alla sua etimologia che deriva dalla forma latina
convolutio con il significato di unione, legame (da
con-voluere cioè, letteralmente, avvolgere, attorcigliare
insieme).
Un testo di riferimento su questo argomento è: W. Kecs:
The convolution product and some applications, Reidel, 1982.
#3
Si è fatto spesso riferimento a soluzioni in forma chiusa. Di che
si tratta? (Daniele Cremonini)
Una forma chiusa è una espressione che può venire calcolata
(esattamente) in base alla conoscenza di un numero finito di quantità
note (es. zeri dei polinomi di ordine 2 in funzione dei loro coefficienti).
Va tuttavia rilevato che alcuni metodi forniscono relazioni
chiuse che dipendono da quantità non ottenibili in tale modo; ad esempio,
il metodo del polinomio interpolante per il calcolo di una funzione di matrice
richiede la conoscenza degli autovalori della matrice che, in generale, possono
venire calcolati solo con procedimenti iterativi.
#4
Come si risolvono, in generale, le equazioni differenziali
non lineari? (Mirko Tedaldi)
Le soluzioni di tali equazioni vengono in genere calcolate
in forma numerica facendo ricorso a varie classi di algoritmi (es.
Runge-Kutta, Runge-Kutta-Fehlberg, Newton-Kantorovich, metodo delle
sezioni, metodi di Kachanov ecc.). Metodi di questo tipo sono
disponibili sia in ambiente Matlab (ode23, ode45) che in
ambiente Mathematica (NDSolve).
#5
Non mi è molto chiara la regola che lei ha esposto a lezione
riguardante la matrice P=[B AB....A(n-1)B]
relativa alla lineare dipendenza delle sue colonne. Non riesco inoltre
a capire l'importanza pratica di questa regola. (Stefano Lucente)
L'espressione della matrice di raggiungibilità che abbiamo ricavato
si presta a tre considerazioni di carattere pratico particolarmente utili
nel calcolo manuale non tanto e non solo di tale matrice ma, soprattutto,
del sottospazio di raggiungibilità generato dalle sue colonne.
La prima osservazione riguarda le sottomatrici AkB che
risulta vantaggioso calcolare premoltiplicando per A il blocco precedente,
evitando cioè il calcolo esplicito di Ak;
tale modo di procedere riduce
la mole di calcoli e la possibilità di errori. Le osservazioni
relative alla lineare dipendenza delle colonne riducono, egualmente,
i calcoli necessari alla determinazione di im(P). La prima osservazione
riguarda la lineare dipendenza di tutti i blocchi successivi alla prima
sottomatrice le cui colonne risultino tutte linearmente dipendenti dalle
precedenti; è ovvio l'uso di tale risultato: anziché
calcolare tutti i blocchi di P ed applicare l'algoritmo di Gram-Schmidt
alle colonne di tale matrice, si calcolerà un blocco alla volta
valutando la lineare dipendenza delle sue colonne dai vettori precedenti
sospendendo la procedura quando si incontra un blocco le cui colonne
siano tutte linearmente dipendenti dalle precedenti.
La seconda osservazione riguarda la lineare dipendenza di tutti i vettori
di posizione omologa nei blocchi successivi quando si osserva la lineare
dipendenza (da tutti i vettori precedenti) di un singolo vettore
all'interno di un blocco di P; l'uso pratico di tale proprietà,
del tutto simile al precedente, consente di ridurre al minimo
le operazioni necessarie al calcolo di una base del sottospazio di
raggiungibilità. Esempi numerici di applicazione di tali
regole sono riportati negli esercizi 1 (Raggiungibilità,
osservabilità e stabilità) e 2 (Scomposizione di Kalman,
forma minima).
#6
Vorrei sapere che cosa è una matrice ciclica e che ruolo ha nella
raggiungibilità di un sistema con un unico ingresso. (Mirko Tedaldi)
Una matrice A (n x n) può venire definita
ciclica quando consente di generare l'intero spazio mediante un
unico generatore; in altri termini quando esiste un vettore v
(n x 1) tale che la matrice [ v Av ... A(n-1)v ]
sia di rango massimo.
Un sistema dinamico dotato di un solo ingresso può risultare
completamente raggiungibile solo se la relativa matrice dinamica è
ciclica. Tale proprietà può venire espressa anche in altri
modi, ad esempio facendo riferimento alla forma di Jordan o al polinomio
minimo e a quello caratteristico della matrice (che risultano coincidenti
per le matrici cicliche). In una matrice non ciclica la dimensione
massima del sottospazio generato da un singolo generatore coincide con
il grado del polinomio minimo.
#7
A lezione ho annotato questa proposizione: "Se un sottospazio è
invariante rispetto alla trasformazione lineare descritta dalla matrice A,
è invariante anche rispetto alle trasformazioni lineari descritte
dalle funzioni di A". Questa proposizione è valida per qualunque
matrice o solo in casi particolari? (Gabriele Tinti)
È immediato verificare come un sottospazio invariante rispetto
alla trasformazione lineare descritta da una matrice A risulti
invariante anche rispetto a quelle descritte da qualunque potenza di A;
dalla definizione di funzione di matrice segue quindi la generalità
della affermazione riportata.
#8
Cosa si intende per matrice propria e strettamente propria? (Luca Roffia)
Il termine si riferisce alle matrici razionali i cui elementi sono
costituiti da rapporti di polinomi. Una matrice razionale è
propria quando i gradi dei polinomi a denominatore non superano quelli
dei corrispondenti polinomi a numeratore; strettamente propria quando i gradi
dei polinomi a denominatore sono maggiori di quelli dei polinomi a numeratore.
#9
Con riferimento alla seconda domanda di pagina 2.2 del testo
Teoria dei Sistemi: Test commentati e risolti, è vero,
in generale, che l'immagine della controimmagine di un sottoinsieme
coincide con il sottoinsieme stesso?
Un possibile controesempio potrebbe essere il caso in cui il
sottoinsieme in questione non appartenga all'immagine della funzione.
In tal caso la sua controimmagine sarebbe vuota e di conseguenza anche
l'immagine della controimmagine lo sarebbe. (Livio Profiri)
La domanda in oggetto si riferisce ad una funzione il cui codominio
sia l'intero insieme X; la notazione utilizzata, non
sufficientemente chiara, ha determinato l'esclusione di tale
domanda dal gruppo utilizzato come base per la preparazione delle
prove di valutazione.
#10
A proposito della proprietà C.2.2. a pag. A.47 del testo
Teoria dei Sistemi e del Controllo di G. Marro,
non mi risulta chiaro perché AATy
appartenga a im(A). (Gabriele Tinti)
Un vettore ottenuto postmoltiplicando la matrice A per qualunque
espressione (es. ABCDv ove B,C e D sono matrici di
dimensioni compatibili e del tutto generiche) appartiene necessariamente al
sottospazio im(A) in quanto combinazione lineare delle colonne di
A.
#11
Non mi è chiaro perché, data una matrice singolare A,
l'immagine inversa secondo A di un sottospazio X1
si ottenga mediante l'espressione pinv(A)B1
+ ker(A), ove B1 indica una base di
X1. Perchè si deve sommare il sottospazio
ker(A)? (Gabriele Tinti)
Se v è un vettore tale che x1=Av appartenga
ad X1, l'insieme dei vettori trasformati da A in
x1 è costituito dalla varietà lineare definita
da v e dal sottospazio ker(A). Da questa proprietà e da
quelle delle basi segue immediatamente l'espressione indicata.
#12
Dai miei appunti risulta che se un autovalore, L, ha molteplicità
ad esempio pari a 5, i corrispondenti blocchi di Jordan possono
essere 1, 2, 3, 4 o 5.
Nei cinque casi possibili allora avremmo nella diagonale
immediatamente al di sopra di quella principale rispettivamente
4, 3, 2, 1 e 0 volte elementi eguali ad 1.
L'esempio visto a lezione credo sia il seguente:
L 1 0 0 0
0 L 1 0 0
0 0 L 0 0
0 0 0 L 1
0 0 0 0 L
dove L ha molteplicità algebrica 5 nel polinomio caratteristico
e 3 nel polinomio minimo.
Su un libro ho letto che nel blocco di Jordan relativo all'autovalore L
deve esserci un numero di elementi uguali ad 1 pari alla
molteplicità di L nel polinomio minimo diminuita di
un'unità.
Vorrei sapere se la forma di Jordan di una matrice assegnata è
unica o se vi sono gradi di libertà. (Daniele Cremonini)
Esistono due tipi, essenzialmente equivalenti, di forme di Jordan; la
prima, quella più comune, prevede elementi unitari al di sopra
della diagonale principale, la seconda al di sotto. Al di là
di questa scelta, la forma di Jordan di una matrice assegnata è
unica a meno di una permutazione nell'ordine dei suoi blocchi. Per
ogni autovalore il blocco di Jordan di dimensione massima
segue la regola da lei indicata, ha cioè dimensione pari alla
molteplicità dell'autovalore come zero del polinomio minimo;
i restanti blocchi associati a tale autovalore avranno dimensioni
ben precise per una matrice assegnata. La somma delle dimensioni
di tutti i blocchi associati ad un autovalore è ovviamente
pari alla molteplicità di tale autovalore come zero del
polinomio caratteristico. La frase da lei riportata descrive solo
parzialmente la situazione poiché descrive solo la dimensione
del blocco di dimensione massima associato ad un autovalore.
#13
Perché una relazione di equivalenza è definita da una
matrice simmetrica? (Gabriele Tinti)
La simmetria della matrice riflette la proprietà di simmetria
di cui godono le relazioni di equivalenza.
#14
Non ho ben capito la differenza tra partizione, parzializzazione e
insieme di sottoinsiemi. (Stefano Nunziata)
Dato un insieme X con n elementi, una partizione di
X è un insieme di sottoinsiemi disgiunti la cui unione
è uguale a X. Una parzializzazione di X è
un insieme di sottoinsiemi, non necessariamente disgiunti, la cui
unione non è uguale a X; il numero totale degli elementi
presenti nei vari sottoinsiemi non può tuttavia superare n.
Un insieme di sottoinsiemi di X non gode di alcuna proprietà
particolare; tali sottoinsiemi possono essere disgiunti o meno, avere
unione uguale a X o meno ed avere, globalmente, un numero di
elementi minore, uguale o maggiore di n.
#15
Con riferimento alla seconda domanda di pagina 2.2 del testo
Teoria dei Sistemi: Test commentati e risolti,
mi sembrano corrette le risposte B e C mentre sul libro viene
indicata la A. C'è forse un errore? (Cristiano Cavallari)
Si veda la risposta data alla domanda 9.
#16
Perché se il polinomio minimo è uguale a quello caratteristico
posso scrivere subito la forma di Jordan? (Vittorio Teglia)
Perché in tale caso vi è un solo blocco di Jordan associato
ad ogni autovalore; la dimensione di tale blocco corrisponde quindi alla
molteplicità del relativo autovalore come zero del polinomio
caratteristico.
#17
Esiste un legame tra la conoscenza del polinomio caratteristico e la forma
di Jordan di una matrice (senza conoscere né calcolare il polinomio
minimo)? (Vittorio Teglia)
L'unico legame è costituito dagli autovalori e dalla loro
molteplicità come zeri del polinomio caratteristico che
costituisce, ovviamente, un limite superiore alla dimensione dei
corrispondenti blocchi di Jordan.
#18
Si è detto che la forma di Jordan, J, di una matrice A
può venire calcolata mediante una espressione del tipo
J=T-1AT; vorrei sapere quale combiamento di base
rappresenta T. (Vittorio Teglia)
Le colonne di T sono gli autovettori generalizzati di A.
Può approfondire tale argomento, se di suo interesse, consultando, ad
esempio il testo: K. Ogata, State space analysis of control systems,
Prentice-Hall, Englewood Cliff, N.J., 1967.
#19
In quali casi il nullo della matrice Q è uguale all'immagine
della trasposta di Q? (Cristiano Carretti)
Lo spazio nullo della trasformazione lineare descritta da una matrice, Q,
è il complemento ortogonale dell'immagine della trasformazione
lineare descritta dalla trasposta di Q; tali sottospazi non possono
quindi essere eguali in nessun caso.
#20
Come posso calcolare gli autovalori di una matrice quando non riesco a
determinare gli zeri del polinomio caratteristico (mi riferisco all'esercizio
4 del testo Teoria dei Sistemi: Esercizi e Applicazioni)?
Potrebbe consigliarmi un testo che tratti in modo chiaro tali algoritmi?
(Cristiano Carretti)
L'algoritmo più usato per il calcolo degli autovalori di una matrice
è il Q-R; può trovarne una descrizione in Wilkinson, J.H. e
Reinsch, C., Linear Algebra, vol. II di Handbook for Automatic
Computation, New York, Springer Verlag, 1971, oppure in Golub, Gene H.,
e Van Loan, Charles F., Matrix Computations, Baltimora, Johns Hopkins
University Press, 1983. Tale algoritmo non è orientato ad un calcolo
manuale ma all'implementazione su calcolatore. L'ambiente di calcolo standard
che si è imposto a livello mondiale nel settore dell'algebra lineare
è il Matlab che è stato fornito a tutti gli allievi
che hanno frequentato il corso nell'ambito di una Classroom Teaching
License; i calcoli relativi all'esercizio cui lei fa riferimento sono
stati svolti usando Matlab. Aggiungo che durante la prova d'esame
non è consentito utilizzare un computer e che le prove da svolgere
non ne richiedono l'uso.
#21
Vorrei segnalare, a proposito di MATLAB, che nel sito ftp.cnr.it/pub/linux/apps/math/matrix
ho trovato la versione per Linux di un programma, Octave, che a detta degli
autori è Matlab-compatibile ed è disponibile come eseguibile
in formato ELF per Linux o come file sorgenti in Fortran e C++. Ho provato
a fargli eseguire alcuni demo per Matlab, ma sembra che abbia dei problemi
nell'output di testo, che sembra gestito in modo differente. La parte grafica,
invece, pare funzionare, e si appoggia all'ottimo GNUPlot, che deve essere
preventivamente installato sul sistema. Guardando qua e là, ho scoperto
che fra le funzioni già implementate ve ne sono alcune, come is_controllable()
e kalman(), di possibile utilizzazione nel corso di Teoria dei Sistemi.
Purtroppo non ho avuto modo di eseguire alcun test sul buon funzionamento
del pacchetto, ma conto di tentare al più presto. Se le dovesse
interessare e ha a disposizione una macchina Linux, le consiglio di scaricare
direttamente l'eseguibile, in quanto ho avuto problemi di librerie nella
compilazione del codice C++. (Matteo Fortini)
Tra i tanti pacchetti di
software che è possibile reperire su Internet ne esistono alcuni
simili o parzialmente compatibili con MATLAB. Octave è uno dei più
noti ed è anche, per quanto mi risulta, affidabile; può trovare
documentazione su tale pacchetto in vari siti (consiglio l'uso di un
motore di ricerca per la loro individuazione).
Un ulteriore
recente pacchetto, che pure si avvale di GNUplot, è RLaB; la homepage
è su http://www.eskimo.com/~ians/rlab.html.
Altri pacchetti che
sono stati disponibili per qualche tempo (es MEDAL) non risultano più
accessibili. È invece ancora reperibile
(http://garbo.uwasa.fi/)
quella che viene, impropriamente, considerata una versione public domain
di MATLAB; riporto quanto ha scritto al riguardo Cleve Moler, autore della
prima versione di MATLAB:
From time to time, I see references to, or get requests for, the
"public domain" version of MATLAB. I am the original author of
MATLAB, and one of the founders of The MathWorks. I would like to explain
how I regard "public domain" MATLAB. There are two versions of
MATLAB. I wrote the first, which we now refer to as "classic"
MATLAB, over the period from 1977 to 1984, while I was on the faculty at
the University of New Mexico. It is an interactive matrix laboratory, written
in Fortran, which uses some of the subroutines from LINPACK and EISPACK.
I distributed a few hundred copies of the source code, usually charging
a small service charge, and including a letter requesting that the code
not be redistributed. I never used the term "public domain".
The second version, written in C by Steve Bangert and John Little, is the
basis for a family of products from The MathWorks, Inc., a company which
Bangert, Little and I founded in 1985. These products are called PC-MATLAB,
Mac-MATLAB, Pro-MATLAB, etc. I obviously recommend that anyone interested
in using MATLAB acquire the MathWorks version appropriate for his or her
machine. In addition to my commercial interest, I believe the MathWorks
versions are preferable scientifically, educationally, and, in the long
run, economically. The MathWorks versions:
* Are faster in execution
* Have much better storage management
* Include powerful graphics
* Are extensible and programmable
* Can be expanded with sophisticated "toolboxes"
* Are supported by scientific software professionals
The only feature of classic MATLAB that is not present in modern
MATLAB is the "chop" function which allows the simulation of
shorter precision arithmetic. It is an interesting curiosity, but it is
no substitute for roundoff error analysis and it makes execution very slow,
even when it isn't used. I know of several serious bugs in classic MATLAB,
particularly in logical and looping operations, but I don't intend to fix
them. In fact, there have been no fixes made to the code since about 1982.
I stopped distributing any copies myself. The number of computers for which
MathWorks MATLAB is not available is declining as old machines are retired
and new machine versions are announced. A few other commercial systems,
for example SCT's CTRL-C, are based on classic MATLAB. That's OK. CTRL-C,
was done with my permission and it helped establish MATLAB in control and
systems engineering. Now the company is a worthy competitor. I realize
that classic MATLAB is available on a few bulletin boards and through some
"freeware" services. In some cases, unauthorized statements about
public domain software are included. I have regarded this as a mixed blessing.
It certainly gives the MATLAB approach to computing valuable exposure,
but I am afraid that some users of classic MATLAB do not realize how inferior
it is to the MathWorks products.
Accanto ai pacchetti che potremmo definire MATLAB-like, che possono
cioè venire utilizzati sia in una modalità di comando diretto
che attraverso programmi costituiti da liste di comandi, esistono poi librerie
di sottoprogrammi, disponibili in vari linguaggi, che, potendo venire compilati,
risultano più efficienti e, pertanto, preferibili in applicazioni
computazionalmente onerose. La raccolta più nota è costituita
dalle Numerical Recipes; la relativa home page, dalla quale è
possibile scaricare tanto i listati quanto il relativo libro (stampato
dalla Cambridge University Press) si trova su
http://cfata2.harvard.edu/nr/nrhome.html.
Nell'ambito del corso di Teoria dei Sistemi preferisco fare riferimento
a MATLAB sia per la buona robustezza numerica di tale software sia perché,
trattandosi di uno standard internazionale de facto sia a livello
accademico che industriale, la conoscenza di tale ambiente risulta vantaggiosa
per gli allievi. Va inoltre considerato che, essendo MATLAB disponibile
per la virtuale totalità delle attuali piattaforme, un programma
sviluppato in tale ambiente può venire utilizzato indifferentemente
su un PC, un MacIntosh, una workstation UNIX od un mainframe e che sono
disponibili pacchetti specifici che ampliano considerevolmente le possibilità
di utilizzazione di MATLAB in settori specifici (es. Controlli automatici,
Elaborazione e filtraggio dei segnali ecc.).
#22
Matlab, una volta aggiustato il file batch di lancio (MATLAB.M)
funziona che è una meraviglia, però forse c'è un
problema. Nella soluzione della seconda domanda dell'esercizio 1
del testo Teoria dei Sistemi: Esercizi e Applicazioni, la
matrice di osservabilità, Q, è data da
0 0 1 0 0
0 0 0 1 0
0 0 1 0 1
0 0 0 1 2
0 0 1 0 2
0 0 0 1 4
0 0 1 0 3
0 0 0 1 6
0 0 1 0 4
0 0 0 1 8
ed il comando null(Q) fornisce la risposta
-0.6220
0.7830
0.0000
-0.0000
-0.0000
anziché, come è direttamente evidente,
1 0
0 1
0 0
0 0
0 0
Oddio, i conti non tornano proprio !!! (Gianluca Romeo)
A lezione ho introdotto alcune caratteristiche di MATLAB ma non abbiamo
avuto il tempo di esaminare particolari operativi importanti (che
vedremo domani). Uno di questi riguarda il settaggio dello zero algoritmico,
memorizzato da MATLAB nella variabile eps e posto, inizialmente,
eguale allo zero di macchina.
Provi, dopo avere avviato MATLAB, a battere il comando "eps"; le verrà
visualizzato un valore intorno a 10-16 che va alzato prima di effettuare
calcoli ove siano presenti operazioni che danno luogo ad arrotondamenti;
i valori che si usano normalmente sono compresi tra 10-9 e
10-6.
Provi ad introdurre il comando eps=1e-9 e a ricalcolare null(Q);
vedrà
che il risultato questa volta sarà corretto; non si aspetti però
di ricavare sempre le basi cui si pensa immediatamente nel calcolo manuale;
quelle che vengono estratte derivano dalla implementazione di algoritmi che
antepongono la robustezza numerica alla semplicità.
#23
Conoscendo la forma di Jordan è possibile scrivere direttamente il
polinomio minimo, perché (se abbiamo ben capito) la molteplicità
geometrica di uno zero del polinomio minimo è uguale alla dimensione
del massimo blocco di Jordan corrispondente.
È possibile anche il passagio inverso, cioè scrivere direttamente
la forma di Jordan conoscendo il polinomio minimo e quello caratteristico?
(Francesco Mortellaro e Paolo Pericoli).
In generale non è possibile ottenere la forma di Jordan di una matrice
in base alla conoscenza del suo polinomio minimo e di quello caratteristico
poiché tali polinomi non forniscono alcuna informazione sulla
dimensione dei blocchi di Jordan di dimensione diversa da quella massima
associati ai singoli autovalori. Si pensi, ad esempio, ad una matrice
con polinomio caratteristico p(s)=(s-a)4 e polinomio minimo
m(s)=(s-a)2. Il polinomio minimo ci informa che la forma di Jordan
avrà un blocco di dimensione due ma non sappiamo se la rimanente
molteplicità dell'unico autovalore si distribuisce su un ulteriore
blocco di dimensione 2 o su due blocchi di dimensione 1. Naturalmente in
casi particolari (es., nel caso precedente, se m(a) fosse stato uguale
a (s-a)3) l'operazione può essere possibile.
#24
Con riferimento all'ultima domanda di pag 2.2 del testo Teoria dei Sistemi:
Test commentati e risolti, consultando l'appendice del libro di testo
Teoria dei Sistemi e del Controllo e guardando la nozione di reticolo,
ho capito che le operazioni di somma e moltiplicazione fra partizioni associano
ad ogni coppia di elementi, rispettivamente, il minimo maggiorante e il
massimo minorante e pertanto ho marcato, intuitivamente, la risposta A che
risulta infatti corretta. Tuttavia non ho ben capito cosa si intende col dire
che una partizione è maggiore di un'altra.
Inoltre non capisco bene l'esattezza della risposta D. (Alessandro Rafelli)
La definizione da lei citata fa riferimento alla relazione di ordine parziale
cui appartengono due partizioni P1 e P2 quando tutti i
blocchi della prima sono contenuti in quelli della seconda; si usa in tal
caso la notazione P1 <= P2.
Tale definizione, unitamente a quelle di somma e prodotto di due partizioni,
consente di stabilire immediatamente la validità della risposta D nella
domanda considerata.
#25
Perché il prodotto di due parzializzazioni può non risultare una
parzializzazione? (Alessandro Rafelli)
Perché il numero totale di elementi presenti nei blocchi del prodotto
può risultare diverso dal numero di elementi dell'insieme. Provi, ad
esempio, a calcolare il prodotto delle seguenti parzializzazioni dell'insieme
X={1/2/3}: P1={1,2/1} e P2={1,3/1}.
#26
Mi piacerebbe poter calcolare il polinomio minimo passando per la forma di Jordan.
Purtroppo devo avere qualche lacuna nella ricerca della forma di Jordan associata: so
che il numero di blocchi di Jordan associati ad un certo autovalore è uguale alla
molteplicità geometrica dell'autovalore, ma questo non mi è sufficiente!
Si pensi per esempio ad una matrice con autovalori uguali a 5, molteplicità
algebrica pari a 4, e molteplicità geometrica 2: la zona dedicata all'autovalore
5 può risultare
5 0 0 0 5 1 0 0
0 5 1 0 0 5 0 0
0 0 5 1 oppure 0 0 5 1
0 0 0 5 0 0 0 5
con risultati diversi per il polinomio minimo: m(L)=(L+5)3 nel primo caso e
m(L)=(L+5)2 nell'altro! Come faccio a sapere qual'è la forma giusta?
(Gabriele Trombetti)
La molteplicità di un autovalore come zero del polinomio minimo è pari alla
dimensione massima dei blocchi di Jordan associati; nota la forma di Jordan è
quindi immediato calcolare il polinomio minimo ma non vale la proprietà inversa.
Non è infatti possibile, in generale,
determinare la forma di Jordan in base alla sola conoscenza della molteplicità di un
autovalore come zero del polinomio caratteristico e del numero di blocchi di Jordan
associati.
#27
Qual è la condizione necessaria e sufficiente (oltre a quella della definizione) per
vedere se due matrici sono simili fra di loro? (Gabriele Trombetti)
Essendo la similitudine una relazione di equivalenza, è possibile verificare
se due matrici sono simili trasformando entrambe ad una stessa rappresentazione (es.
forma di Jordan, una delle forme compagne, forma triangolare) e controllando se
le rappresentazioni ottenute coincidono (a meno di ovvie permutazioni).
#28
La similitudine di matrici conserva il polinomio minimo? Le matrici riportate sopra sono
simili o no? (Gabriele Trombetti)
Matrici simili hanno identico spettro, polinomio minimo e forma di Jordan; le matrici
precedenti non sono quindi simili.
#29
Come ci deve comportare nel caso in cui l'autovalore minimo della matrice di
covarianza abbia molteplicità maggiore di uno nello schema di stima
dei minimi quadrati totali? (Gianluca Palli)
In questo caso (di interesse esclusivamente teorico essendo nulla la
probabilità che si verifichi con dati reali) la soluzione del
metodo dei minimi quadrati totali viene ottenuta minimizzando la norma
di Frobenius della matrice delle perturbazioni e non risulta più
coincidente con la soluzione del metodo dell'autovettore. Può
consultare, se è interessato a questo argomento, il seguente
testo: S. Van Huffel e J. Vandewalle, The Total Least Squares
Problem: Computational Aspects and Analysis, SIAM, 1991.
#30
L'immagine di una trasformazione lineare T coincide col sottospazio generato dalla
colonne della matrice che rappresenta T cioè C(M)=im T; questo risultato deriva
praticamente dalla definizione di immagine di una trasformazione
lineare cioè M x = b <--> c1 x1 + c2 x2 + ...
+ cn xn = b
dove c1, c2,..., cn sono le
colonne di M e x1, x2, ..., xn sono le componenti di x. Inoltre l'immagine della
trasposta di M cioè il sottospazio generato dalle righe di M
coincide con il complemento ortogonale di Ker T cioè
R(M)=im(MT)=complemento_ortogonale(Ker T); questo risultato deriva dal fatto
che se si considera il sistema M x = 0
è immediato riconoscere che le righe di M sono ortogonali al vettore x soluzione del
sistema cioè 1, x>=0 2, x>=0 ... n, x>=0 quindi interpretando M come la matrice di
una trasformazione lineare, si ha che i vettori x che appartengono al nucleo di T sono
ortogonali alle righe di M perciò R(M)=complemento_ortogonale(Ker T). Non mi è chiaro,
invece, perchè complemento_ortogonale(im T)=Ker(MT) (Luca Scalorbi)
La dimostrazione è esattamente la stessa data da lei e può venire rapidamente condensata:
se v è un vettore di ker MT cioè MT v = 0, ciò significa che v ha
prodotto scalare nullo con le colonne di M quindi, per definizione di complemento ortogonale,
appartiene al complemento ortogonale dell'immagine di T.
#31
Una partizione è un caso particolare di parzializzazione nel quale tutti i blocchi
sono disgiunti e la loro unione dà l'intero insieme di partenza? Se è così nella prima
domanda a pag 2.1 del libro Teoria dei Sistemi: Test commentati e risolti una
relazione d'equivalenza, definendo una partizione, non definisce anche un particolare
tipo di parzializzazione? Le risposte corrette non dovrebbero essere allora AB?
(Wed Dec 22 17:54:57 1999, Alessandro Caselli)
Una risposta va considerata corretta solo se applicabile in generale e non sotto
condizioni restrittive; le partizioni poi non vengono considerate come
particolari parzializzazioni dato che, godendo di un numero più elevato di proprietà
rispetto alle parzializzazioni, non si avrebbe alcun vantaggio a considerarle
come sottoinsieme di una classe più vasta ma meno interessante.
#32
Vorrei sapere se l'integrale di una matrice sia uguale alla matrice degli integrali dei vari elementi,
se ciò sia vero sotto opportune ipotesi, o se in genere non sia vero. Ho provato a usare la formula precedente
per il calcolo dell'integrale di eAt (dove A era una 2x2 triangolare inferiore) e ha dato risultati
soddisfacenti se confrontata con A-1(eAt-I). Inoltre (mi corregga se sbaglio):
gamma=V-1*f(lambda,t) ==> gammai=(V-1)i*f(lambda,t)
(V=matrice di Vandermonde, lambda=spettro della matrice, gamma=vettore dei coefficienti del polinomio
interpolante, (V-1)i=riga i-esima di V-1)
f(A,t)=Sommai=0,..,mu-1 gammai*Ai
Sostituendo a gammai l'espressione precedente si può trovare che gli elementi della matrice
integrata sono la combinazione lineare degli integrali dei modi della matrice integranda secondo gli stessi
coefficienti (dato che l'integrazione è un'operazione lineare). È corretto?
(Alessandro Caselli, Wed Dec 29 21:47:08 1999)
Le considerazione da lei fatte sono corrette. Se la matrice A(t) è funzione della variabile
scalare t, la sua derivata rispetto a t è proprio la matrice che ha per elementi le
derivate rispetto a t degli elementi di A(t). Considerazioni simili valgono per
l'integrale.
#33
Se un autovalore a è zero doppio del polinomio caratteristico ed è anche zero doppio del polinomio
minimo, nell'esponenziale di matrice compariranno i modi eat e teat;
ma se nel polinomio minimo l'autovalore a ha molteplicità unitaria, cosa succede all'esponenziale
di matrice?
Quali modi metterò nella colonna dei termini noti se uso il metodo del polinomio interpolante?
(Tue Jan 4 17:55:13 2000, Gianluca Lucente
I modi sono legati solo alla molteplicità degli zeri del polinomio minimo quindi nel caso da lei
indicato comparirà il solo modo eat. Questo stesso modo sarà poi l'unico da inserire
nel vettore dei termini noti che, non si dimentichi, ha dimensione pari all'ordine del polinomio
minimo.
#34
È possibile calcolare l'inversa di una matrice singolare o rettangolare? Come?
(Wed Jan 5 10:50:40 2000, R.R.)
Le inverse si definiscono solo per le matrici quadrate e non singolari. Per ogni matrice è invece
possibile calcolare l'inversa generalizzata o pseudoinversa, come abbiamo visto a lezione; la
pseudoinvesa di una matrice coincide poi con l'inversa per le matrici quadrate e non singolari.
Attenzione anche a non confondere il concetto di inversa di una matrice con quello di immagine
inversa secondo la trasformazione lineare descritta da una matrice; l'immagine inversa può
venire calcolata anche per le trasformazioni lineari descritte da matrici singolari o non
quadrate.
#35
Perchè la matrice identità è idempotente (In=I)? (Wed Jan 5 10:50:40 2000, R.R.)
Una matrice M viene definita idempotente di ordine k quando Mk=M.
Nel caso dell'identità tale proprietà vale per qualunque k quindi la matrice identità è
idempotente di ogni ordine.
#36
Con riferimento al testo Teoria dei Sistemi:
Test commentati e risolti, pag. 5.3, primo test: perché non vale (C => A)?
Cioè, l'unione di più sottospazi non è anch'essa un sottospazio?
(Wed Feb 2 15:48:05 2000, Alessandro Linari)
In generale l'unione di due sottospazi non è affatto un sottospazio mentre lo è sempre
la somma; attenzione quindi a non cadere in un errore concettuale così rilevante.
Può facilmente verificare questa proprietà considerando, in R2,
i due sottospazi costituiti dai punti di due rette non coincidenti (ad esempio due
rette ortogonali); la loro unione è costituita dall'insieme dei punti delle due
rette (e questo, evidentemente, non è uno spazio vettoriale) mentre la loro somma
è costituita da tutti i punti di R2 cioè da uno spazio vettoriale.
#37
Potrebbe spiegarmi in base a quale proprietà viene dimostrata la Proprietà 5.1.3
pag 140-141 del libro del prof. Marro? In particolare non capisco il passaggio:
c.o.(ker YTA)=c.o.(A-1 ker YT),
dove con c.o. indico il complemento ortogonale e
con YT la trasposta di Y. Anche nella dimostrazione
dell'Algoritmo 5.2.2 pag. 147 non capisco in base a quale proprietà si possa affermare che
c.o.(A-1Z)=AT c.o.(Z).
(Sun Feb 13 11:33:08 2000, Andrea Di Vincenzo)
Lo spazio nullo di YTA è il sottospazio contenente tutti i vettori
x che vengono mappati dalla trasformazione lineare A nello spazio nullo di
YT. E' quindi costituito dalla immagine inversa secondo A
dello spazio nullo di YT; si tenga ben presente che la notazione
A-1 indica l'immagine inversa secondo la trasformazione lineare
A e non l'inversa della matrice che descrive tale trasformazione lineare
una volta che sia stata scelta una base opportuna.
Per quanto riguarda il secondo quesito, si consideri che il complemento ortogonale
di A-1Z è formato da vettori che sono mappati da A
in vettori che appartengono alla intersezione del complemento ortogonale di Z
con l'immagine di A quindi, grazie alla invertibilità della trasformazione
indotta da A tra im A e im AT, sono esprimibili
come immagine in AT del complemento ortogonale di Z (per la verità,
in un contesto più generale di quello di pag. 147 occorrerebbe considerare l'immagine
in AT della intersezione tra il complemento ortogonale di Z
e im A).
#38
Vorrei sapere:
1) se c'è una relazione tra la molteplicità geometrica di un autovalore e la sua
molteplicità nel polinomio minimo
2) in quali circostanze la molteplicità geometrica di un autovalore è strettamente
minore della sua molteplicità algebrica
3) in quali circostanze la molteplicità di un autovalore nel polinomio minimo è strettamente
minore di quella nel polinomio caratteristico
4) se c'è una relazione tra autospazi e sottospazi invarianti
(Sat May 20 18:22:05 2000, Andrea Di Vincenzo)
1) Coincidono.
2) Quando la matrice ha più blocchi di Jordan associati a tale autovalore.
3) Come al punto 2)
4) Come abbiamo visto a lezione, ogni sottospazio invariante è costituito dalla somma di autospazi
#39
Data una matrice A si può dire che le sue colonne sono una base (o almeno un insieme di
generatori) dello spazio im(A)? (Andrea Di Vincenzo, Tue May 23 17:05:11 2000)
im(A) è, per definizione, lo spazio vettoriale generato dalle sue colonne che ne
costuiranno una base solo se linearmente indipendenti.
|