Matrizen
Original: http://www.efgh.com/math/algebra/matrix.htm von Philip J. Erdelsky
1. Allgemeine Eigenschaften von Matrizen
Eine Matrix ist eine rechteckige Reihe von Zahlen, die als ihre Einträge bezeichnet werden, die in einer oder mehreren Zeilen und Spalten angeordnet sind, wie beispielsweise die folgenden:
∣ 1 8 5 7 1 ∣
A = ∣ 2 6 6 12 3 ∣
∣ 4 5 -5 0 -9 ∣
x = ∣ 4 5 -3 ∣
Die vertikalen Linien an den Seiten der Matrizen können bei einigen Browsern unterbrochen erscheinen; sie sind normalerweise intakt.
Die Eingaben werden in der Regel aus einem Feld übernommen, aber Matrizen über allgemeineren Leerzeichen, wie z.B. Kommutatorringen, sind möglich, und einige Ergebnisse werden auch für sie gelten.
Zahlen in dem Feld oder einem anderen Raum, aus dem Matrixeinträge entnommen werden, werden als Skalare bezeichnet.
Zwei Matrizen sind nur dann gleich, wenn sie die gleiche Anzahl von Zeilen, die gleiche Anzahl von Spalten und gleiche Einträge an entsprechenden Positionen haben.
Eine Matrix wird üblicherweise durch einen fettgedruckten Großbuchstaben dargestellt. Eine Matrix mit nur einer Zeile wird jedoch als Zeilenvektor bezeichnet, eine Matrix mit nur einer Spalte als Spaltenvektor, und beide können durch fettgedruckte Kleinbuchstaben dargestellt werden.
Eine Matrix mit m Zeilen und n Spalten soll eine m ⨯ n Matrix sein. Beachten Sie, dass die Anzahl der Zeilen zuerst kommt; dies ist die konventionelle Reihenfolge. Zum Beispiel ist die Matrix A eine 3 ⨯ 5 Matrix und x ein 1 ⨯ 3 Zeilen Vektor.
Eine Matrix mit der gleichen Anzahl von Zeilen und Spalten wird, was nicht überraschend ist, als quadratische Matrix bezeichnet.
Die Zeilen einer m ⨯ n Matrix sind konventionell von 1 bis m durchnummeriert, wobei Zeile 1 oben und Zeile m unten steht. Die Spalten sind üblicherweise von 1 bis n durchnummeriert, wobei sich Spalte 1 auf der linken Seite und Spalte n auf der rechten Seite befindet. Einzelne Zeilen und Spalten einer Matrix werden oft als Zeilen- und Spaltenvektoren behandelt.
Der Eintrag in der i-ten Zeile und der j-ten Spalte einer Matrix A wird üblicherweise durch ai,j (oder aij, wenn das Komma nicht benötigt wird, um Mehrdeutigkeiten zu vermeiden) mit dem entsprechenden Kleinbuchstaben ohne Fettdruck dargestellt. Beachten Sie, dass die Zeilennummer zuerst kommt; dies ist die konventionelle Reihenfolge.
Einige Computersprachen, wie z.B. C, implementieren Vektoren oder Matrizen mit Zeilen- und Spaltennummern, die mit 0 statt mit 1 beginnen, was der internen Darstellung von Daten in Computerspeichern näher kommt, wobei jedoch darauf zu achten ist, dass bei Programmiervorgängen, die mit der Standardnummerierung definiert sind, Off-by-oneFehler vermieden werden.
Die Transponierung einer m ⨯ n Matrix A ist die n ⨯ m Matrix AT, die durch Vertauschen der Zeilen und Spalten von A erhalten wird:
B = AT, bij = aji.
So sind beispielsweise die Transponierungen der oben definierten Matrizen gegeben durch
∣ 1 2 4 ∣
∣ 8 6 5 ∣
UNTER = ∣ 5 6 -5 ∣
∣ 7 12 0 ∣
∣ 1 3 -9 ∣
∣ 4 ∣
xT = ∣ 5 ∣
∣-3 ∣
Diese Notation ist praktisch, wenn Spaltenvektoren wie (4,5,-3)T in Fließtext eingebettet sind.
2. Addition und skalare Multiplikation
Wenn A Matrix ist und s ein Skalar ist, dann ist das Produkt sA eine Matrix P mit der gleichen Anzahl von Zeilen und Spalten wie A, erhalten durch Multiplikation jedes Eintrags in A mit s:
P = sA, pij = saij.
Wenn A und B zwei Matrizen mit der gleichen Anzahl von Zeilen, der gleichen Anzahl von Spalten und Einträgen aus dem gleichen Feld sind, ist die Summe A + B eine Matrix T mit der gleichen Anzahl von Zeilen und Spalten wie A oder B, erhalten durch Hinzufügen entsprechender Einträge in A und B:
T = A + B, tij = aij + bij.
Beachten Sie, dass für Zeilen- oder Spaltenvektoren diese Definitionen mit den an anderer Stelle definierten Vektoroperationen übereinstimmen. Tatsächlich kann der Satz von m ⨯ n Matrizen als Vektorraum der Dimension mn ausgelegt werden. Dementsprechend folgen Matrixaddition und skalare Multiplikation den gleichen kommutativen, assoziativen und distributiven Gesetzen wie die entsprechenden Vektoroperationen und einige andere auch:
- (A+B)+C = A+(B+C)
- A+B = B+A
- s(A+B) = sA +sB
- (st)A = s(tA)
- AT+BT = (A+B)T
- sAT = (sA)T
- ATT = A
2. Matrix-Multiplikation
Sei A eine m ⨯ r Matrix und sei B eine r ⨯ n Matrix, mit Einträgen aus dem gleichen Feld, dann ist das Produkt AB eine m ⨯ n Matrix C definiert durch:
C = AB, cij = ai1 b1j + ai2 b2j + ….. + Luft brj.
Beachten Sie, dass der Eintrag in der i-ten Zeile und j-ten Spalte des Produkts gebildet wird, indem die Einträge in der i-ten Zeile der ersten Matrix mit den entsprechenden Einträgen in der j-ten Spalte der zweiten Matrix multipliziert und die Produkte hinzugefügt werden. Dies ist in der Tat dasselbe wie die Definition des inneren Produkts von zwei Vektoren.
Die Matrixmultiplikation hat die folgenden Eigenschaften, wobei A und B Matrizen mit geeigneten Formen sind und s ein Skalar ist:
- (AB)C = A(BC) (assoziativ)
- A(B+C) = AB+AC, (A+B)C = AC+BC (distributiv)
- (sA)B = A(sB) = s(AB)
- (AB)T = BTAT
Alle diese Eigenschaften können direkt aus der Definition der Matrixmultiplikation abgeleitet werden. Die Ableitung des Assoziativgesetzes auf diese Weise ist jedoch recht schwierig; sie wird später mit anderen Mitteln demonstriert.
Die Matrixmultiplikation ist nicht kommutativ. Auch wenn AB und BA beide definiert sind, sind sie nicht unbedingt gleich. Wenn x und y beispielsweise 3 Spaltenvektoren ⨯ 1 sind, dann sind xTy und yxT beide definiert, aber erstere ist eine 1 ⨯ 1 Matrix und letztere ist eine 3 ⨯ 3 Matrix. Selbst wenn A und B quadratisch sind, so dass AB und BA die gleiche Größe haben, können die beiden Produkte ungleich sein:
∣ 0 1 ∣ ∣ 0 0 ∣ ∣ 0 1 ∣
∣ ∣ ∣ ∣ = ∣ ∣
∣ 0 0 ∣ ∣ 0 1 ∣ ∣ 0 0 ∣
∣ 0 0 ∣ ∣ 0 1 ∣ ∣ 0 0 ∣
∣ ∣ ∣ ∣ = ∣ ∣
∣ 0 1 ∣ ∣ 0 0 ∣ ∣ 0 0 ∣
Daher wird der Satz aller quadratischen Matrizen einer bestimmten Größe (2 ⨯ 2 oder größer) als nicht kommutativer Ring betrachtet.
Dieses Beispiel zeigt auch, dass die Multiplikation von zwei Matrizen ungleich Null zu einem Nullergebnis führen kann.
Es gibt kein Kündigungsgesetz für die Matrixmultiplikation, d.h. AB = CB bedeutet nicht unbedingt, dass A = C. Es ist jedoch leicht nachzuweisen, dass, wenn AB = CB für alle B einer bestimmten Größe und Form, dann A = C.
Einige Sonderfälle der Matrixmultiplikation sind erwähnenswert.
Wenn x und y n ⨯ 1 Spaltenvektoren sind, dann ist xTy im Wesentlichen das an anderer Stelle definierte innere Produkt. (Technisch gesehen ist es die Matrix 1 ⨯ 1, deren einziger Eintrag das innere Produkt ist.)
Die Hauptdiagonale oder Hauptdiagonale einer Matrix besteht aus allen Einträgen, deren Zeilen- und Spaltennummern gleich sind, d.h. die Hauptdiagonaleneinträge von A sind a11, a22, a33, etc. Alle anderen Einträge werden als abweichende Einträge bezeichnet. Eine Diagonalmatrix ist eine quadratische Matrix, deren außerdiagonale Einträge alle Nullen sind. Die Multiplikation mit einer quadratischen diagonalen Matrix ergibt ein besonders einfaches Ergebnis. Wenn D eine quadratische diagonale Matrix ist, dann ist DA die Matrix A mit jeder Zeile multipliziert mit dem Hauptdiagonaleingang in der entsprechenden Zeile von D, und AD ist die Matrix A mit jeder Spalte multipliziert mit dem Hauptdiagonaleingang in der entsprechenden Spalte von D.
Eine quadratische diagonale Matrix, in der jeder diagonale Eintrag 1 ist, wird als Identitätsmatrix bezeichnet und wird normalerweise als I geschrieben, weil IA = A und BI = B für alle Matrizen A und B mit der richtigen Anzahl von Zeilen oder Spalten.
In einigen Proofs müssen wir eine Zeile einer Matrix mit einem Skalar multiplizieren und zu einer anderen Zeile hinzufügen, ein Prozess, der als elementare Zeilenoperation bezeichnet wird. Wenn A eine Matrix ist, gibt es eine quadratische Matrix E(i,j,c) mit der gleichen Anzahl von Zeilen wie A, so dass E(i,j,c)A die Matrix A ist, nachdem die i-te Zeile mit c multipliziert und zur j-ten Zeile hinzugefügt wurde. Die Matrix E(i,j,c) ist die Identitätsmatrix, in der eji durch c ersetzt wurde.
3. Partitionssätze
Eine Matrix kann in kleinere Matrizen aufgeteilt werden, indem horizontale und vertikale Linien durch sie gezogen werden, wie in den folgenden Beispielen:
∣ 1 1 ∣ 0 1 ∣ ∣ 1 1 ∣
∣ 1 1 ∣ 0 0 ∣ ∣ 2 2 ∣
————- ——-
∣ 0 0 ∣ 1 0 ∣ ∣ 4 1 ∣
∣ 0 1 ∣ 0 1 ∣ ∣ 1 4 ∣
Diese Matrizen können entweder als 4 ⨯ 4 und 4 ⨯ 2 Matrizen von reellen Zahlen oder als 2 ⨯ 2 und 2 ⨯ 1 Matrizen interpretiert werden, deren Einträge 2 ⨯ 2 Matrizen von realen Zahlen sind.
Wenn wir die großen Matrizen auf die übliche Weise multiplizieren, erhalten wir
∣ 1 1 0 1 ∣ ∣ 1 1 ∣ ∣ 4 7 ∣
∣ 1 1 0 0 ∣ ∣ 2 2 ∣ = ∣ 3 3 ∣
∣ 0 0 1 0 ∣ ∣ 4 1 ∣ ∣ 4 1 ∣
∣ 0 1 0 1 ∣ ∣ 1 4 ∣ ∣ 3 6 ∣
Wenn wir die großen Matrizen multiplizieren und die kleineren Matrizen als Einträge in die großen Matrizen behandeln, erhalten wir folgende Ergebnisse
∣ 1 1 ∣ 0 1 ∣ ∣ 1 1 ∣
∣ 1 1 ∣ 0 0 ∣ ∣ 2 2 ∣
————- ——- =
∣ 0 0 ∣ 1 0 ∣ ∣ 4 1 ∣
∣ 0 1 ∣ 0 1 ∣ ∣ 1 4 ∣
∣ ∣ 1 1 ∣ ∣ 1 1 ∣ ∣ 0 1 ∣ ∣ 4 1 ∣ ∣
∣ ∣ 1 1 ∣ ∣ 2 2 ∣ + ∣ 0 0 ∣ ∣ 1 4 ∣ ∣
————————————-
∣ ∣ 0 0 ∣ ∣ 1 1 ∣ ∣ 1 0 ∣ ∣ 4 1 ∣ ∣
∣ ∣ 0 1 ∣ ∣ 2 2 ∣ + ∣ 0 1 ∣ ∣ 1 4 ∣ ∣
Jetzt verwenden wir regelmäßige Matrixoperationen auf den kleineren Matrizen, um eine Matrix von Matrizen zu erhalten:
∣ ∣ 3 3 ∣ ∣ 1 4 ∣ ∣ ∣ ∣ 4 7 ∣ ∣
∣ ∣ 3 3 ∣ + ∣ 0 0 ∣ ∣ ∣ ∣ 3 3 ∣ ∣
——————— = ———–
∣ ∣ 0 0 ∣ ∣ 4 1 ∣ ∣ ∣ ∣ 4 1 ∣ ∣
∣ ∣ 2 2 ∣ + ∣ 1 4 ∣ ∣ ∣ ∣ 3 6 ∣ ∣
Dies ist das Ergebnis einer regelmäßigen Matrixmultiplikation, aufgeteilt in zwei kleinere Matrizen.
Dies gilt für jede andere Art der Partitionierung von Matrizen, vorausgesetzt, die Partitionen sind konsistent. Der Partitionssatz für die Matrixmultiplikation kann formalisiert werden.
Satz 3.1. Lassen Sie A eine m ⨯ r Matrix sein und lassen Sie B eine r ⨯ n Matrix sein, mit Einträgen aus dem gleichen Feld. A, B und AB sollen so aufgeteilt werden, dass
- die gleiche Partition auf die m Zeilen von A und die m Zeilen von AB angewendet wird,
- die gleiche Partition auf die r Spalten von A und die r Zeilen von B angewendet wird,
- die gleiche Partition auf die n Spalten von B und die n Spalten von AB angewendet wird.
Dann können die Submatrizen von AB nach den Regeln der Matrixmultiplikation auf den Submatrizen von A und B berechnet werden, unter Verwendung einer regelmäßigen Matrixaddition und Multiplikation auf den Submatrizen.
Beweis. Der Eintrag in der i-ten Zeile und der j-ten Spalte von AB ist das innere Produkt der i-ten Zeile von A und der j-ten Spalte von B. Aufgrund der Art und Weise, wie die Matrizen partitioniert werden, liegt der Eintrag in der Submatrix, die aus der Zeile und Spalte der Submatrizen in A und B berechnet wird, die zur Berechnung des Eintrags verwendet werden.
Außerdem sind seine Zeilen- und Spaltennummer in der Submatrix gleich den Zeilen- und Spaltennummern der i-ten Zeile und j-ten Spalte in den Submatrizen, die sie durchlaufen. Daher verwendet die Berechnung mit Submatrizen die gleichen Produkte wie die direkte Berechnung, summiert stückweise. Da die Addition assoziativ ist, ist das Ergebnis das gleiche. ?
Der Partitionssatz für Matrixaddition und skalare Multiplikation ist ziemlich offensichtlich.
Satz 3.2. Sei A und B m ⨯ n Matrizen, mit Einträgen aus dem gleichen Feld, und sei s ein Skalar. Lassen Sie A, B, sA und A+B so partitioniert werden, dass die gleiche Partition auf die Zeilen jeder Matrix angewendet wird, und die gleiche Partition auf die Spalten jeder Matrix. Dann kann jede Submatrix in sA durch Multiplikation der entsprechenden Submatrix in A mit s gefunden werden, und jede Submatrix in A+B kann durch Hinzufügen der entsprechenden Submatrix in A und B gefunden werden.
Lassen Sie uns nun die Assoziativität der Matrixmultiplikation überdenken. Für allgemeine 2 ⨯ 2 Matrizen können wir die Assoziativität direkt überprüfen:
∣ a b ∣ ∣ c d ∣ ∣ e f ∣ ∣ ∣ ac+bi ad+bj ∣ ∣ e f ∣ ∣ ace+bie+adk+bjk acf+bif+adl+bjl ∣
∣ g h ∣ ∣ i j ∣ ∣ k l ∣ = ∣ gc+hi gd+hj ∣ ∣ k l ∣ = ∣ gce+hie+gdk+hjk gcf+hif+gdl+hjl ∣
∣ a b ∣ ∣ c d ∣ ∣ e f ∣ ∣ a b ∣ ∣ ce+dk cf+dl ∣ ∣ ace+adk+bie+bjk acf+adl+bif+bjl ∣
∣ g h ∣ ∣ i j ∣ ∣ k l ∣ = ∣ g h ∣ ∣ ie+jk if+jl ∣ = ∣ gce+gdk+hie+hjk gcf+gdl+hif+hjl ∣
Dies gilt, wenn die Addition von Matrixeinträgen kommutativ ist und die Multiplikation von Matrixeinträgen assoziativ ist und sich über die Addition verteilt. Dies ist sicherlich der Fall, wenn die Einträge aus einem Feld (oder sogar aus einem Ring) stammen.
Nehmen Sie nun alle 4 ⨯ 4 Matrizen und teilen Sie sie in 2 ⨯ 2 Matrizen, deren Einträge 2 ⨯ 2 Matrizen sind. Da die Assoziativität bereits für 2 ⨯ 2 Matrizen etabliert wurde, bilden der Partitionssatz und das obige Ergebnis die Assoziativität für 4 ⨯ 4 Matrizen.
Auf diese Weise können wir Assoziativität für beliebig große quadratische Matrizen herstellen, deren Größe eine Potenz von 2 ist.
Betrachten Sie nun die Multiplikation von zwei Matrizen A und B beliebiger anderer Formen und Größen (die natürlich für die Multiplikation geeignet sind). Erstellen Sie zwei große quadratische Matrizen, deren Größe eine Potenz von 2 hat, setzen Sie A und B in die linken oberen Ecken und machen Sie alle anderen Eingaben Null. Dann ist ihr Produkt eine quadratische Matrix der gleichen Größe mit dem Produkt AB in der oberen linken Ecke und Nullen an anderer Stelle. (Der Partitionssatz kann dafür verwendet werden, kann aber leicht direkt überprüft werden.) Wenden Sie die gleiche Technik auf drei Matrizen an, um zu zeigen, dass die Assoziativität der Multiplikation der großen Matrizen die Assoziativität für die kleineren Matrizen in ihren oberen linken Ecken impliziert.
Die direkte Summe von zwei oder mehr quadratischen Matrizen (nicht unbedingt von gleicher Größe) ist eine größere partitionierte quadratische Matrix mit den kleineren Matrizen auf ihrer Hauptdiagonale und Nullen an anderer Stelle.
∣ A1 0 … 0 ∣
∣ 0 A2 … 0 ∣
A1 ⊕ A2 ⊕ ⊕ …. ⊕ Am = ∣ * * * * * ∣.
4. Lineare Transformationen
V und W sollen zwei Vektorräume über dem gleichen Feld sein. Eine Funktion f:V ⟶W ist eine lineare Transformation (oder Funktion oder Mapping), wenn sie die Vektoroperationen beibehält, d.h. für alle Vektoren x und y in V und jeden Skalar s,
- f(x+y) = f(x) + f(y),
- f(sx) = sf(x).
Die folgenden Eigenschaften sind sofort verfügbar:
- Der Bereich von f ist ein Teilbereich von W.
- Eine lineare Transformation wird vollständig durch ihre Wirkung auf einer Basis bestimmt, d.h., wenn g:V ⟶W eine zweite lineare Transformation ist und f(v) = g(v) für jeden Vektor v in einer Basis für V, dann ist g identisch mit f.
- Die Zusammensetzung von zwei oder mehr linearen Transformationen ist eine lineare Transformation.
Der Nullraum einer linearen Transformation f:V ⟶W ist der Satz aller Vektoren, die er auf den Nullvektor {x ∈ V ∣ f(x) = O} abbildet. Es ist ein Unterraum von V, dessen Dimension (falls vorhanden) als Nullheit von f bezeichnet wird. Die Dimension des Bereichs von f (falls vorhanden) wird als Rang von f bezeichnet.
Der folgende Satz wird gewöhnlich als Rang plus Nullheitssatz bezeichnet.
Satz 4.1. f:V ⟶W ist eine lineare Transformation. Wenn V endlichdimensional ist, ist seine Dimension die Summe aus Rang und Nichtigkeit von f.
Beweis. Da der Nullraum von f ein Teilraum von V ist, hat er eine Dimension k. v1, v2, …. vk sollen eine Grundlage dafür sein.
Anhängen der Vektoren vk+1, vk+2, …. vdim(V) als Basis für V.
Wir müssen nur zeigen, dass die Vektoren f(vk+1), f(vk+2), …. f(vdim(V)) eine Grundlage für den Bereich von f bilden.
Sei f(x) ein beliebiger Vektor im Bereich von f. Dann ist x exprimierbar als
x = c1 v1 + c2 v2 + ….. + ck vk + ck+1 vk+1 + ck+2 vk+2 + ….. + cdim(V) vdim(V).
Wir wenden f auf beide Seiten der Gleichung an und vereinfachen die Beschaffung:
f(x) = c1 f(v1) + c2 f(v2) + ….. + ck f(vk) + ck+1 f(vk+1) + ck+2 f(vk+2) + ….. + cdim(V) f(vdim(V)).
Da sich die ersten k Basisvektoren im Nullraum von f befinden, reduziert sich dieser auf:
f(x) = ck+1 f(vk+1) + ck+2 f(vk+2) + ….. + cdim(V) f(vdim(V)).
Somit kann jeder Vektor im Bereich als lineare Kombination der Vektoren f(vk+1), f(vk+2), …. f(vdim(V)) ausgedrückt werden.
Betrachten Sie nun eine beliebige lineare Kombination dieser Vektoren, die gleich Null ist:
O = dk+1 f(vk+1) + dk+2 f(vk+2) + ….. + ddim(V) f(vdim(V)).
Da f linear ist, kann dies umgeschrieben werden als:
O = f(dk+1 vk+1 + dk+2 vk+2 vk+2 + ….. + ddim(V) vdim(V)).
Daher liegt das Argument von f im Nullraum von f und kann wie folgt geschrieben werden
dk+1 vk+1 + dk+2 vk+2 vk+2 + ….. + ddim(V) vdim(V) = e1 v1 + e2 v2 +…. + ek vk.
Wir können das neu anordnen, um es zu erhalten:
-e1 v1 – e2 v2 – ….. – ek vk + dk+1 vk+1 + dk+2 vk+2 + ….. + ddim(V) vdim(V) = 0.
Da die Vektoren eine Grundlage für V sind, müssen alle Koeffizienten Null sein. Somit sind f(vk+1), f(vk+2), …. f(vdim(V)) linear unabhängig, was den Nachweis vervollständigt. ?
Angenommen, V und W haben die Basen v1, v2, …., vm und w1, w2, …., wn, bzw. f:V ⟶W ist eine lineare Transformation. Definieren Sie eine n ⨯ m Matrix A, deren j-te Spalte die Koeffizienten enthält, wenn f(vj) als lineare Kombination der Basis für W ausgedrückt wird:
f(vj) = a1j w1 + a2j w2 + ….. + anj wn.
Betrachten wir nun einen beliebigen Vektor x von V und dessen Bild f(x) in W, ausgedrückt in Form der Basen:
x = x1 v1 + x2 v2 + ….. + xm vm.
f(x) = y1 w1 + y2 w2 + ….. + yn wn.
Das Bild f(x) kann auch wie folgt ausgedrückt werden:
f(x) = x1 f(v1) + x2 f(v2) + ….. + xm f(vm) =
x1 (a11 w1 + a21 w2 + …. + an1 wn))) +
x2 (a12 w1 + a22 w2 + …. + an2 wn))) +
… +
xm (a1m w1 + a2m w2 + …. + anm wn))) =
(a11 x1 + a12 x2 + …. + a1m xm) w1 + w1 +
(a21 x1 + a22 x2 + …. + a2m xm) w2 +
… +
(an1 x1 + an2 x2 + …. + anm xm) wn.
Da der Ausdruck eindeutig ist,
y1 = a11 x1 + a12 x2 + ….. + a1m xm,
y2 = a21 x1 + a22 x2 + ….. + a2m xm,
… ,
yn = an1 x1 + an2 x2 x2 + ….. + anm xm.
Dies ist die Definition für eine Matrix-Multiplikation:
(y1, y2, …., yn)T = A(x1, x2, …., xm)T.
Eine gleichwertige Art, die Beziehung auszudrücken, ist die folgende
(y1, y2, …., yn) = (x1, x2, …., xm)AT.
Je nach der angewandten Konvention wird entweder A oder AT als Matrix der Transformation in Bezug auf die Basen bezeichnet. Wir folgen der ersten Konvention.
Wenn V und W Räume von Spaltenvektoren sind, dann kann die Transformation als f(x) = Ax geschrieben werden, wobei A die Matrix relativ zu den kanonischen Grundlagen ist.
V, W und Y seien Vektorräume, und f:V ⟶W und g:W ⟶Y seien lineare Transformationen mit den Matrizen A und B. Wird für W jeweils die gleiche Basis verwendet, dann ist die Matrix der zusammengesetzten linearen Transformation f ◌ g:V ⟶Y je nach Konvention BA oder AB. Dies kann direkt nachgewiesen werden, und dann kann die Assoziativität der Zusammensetzung verwendet werden, um die Assoziativität der Matrixmultiplikation zu beweisen.
Wenn f:V ⟶ V eine lineare Transformation ist, dann gilt ein Teilraum W als invariant unter f, wenn f W in sich selbst hinein (oder hinein) trägt; d.h. wenn f(x)∈W für alle x∈W. Dann ist f:W ⟶ W (die Einschränkung von f auf W) auch eine lineare Transformation.
Wenn ein endlicher Vektorraum eine direkte Summe von zwei oder mehr Teilräumen ist, können die Grundlagen für die Teilräume zu einer Basis für den gesamten Raum kombiniert werden. Wenn alle Teilräume unter einer linearen Transformation invariant sind, dann ist die Matrix der Transformation, bezogen auf die kombinierte Basis, leicht zu erkennen als die direkte Summe der Matrizen der Transformation auf den einzelnen Teilräumen.
5. Singuläre und nichtsinguläre Matrizen
Eine n ⨯ n Matrix A definiert eine lineare Transformation aus dem Vektorraum von n ⨯ 1 Spaltenvektoren zu sich selbst:
f(x) = Ax.
Der Rang der Matrix ist der Rang der Transformation. Die Matrix gilt als singulär, wenn ihr Rang kleiner als n ist.
Es ist klar, dass die Nullmatrix singulär und die Identitätsmatrix nicht singulär ist.
Es gibt eine Reihe weiterer Bedingungen für die Singularität einer Matrix, die alle gleichwertig sind. Hier sind einige von ihnen; wir werden später weitere hinzufügen.
Die n ⨯ n Matrix A ist einzigartig, wenn– | Die n ⨯ n Matrix A ist unsingulär, wenn– | |
---|---|---|
1 | der Rang von A ist kleiner als n | der Rang von A ist n |
2 | es gibt einen Vektor y, so dass Ax ≠ y für jeden Vektor x d.h. die zugehörige lineare Transformation f ist nicht auf dem |
für jeden Vektor y gibt es einen Vektor x mit Ax = y d.h. die zugehörige lineare Transformation f ist auf |
3 | die zugehörige lineare Transformation f ist nicht eins zu eins. | die zugehörige lineare Transformation f ist eins zu eins. |
4 | Ax = O für einige x ≠ O | Ax = O impliziert x = O |
5 | Die Spalten von A sind linear voneinander abhängig. | Die Spalten von A sind linear unabhängig voneinander. |
6 | AT ist einzigartig | AT ist nicht einzigartig |
7 | Die Zeilen von A sind linear voneinander abhängig. | Die Zeilen von A sind linear unabhängig voneinander. |
Die ersten vier Bedingungen können durch Dimensionalitätsargumente und den Rang plus Nullsatz als gleichwertig dargestellt werden.
Das Produkt Ax ist eine lineare Kombination der Spalten von A mit Koeffizienten aus x. Daher Ax = O für einige x ≠ O wenn und nur wenn die Spalten von A linear abhängig sind. Daher ist die fünfte Bedingung gleichbedeutend mit den ersten vier.
Nehmen wir nun an, dass A gemäß der zweiten Bedingung nicht singulär ist, und lassen wir y einen Spaltenvektor mit ATy = O sein. Dann ist (ATy)T = yTAT ein Nullzeilenvektor, also yTATx = 0 für jeden Vektor x. Wählen wir x, so dass ATx = ei, der Spaltenvektor mit 1 in seiner i-ten Zeile und Nullen an anderer Stelle. Dann yTATx = yi, der Eintrag in der i-ten Zeile von y. Daher ist jeder Eintrag in y Null, und AT ist nicht singulär durch die dritte Bedingung.
Da AT T = A ist, beweist die gleiche Argumentationslinie das Gegenteil.
Die letzte Bedingung entspricht den anderen, da die Zeilen von A die Spalten von AT sind.
Satz 5.1. Das Produkt aus zwei oder mehr quadratischen Matrizen gleicher Größe und über das gleiche Feld ist nicht singulär, wenn und nur wenn alle Faktoren nicht singulär sind.
Beweis. Nehmen wir zunächst an, dass A und B nicht singulär und (AB)x = O sind. Da die Matrixmultiplikation assoziativ ist, A(Bx) = O. Da A nicht singulär ist, Bx = O. Da B nicht singulär ist, x = O. Daher ist AB nicht singulär.
Nehmen wir nun an, dass B einzigartig ist. Dann ist Bx = O für einen Vektor ungleich Null x. Daher ist ABx = O und AB singulär.
Nehmen wir nun an, dass A singulär ist, aber B nicht singulär. Dann Ax = O für einige ungleich Null x und By = x für einige ungleich Null y. Daher Ax = ABy = O, also ist AB singulär.
Die Erweiterung auf Produkte mit drei oder mehr Matrizen ist einfach. ?
Eine quadratische Matrix A kann ein inverses A-1 aufweisen, bei dem AA-1 = I, die Identitätsmatrix der gleichen Größe.
Satz 5.2. Eine quadratische Matrix hat einen Inversen, wenn und nur wenn sie nicht singulär ist.
Beweis. Wenn eine Matrix einen inversen Wert hat, zeigt das Theorem 5.1, dass sie nicht singulär sein muss.
Nehmen wir nun an, dass A nicht singulär ist. Dann gibt es für jedes i einen Spaltenvektor xi, so dass Axi die i-te Spalte der Identitätsmatrix A gleicher Größe ist. Sei B die quadratische Matrix der gleichen Größe, deren Spalten x1, x2, x3 usw. sind. Der Partitionssatz zeigt, dass AB = I, also B der erforderliche Umkehrschluss ist. ?
Eine elementare Zeilenoperationsmatrix E(i,j,c) ist nicht singulär; ihr Umkehrpunkt ist E(i,j,-c).
Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ, aber jede nicht singuläre quadratische Matrix pendelt mit ihrem Umkehrpunkt. Wenn A nicht singulär ist, ist es auch umgekehrt. Betrachten Sie das Produkt A-1AA-1(A-1)-1, das auf zwei Arten verbunden ist:
A-1(AA-1)(A-1)(A-1)-1 = A-1I(A-1)-1 = A-1(A-1)-1 = I ,
(A-1A)(A-1(A-1(A-1)-1) = (A-1A)I = A-1A .
6. Rang der Matrizen
Der Rang einer Matrix A ist definiert als der Rang der durch f(x) = Ax definierten linearen Transformation, auch wenn die Matrix nicht quadratisch ist. Das heißt, es ist die Dimension des Bereichs {y ∣ y = Ax für einen Vektor x}.
Satz 6.2. Wenn P und Q nicht-singuläre Matrizen sind, dann ist der Rang von PA und AQ gleich dem Rang von A.
Beweis. Der Bereich von PA ist das Bild des Bereichs von A unter der linearen Transformation, die mit P verbunden ist. Da P nicht singulär ist, ist dies ein Isomorphismus und bewahrt die Dimension. Daher sind die Ränge gleich.
Berücksichtigen Sie die Bereiche von A und AQ. Wenn Ax im Bereich von A liegt, dann liegt der gleiche Vektor, geschrieben als AQ(Q-1x), im Bereich von AQ. Wenn AQx im Bereich von AQ liegt, liegt der gleiche Vektor, geschrieben als A(Qx), im Bereich von A. Daher haben A und AQ den gleichen Bereich und den gleichen Rang. ?
Es gibt zwei weitere Möglichkeiten, den Rang einer Matrix zu definieren. Der Zeilenrang ist die maximale Anzahl von linear unabhängigen Zeilen, und der Spaltenrang ist die maximale Anzahl von linear unabhängigen Spalten. Wir werden zeigen, dass alle drei Ränge gleich sind.
Satz 6.2. Der Rang, der Reihenrang und der Spaltenrang einer beliebigen Matrix sind gleich.
Beweis. Der Spaltenvektor Ax ist eine lineare Kombination der Spalten von A mit Koeffizienten aus x. Daher ist der Bereich der von den Spalten überspannte Raum, und seine Dimension ist offensichtlich der Spaltenrang.
Lassen Sie nun r den Reihenrang von A sein und ordnen Sie die Reihen so neu an, dass die ersten r Reihen von A linear unabhängig sind, was eindeutig weder den Reihen- noch den Spaltenrang von A ändert.
Da die letzten Zeilen von A linear von den ersten r Zeilen abhängig sind, führen Sie elementare Zeilenoperationen durch, um alle Zeilen außer der ersten r gleich Null zu machen. Da jeder Vorgang durch Multiplikation von A mit einer nichtsingulären Matrix durchgeführt wird, ändert der Prozess den Spaltenrang nicht.
Betrachten Sie nun alle r+1 Spalten von A. Alle Einträge in allen außer den oberen r Zeilen sind Nullen. Diese oberen Abschnitte bilden einen Satz von r+1 r-dimensionalen Vektoren, die abhängig sein müssen. Die gleiche Abhängigkeit zeigt, dass die gesamten Spalten voneinander abhängig sind. Daher darf der Spaltenrang von A seinen Zeilenrang nicht überschreiten.
Die gleiche Argumentationslinie, die auf AT angewendet wird, zeigt, dass der Zeilenrang von A seinen Spaltenrang nicht überschreiten darf. Daher müssen die Zeilen- und Spaltenränge gleich sein. ?
Eine Submatrix einer Matrix erhält man, indem man eine oder mehrere Zeilen und eine oder mehrere Spalten auswählt, alle anderen Zeilen und Spalten löscht und die restlichen Einträge zusammendrückt, um eine möglicherweise kleinere Matrix zu bilden. Die in den Partitionssätzen verwendeten Submatrizen sind Sonderfälle, in denen die ausgewählten Zeilen und Spalten aufeinanderfolgend sind. Eine Submatrix einer Submatrix ist auch eine Submatrix der ursprünglichen Matrix.
Dies gibt uns eine andere Definition von Rang.
Satz 6.3. Der Rang einer Matrix entspricht der Größe ihrer größten nichtsingulären quadratischen Submatrix.
Beweis. Sei r der Rang der Matrix gemäß den vorherigen Definitionen. Dann gibt es r linear unabhängige Zeilen. Wähle sie aus und lösche die anderen, um eine Submatrix von Rang r mit r Zeilen zu bilden. Der Spaltenrang der Submatrix ist ebenfalls r, so dass sie r linear unabhängige Spalten hat. Wählen Sie diese Spalten, um eine r ⨯ r quadratische Submatrix des Ranges r zu erhalten, die nicht singulär ist.
Betrachten Sie nun eine quadratische Submatrix, die größer ist als r ⨯ r. Die aus der ursprünglichen Matrix entnommenen Spalten müssen linear abhängig sein, so dass es eine nicht-triviale lineare Kombination dieser Spalten gibt, die zum Nullvektor auswertet. Die gleiche lineare Kombination, wenn sie auf die Zeilen in der Submatrix angewendet wird, wertet den Nullvektor aus und zeigt, dass die Submatrix einzigartig ist. ?
7. Ähnliche Matrizen
Angenommen, ein n-dimensionaler Vektorraum hat zwei Basen:
v1, v2, …., vn,
v’1, v’2, …., v’n.
Ein Vektor kann eindeutig als lineare Kombination aus beiden Grundlagen dargestellt werden:
x = x1v1 + x2v2 + ….. + xnvn,
x = x’1v’1 + x’2v’2 + ….. + x’nv’n.
Offensichtlich ist eine Transformation, die die Koeffizienten x1, x2, …., xn in x’1, x’2,…, x’n linear ist, also eine Matrix R hat. Da die Transformation eins zu eins ist, hat die Matrix ein inverses R-1. Tatsächlich sind die Einträge in R oder R-1 einfach die Koeffizienten, wenn die Vektoren in einer Basis als lineare Kombinationen der Vektoren in der anderen Basis ausgedrückt werden. Abhängig von der verwendeten Konvention kann R, R-1, RT oder (R-1)T als Matrix der Basisänderung bezeichnet werden.
Sei A die Matrix einer linearen Transformation relativ zur zweiten Basis. Die Matrix der gleichen Transformation relativ zur ersten Basis lässt sich leicht als R-1AR darstellen.
Zwei quadratische Matrizen, die auf diese Weise miteinander verbunden sind, gelten als ähnlich.
Da ähnliche Matrizen die gleiche lineare Transformation darstellen, haben sie (1) viele gemeinsame Eigenschaften, die richtig als Eigenschaften der Transformation beschrieben werden, und (2) Ähnlichkeit ist offensichtlich eine Äquivalenzbeziehung. Die Eigenschaften von Äquivalenzbeziehungen, wie z.B. Transitivität, können jedoch allein durch Matrixoperationen verifiziert werden:
B = R-1AR,
C = S-1BS,
C = S-1(R-1AR)S = (S-1R-1)A(RS) = (RS)-1A(RS).
Die Ähnlichkeit in Bezug auf die gleiche Basisänderung bewahrt auch die Matrixoperationen:
c(R-1AR) = R-1(cA)R,
(R-1AR) + (R-1BR) = R-1(A+B)R,
(R-1AR)(R-1BR) = R-1(AB)R.
Daher können Addition, Multiplikation und skalare Multiplikation von quadratischen Matrizen als Operationen an den zugehörigen linearen Transformationen betrachtet werden.
8. Spezielle Matrizen
Eine quadratische Vandermonde-Matrix ist eine Matrix der folgenden Form:
∣ 1 e1 e12 …. e1n-1 ∣
∣ 1 e2 e22 …. e2n-1 ∣
∣ 1 e3 e32 …. e3n-1 ∣
***
∣ 1 en en en2 …. en-1n-1 ∣
Satz 8.1. Eine quadratische Vandermonde-Matrix ist unsingulär, wenn, und nur wenn, die Elemente ihrer zweiten Spalte alle unterschiedlich sind.
Beweis. Wenn zwei Elemente der zweiten Spalte identisch sind, hat die Matrix zwei identische Zeilen und ist einzeln.
Nehmen wir nun an, dass e1, e2, …,, en alle unterschiedlich sind in der quadratischen Vandermonde-Matrix oben dargestellt. Angenommen, eine lineare Kombination ihrer Spalten ist null, d.h.,
c0 + c1e1 + c2e12 + ….. + cn-1e1n-1n-1 = 0,
c0 + c1e2 + c2e22 + ….. + cn-1e2n-1 = 0,
c0 + c1e3 + c2e32 + ….. + cn-1e3n-1 = 0,
***
c0 + c1en + c2en2 + ….. + cn-1enn-1 = 0
Dann das Polynom c0 + c1z + c2z2 + c2z2 + ….. + cn-1zn-1 hat n unterschiedliche Wurzeln und einen Grad kleiner als n, was nur möglich ist, wenn c0 = c1 = c2 = …. = cn-1 = 0 ist, so dass die Spalten der Matrix linear unabhängig sind und die Matrix nicht singulär ist. ?