Skip to main content

Vektorräume

Original: http://www.efgh.com/math/algebra/vector.htm von Philip J. Erdelsky

1. n-dimensionale Vektoren

Laß F ein Feld und n eine positive ganze Zahl sein. Ein n-dimensionaler Vektor über F ist ein geordnetes n-Tupel x = (x1, x2, …., xn) von Elementen von F, die oft als die Komponenten von x bezeichnet werden. Ein Element von F wird als skalar bezeichnet. Zwei Vektoren sind gleich, wenn sie die gleiche Dimension haben und ihre entsprechenden Komponenten gleich sind. Vektoren werden üblicherweise durch fettgedruckte Kleinbuchstaben dargestellt.

Wir definieren die Addition der beiden Vektoren x und y wie folgt:

x = (x1, x2, …., xn),
y = (y1, y2, ….., yn),
x + y = (x1 + y1, x2 + y2, …., xn + yn).

Es ist leicht zu zeigen, dass der Satz aller n-dimensionalen Vektoren eine kommutative Gruppe unter Addition ist. Das Identitätselement ist der Nullvektor O = (0, 0, 0, …., 0), und der Kehrwert von x = (x1, x2, …., xn) ist -x = (-x1, -x2, …., -xn).

Wir definieren auch die Multiplikation eines Vektors mit einem skalaren c:

x = (x1, x2, …., xn),
cx = (cx1, cx2, …., cxn).

Es ist einfach zu zeigen, dass für alle Skalare c und d und alle Vektoren x und y,

  • c(x+y) = cx + cy
  • (c+d)x = cx + dx + dx
  • c(dx) = (cd)x
  • 1x = x
  • 0x = O
  • (-1)x = -x

Der Satz aller n-dimensionalen Vektoren, mit diesen Operationen, wird auch als n-dimensionaler Koordinatenraum über dem Feld F bezeichnet, dargestellt durch F n.

Eine lineare Kombination der Vektoren v1, v2, …., vm ist eine Summe der folgenden Form:

c1 v1 + c2 v2 + ….. + cm vm,

wobei c1, c2, …., cm Skalare sind, die die Koeffizienten der linearen Kombination genannt werden.

Die Vektoren v1, v2,…., vm gelten als linear abhängig (oder einfach abhängig), wenn es eine nicht-triviale lineare Kombination gibt, die dem Nullvektor entspricht, d.h. wenn

c1 v1 + c2 v2 + ….. + cm vm = O,

wobei nicht alle Koeffizienten Null sind. In diesem Fall ist mindestens einer der Vektoren (einer mit einem Koeffizienten ungleich Null) gleich einer linearen Kombination der anderen. Zum Beispiel, wenn c1 ≠ 0, dann

v1 = (-c2/c1) v2 + (-c3/c1) v3 + ….. + (-cm/c1) vm.

Das Gegenteil ist auch der Fall. Wenn ein Vektor als lineare Kombination der anderen exprimiert werden kann, sind die Vektoren linear abhängig.

Es ist klar, dass jeder Satz von Vektoren, der den Nullvektor enthält, linear abhängig ist, und dass ein linear abhängiger Satz linear abhängig bleibt, wenn zusätzliche Vektoren an ihn angehängt werden.

Vektoren, die nicht linear unabhängig sind, gelten als linear unabhängig (oder einfach unabhängig).

Die folgenden n n-dimensionalen Vektoren sind linear unabhängig:

e1 = (1, 0, 0, …, 0)
e2 = (0, 1, 0, …, 0)
e3 = (0, 0, 1, …, 0)
***
en = (0, 0, 0, 0, 0, …., 1)

Dies ist jedoch die maximale Anzahl von linear unabhängigen n-dimensionalen Vektoren, wie das folgende Theorem zeigt.

Satz 1.1. Jeder Satz von n+1 oder mehr n-dimensionalen Vektoren über das gleiche Feld ist linear abhängig.

Beweis. Es genügt zu beweisen, dass jeder Satz von n+1 n-dimensionalen Vektoren über das gleiche Feld linear abhängig ist. Der Nachweis erfolgt durch Induktion auf n.

Für n = 1 ist das Ergebnis ziemlich offensichtlich. Wenn zwei Vektoren beide Nullvektoren sind, sind sie linear abhängig. Wenn (a) und (b) nicht beide Nullvektoren sind, dann zeigt die Linearkombination b(a) – a(b) = (0), dass sie linear abhängig sind.

Nehmen wir nun n > 1 an und lassen Sie v1, v2,…., vn, vn, vn+1, eine beliebige Menge von n+1 n-dimensionalen Vektoren über das gleiche Feld sein.

Lassen Sie w1, w2,…., wn, wn, wn+1 die (n-1)-dimensionalen Vektoren sein, die durch Eliminierung der letzten Komponenten erhalten werden. Durch induktive Hypothese sind w1, w2, w2,…., wn linear abhängig, so dass

c1 w1 + c2 w2 + ….. + cn wn = (0, 0, 0, …., 0),

wobei die Koeffizienten nicht alle Null sind. Angenommen, die Vektoren wurden so angeordnet, dass c1 ≠ 0.

In ähnlicher Weise,

d2 w2 + d3 w3 w3 + ….. + dn+1 wn+1 = (0, 0, 0, …., 0),

wobei die Koeffizienten nicht alle Null sind.

Berücksichtigen Sie nun die entsprechenden Linearkombinationen der vollen Vektoren:

c1 v1 + c2 v2 + ….. + cn vn = (0, 0, 0, …., 0, e),

d2 v2 + d3 v3 v3 + ….. + dn+1 vn+1 = (0, 0, 0, …., 0, f),

Wenn e = 0 oder f = 0 ist, dann zeigt einer davon die n+1 Vektoren als abhängig an. In anderen Fällen multiplizieren wir die erste Gleichung mit -f/e und addieren sie zur zweiten, um zu erhalten.

(-(f/e)c1) v1 + (d2-(f/e)c2) v2 + ….. (dn-(f/e)cn) vn + dn+1 vn+1 vn+1 = (0, 0, 0, ….., 0, 0),

die zeigt, dass die n+1 Vektoren linear abhängig sind, da der erste Koeffizient zumindest ungleich Null ist. ?

Kurztitel 1.2. Wenn die Vektoren v1, v2,…, vm linear unabhängig sind, aber die v1, v2,…, vm, vm, vm+1 linear abhängig sind, ist der zusätzliche Vektor vm+1 eine lineare Kombination aus v1, v2,…., vm…., vm…. vm.

Beweis. Durch Hypothese,

b1 v1 + b2 v2 v2 + ….. + bm vm + bm+1 w = O,

wobei nicht alle Koeffizienten Null sind. Wenn bm+1 Null wäre, würde dies zu einer nicht-trivialen linearen Kombination aus v1, v2,…., vm reduzieren, die gleich Null ist. Dies ist unmöglich, da v1, v2,…., vm linear unabhängig sind. Daher ist bm+1 ungleich Null, und die Gleichung kann für w gelöst werden:

w = (-b1/bm+1) v1 + (-b2/bm+1) v2 + ….. + (-bm/bm+1) vm,

was das gewünschte Ergebnis ist. ?

Satz 1.3. Jeder Satz von weniger als n linear unabhängigen n-dimensionalen Vektoren ist nicht maximal, d.h., ein anderer n-dimensionaler Vektor kann angehängt werden und der Satz ist weiterhin linear unabhängig.

Beweis. Nehmen wir zum Zwecke des Widerspruchs an, dass m < n und v1, v2,…., vm ein maximaler Satz von linear unabhängigen n-dimensionalen Vektoren sind.

Bei Lemma 1.2 muss jeder n-dimensionale Vektor eine lineare Kombination dieser Vektoren sein. Insbesondere,

c1,1 v1 + c1,2 v2 + ….. + c1,m vm = (1, 0, 0, 0, …., 0) (1.3.1)
c2,1 v1 + c2,2 v2 + ….. + c2,m vm = (0, 1, 0, 0, ….., 0)
***
cn,1 v1 + cn,2 v2 + ….. + cn,m vm = (0, 0, 0, 0, 0, …., 1)

Lassen Sie nun die Koeffizienten in jeder Reihe einen m-dimensionalen Vektor sein:

(c1,1, c1,2, …. c1,m)
(c2,1, c2,2, …. c2,m)
***
(cn,1, cn,2, …. cn,m)

Durch Theorem 1.1 sind diese Vektoren linear abhängig, so dass es die Koeffizienten d1, d2,…, dn, dn, nicht alle Null gibt, so dass

d1(c1,1, c1,2, …. c1,m) + (1.3.2)
d2(c2,1, c2,2, …. c2,m) +
… +
dn(cn,1, cn,2, …. cn,m) = (0, 0, 0, …., 0)

Multiplizieren Sie nun die i-te Gleichung in (1.3.1) mit di, addieren Sie die resultierenden Gleichungen und wenden Sie (1.3.2) an, um zu erhalten:

(0, 0, 0, …., 0) = (d1, d2,…., dn),

was unmöglich ist, weil nicht alle Komponenten des rechten Elements Null sind. ?

2. Vektorräume

Die in Abschnitt 1 definierten n-dimensionalen Vektoren (manchmal auch Koordinatenvektoren genannt) sind ein Beispiel für eine allgemeinere Struktur namens Vektorraum über einem Feld. Um sich zu qualifizieren, muss ein Satz von Vektoren eine kommutative Gruppe unter Vektoraddition sein, und die skalare Multiplikation muss die ersten fünf in Abschnitt 1 genannten Bedingungen erfüllen:

  • c(x+y) = cx + cy
  • (c+d)x = cx + dx + dx
  • c(dx) = (cd)x
  • 1x = x

Die beiden anderen können daraus abgeleitet werden.

Linear unabhängige und linear abhängige Vektoren werden auf die gleiche Weise definiert und es gelten die gleichen Ergebnisse. Die Dimension dim(V) eines allgemeinen Vektorraums V ist die maximale Anzahl von linear unabhängigen Vektoren. Ein allgemeiner Vektorraum muss keine Dimension haben. So weist beispielsweise der Satz aller Sequenzen (x1, x2, x3,…), mit den offensichtlichen Definitionen von Addition und skalarer Multiplikation, den folgenden unendlichen Satz von Vektoren auf, von denen jede endliche Teilmenge, egal wie groß, linear unabhängig ist:

(1, 0, 0, 0, …)
(0, 1, 0, 0, …)
(0, 0, 1, 0, …)
(0, 0, 0, 1, …)
etc.

Ein weiterer Vektorraum ohne Dimension ist der Satz aller kontinuierlichen reellen Funktionen, in dem Addition und skalare Multiplikation von Funktionen wie gewohnt definiert sind: (f+g)(x) = f(x) + g(x), (cf)(x) = c f(x).

Vektorräume, die Dimensionen haben, gelten als finite-dimensional und solche, die keine Dimensionen haben, als infinite-dimensional.

Die in Abschnitt 1 definierten n-dimensionalen Vektoren bilden nach dieser Definition einen n-dimensionalen Vektorraum. Ein Satz von n linear unabhängigen Vektoren wurde ausgestellt, und Satz 1.1 zeigt, dass es keine Mengen von mehr als n linear unabhängigen Vektoren gibt.

Der nulldimensionale Vektorraum, der aus einem einzigen Nullvektor besteht, ist nicht in Abschnitt 1 enthalten, aber er ist notwendig, um unausgewogene Ausnahmen von einigen Ergebnissen zu vermeiden.

Eine Grundlage für einen Vektorraum ist ein endlicher Satz von Vektoren, so dass jeder Vektor im Raum eindeutig als lineare Kombination der Vektoren in der Basis ausgedrückt werden kann. So sind beispielsweise die folgenden n-dimensionalen Vektoren eine Grundlage, die üblicherweise als kanonische Basis bezeichnet wird:

e1 = (1, 0, 0, …, 0)
e2 = (0, 1, 0, …, 0)
e3 = (0, 0, 1, …, 0)
***
en = (0, 0, 0, 0, 0, …., 1)

Wenn ein Vektorraum eine Dimension n hat, dann ist jeder Satz von n linear unabhängigen Vektoren eine Grundlage. Darüber hinaus stellt die Basis v1, v2,…., vn eine Isormophilie zwischen dem Vektorraum und den n-dimensionalen Vektoren über das gleiche Feld her:

c1 v1 + c2 v2 + ….. + cn vn <-> (c1, c2, ….., cn)

Dies ist eine etwas elegantere Aussage über den Nachweis des Theorems 1.3. Wenn die m-Vektoren maximal wären, würden sie eine Isomorphose zwischen Vektorenräumen unterschiedlicher Größe erzeugen.

Diese Ergebnisse können in einem formalen Satz zusammengefasst werden:

Satz 2.1. In einem Vektorraum mit positiver endlicher Dimension n ist jeder Satz von n linear unabhängigen Vektoren eine Grundlage, jeder Satz von weniger als n linear unabhängigen Vektoren ist eine richtige Teilmenge einer Grundlage, und jede Grundlage enthält n linear unabhängige Vektoren.

Ein Teilraum eines Vektorraums ist eine Teilmenge, die ein Vektorraum über dem gleichen Feld mit den gleichen Operationen ist. Wenn also x und y irgendwelche Elemente der Teilmenge sind und c ein beliebiger Skalar ist, befinden sich x + y und cx in der Teilmenge. Ein richtiger Teilraum ist ein Teilraum, der eine richtige Teilmenge ist. Ein Teilraum, der nur aus dem Nullvektor besteht, wird als trivialer Teilraum bezeichnet; andere Teilräume sind nicht trivial.

Einige Eigenschaften von Teilräumen sind ziemlich offensichtlich:

  • Jeder Teilraum eines endlichen Vektorraums ist endlich-dimensional.
  • Die Dimension eines geeigneten Teilraums ist kleiner als die Dimension des gesamten Raumes.
  • Der Schnittpunkt zweier Teilräume ist ein Teilraum.

Bei einem Satz S von Vektoren in einem Vektorraum (der eine Dimension aufweisen kann oder auch nicht) stellt der Satz aller Linearkombinationen der Vektoren in S einen Teilraum dar, der als lineare Spanne von S bezeichnet wird, oder den von S überspannten Teilraum.

Satz 2.1 Wenn eine Teilmenge S eines Vektorraums eine maximale Anzahl n von linear unabhängigen Vektoren aufweist, dann hat ihre lineare Spanne das Maß n.

Beweis. Jeder Vektor in S kann als lineare Kombination von n linear unabhängigen Vektoren in S ausgedrückt werden. Offensichtlich kann eine lineare Kombination von Vektoren in S, durch die Kombination gleicher Begriffe, als lineare Kombination der gleichen n Vektoren ausgedrückt werden. Da die Vektoren linear unabhängig sind, ist die Darstellung eindeutig. Daher ist die lineare Spanne isomorph zum Raum der in Abschnitt 1 definierten n-dimensionalen Vektoren, und ihre Dimension ist n. ?

Satz 2.2 Wenn zwei Teilräume S und T Dimensionen haben, dann ist die Dimension des durch ihre Vereinigung überspannten Teilraums dim(S) + dim(T) – dim(S ∩ T).

Beweis. Beginnen Sie mit einer Basis für S ∩ T und erweitern Sie sie auf die Grundlagen für S und T. Die Vereinigung der beiden erweiterten Basen hat die erforderliche Anzahl von Vektoren, und ihre lineare Spanne ist der von S ∪ T überspannte Teilraum. Wir müssen zeigen, dass sie linear unabhängig sind. Nehmen Sie eine lineare Kombination der Vektoren in der Union, die sich zu Null summiert, und schreiben Sie sie als O = x + s + t, wobei x eine lineare Kombination von Vektoren in der Basis für S ∩ T ist, s eine lineare Kombination der zusätzlichen Vektoren in der Basis für S ist, und t eine lineare Kombination der zusätzlichen Vektoren in der Basis für T ist. Dann eindeutig s ∈ S, t ∈ T, x ∈ S und x ∈ T. Auch s = -x-t, so s ∈ T auch. Daher s ∈ S ∩ T, aber da es sich um eine lineare Kombination von zusätzlichen Vektoren unabhängig von denen in der Basis für S ∩ T, s = O handelt, ist dies nur möglich, wenn alle Koeffizienten in ihrer Definition Null sind. Ebenso sind alle Koeffizienten in der Definition von t Null. Damit bleibt x = O, was beweist, dass die Linearkombination trivial ist. ?

Folgerung 2.3 Wenn zwei Unterräume S und T von V dim(S) + dim(T) > dim(V) haben, dann haben S und T einen Vektor ungleich Null gemeinsam.

Der nulldimensionale Vektorraum ist nicht unbedingt eine Ausnahme; die meisten Definitionen können entsprechend erweitert werden. Seine Basis ist leer, und eine leere Linearkombination wertet immer zum Nullvektor aus.

Die direkte Summe der beiden Vektorräume R und S über das gleiche Feld ist der Satz der geordneten Paare R ⨯ S, wobei Addition und skalare Multiplikation wie folgt definiert sind:

(r1,s1) + (r2,s2) = (r1+r2,s1+s2),
c (r1,s1) = (cr1,cs1)

Die direkte Summe wird normalerweise als R ⊕ S geschrieben. Es lässt sich leicht nachweisen, dass die direkte Summe eine assoziative und kommutative Operation ist, in dem Sinne, dass R ⊕ S isomorph zu S ⊕ R und (R ⊕ S) ⊕ T isomorph zu R ⊕ (S ⊕ T) ist, und dass dim(R ⊕ S) = dim(R) + dim(S)).

Obwohl zwei verschiedene Vektorräume über das gleiche Feld eine direkte Summe haben, haben zwei Unterräume des gleichen Raums nur dann eine direkte Summe, wenn sie nur den Nullvektor gemeinsam haben. In diesem Fall ist R ⊕ S der Teilraum, der aus allen Vektoren der Form r+s besteht, wobei r ∈ R und s ∈ S. Es lässt sich leicht nachweisen, dass die so gebildeten Direktsummen isomorph zu denen aus verschiedenen Vektorräumen sind.

Da die Direktsumme assoziativ ist, können aus Direktsummen von zwei Räumen Direktsummen von drei oder mehr Räumen gebildet werden; z.B. R ⊕ S ⊕ T = (R ⊕ S) ⊕ T = (S ⊕ T).

Äquivalent kann die Direktsumme V = S1 ⊕ S2 ⊕ ⊕ …. ⊕ Sm von drei oder mehr Teilräumen direkt definiert werden, wenn jedes Element von V eindeutig als Summe s1 + s2 +…. + sm, where sk ∈ Sk. Es lässt sich leicht nachweisen, dass jede Vereinigung von Basen für die Teilräume eine Grundlage für V ist. Es kann auch gezeigt werden, dass, wenn die Teilräume S1, S2,…, Sm disjunkte Basen haben, deren Vereinigung eine Grundlage für V ist, dann ist V ihre direkte Summe.

Direkte Summen sind eigentlich eine Verallgemeinerung des Begriffs der Grundlagen. Die Teilräume S1, S2, …., Sm, alle ungleich Null dimensioniert, sind linear abhängig, wenn es einen Satz von m Vektoren gibt, einen aus jedem Teilraum, dessen Summe Null ist, obwohl nicht alle Vektoren in der Summe Null sind. Eine Reihe von linear unabhängigen Teilräumen bildet eine verallgemeinerte Grundlage für ihre lineare Spanne, in dem Sinne, dass jeder Vektor in der linearen Spanne eindeutig als Summe von Vektoren ausgedrückt werden kann, einer von jedem Teilraum. Die Dimension der linearen Spannweite von linear unabhängigen Teilräumen ist die Summe ihrer Dimensionen.

Solche Beobachtungen, die relativ leicht nachzuweisen sind, werden oft als „Dimensionalitätsargumente“ ohne Ausarbeitung bezeichnet.

3. Geometrische Interpretation

Ein-, zwei- und dreidimensionale Vektoren über das Feld der reellen Zahlen haben eine geometrische Interpretation. Ausgehend von der Analogie können wir viele geometrische Eigenschaften auf vier oder mehr Dimensionen erweitern.

Der eindimensionale Vektor (x) ist einem Punkt auf einer Geraden x Einheiten rechts vom Ursprung zugeordnet, wenn x ≥ 0, oder -x Einheiten links, wenn x < 0.

Der zweidimensionale Vektor (x1, x2) ist dem Punkt im zweidimensionalen Koordinatensystem zugeordnet, dessen Abszisse und Ordinate x1 bzw. x2 sind.

Ebenso ist der dreidimensionale Vektor (x1, x2, x3) dem Punkt in einem dreidimensionalen Koordinatensystem zugeordnet, dessen Koordinaten x1, x2 und x3 sind.

Räume mit vier oder mehr Dimensionen werden auf die gleiche Weise definiert. In einigen Anwendungen wird ein Vektor betrachtet, nicht als Punkt, sondern als eine Linie, die vom Ursprung bis zum Punkt verläuft.

S sei ein Unterraum eines Vektorraums und p sei ein Punkt im Raum (aber nicht unbedingt im Unterraum). Der Satz p + S, der aus allen Summen der Form p + s besteht, wobei s ein beliebiges Element von S ist, ist eine Hyperebene der Dimension dim(S). Hyperebenen der Dimensionen 0, 1 und 2 werden als Punkte, Linien und Ebenen bezeichnet.

Eine weitere Möglichkeit, eine Hyperebene p + S zu definieren, besteht darin, dass sie alle Vektoren x enthält, so dass x – p ∈ S.

Eine Hyperebene, die durch den Ursprung verläuft, ist ein Unterraum der gleichen Dimension.

Der Teilraum S in der Darstellung einer Hyperebene p + S ist einzigartig, aber p ist es nicht. Jeder Punkt auf der Hyperebene ist ausreichend.

Mit Hilfe von Dimensionalitätsargumenten können wir einige bekannte Eigenschaften von Punkten, Linien und Ebenen nachweisen und auf höhere Dimensionen erweitern.

Eine nützliche Technik in der Geometrie ist die Translation, eine Eins-zu-Eins-Mapping der Form f(x) = x + t für einen konstanten Vektor t. Es ist leicht zu sehen, dass die Translation Hyperebenen in Hyperebenen der gleichen Dimension überträgt.

Es ist bekannt, dass zwei verschiedene Punkte eine Linie bestimmen, und dass drei Punkte, die nicht auf derselben Geraden liegen, eine Ebene bestimmen.

Im Allgemeinen bestimmen m+1 Punkte, die nicht auf der gleichen (m-1)-dimensionalen Hyperebene liegen, eine einzigartige m-dimensionale Hyperebene. Um dies zu beweisen, übersetzen wir zuerst die Punkte, so dass einer von ihnen am Ursprung liegt. Dies reduziert das Problem auf eine einfache Eigenschaft von Teilräumen: m Punkte, die nicht im gleichen (m-1)-dimensionalen Teilraum liegen (d.h. linear unabhängig sind), bestimmen einen eindeutigen m-dimensionalen Teilraum.

Von besonderem Interesse sind (n-1)-dimensionale Hyperebenen im n-dimensionalen Raum (Linien im zweidimensionalen Raum, Ebenen im dreidimensionalen Raum, etc.). Zwei dieser Hyperebenen sind (1) identisch, (2) parallel (disjunkt) oder (3) ihr Schnittpunkt ist eine (n-2) dimensionale Hyperebene.

Um dies zu beweisen, lassen Sie p+S und q+T die beiden Hyperebenen sein. Im Falle von S = T, wenn die beiden Hyperebenen einen gemeinsamen Punkt haben, sind sie identisch. Dies betrifft die Fälle (1) und (2). Wenn S ≠ T, dann zeigt ein Dimensionalitätsargument, das auf Theorem 2.3 basiert, dass dim(S ∩ T) = n-1 und ihre Vereinigung den gesamten n-dimensionalen Raum überspannt. Daher gibt es Elemente s und t von S bzw. T, so dass s+t = p-q. Daher haben p-s = q+t und die beiden Hyperebenen einen gemeinsamen Punkt. Der Schnittpunkt der beiden Hyperebenen ist p-s+(S ∩ T), das ist eine (n-2)-dimensionale Hyperebene.

Wenn x und y zwei linear unabhängige Vektoren sind, dann liegen O, x, y und x+y an den Ecken eines Parallelogramms. Das ist ziemlich einfach zu beweisen. Zunächst liegen die Punkte in einer Ebene; die beiden Punkte x und y bestimmen die Ebene, und O und x+y liegen darin. Sei X der eindimensionale Teilraum, der mit x überspannt ist. Dann ist die durch O und x bestimmte Linie O + X, und die durch y und x+y bestimmte Linie ist y + X. Sie sind offensichtlich parallel. Ebenso sind die beiden anderen Seiten parallel.

4. Innere Produkte

Wenn x und y zwei n-dimensionale Vektoren über dem Feld der reellen Zahlen sind, ist das innere Produkt x ∙ y der Skalar, definiert durch

x = (x1, x2, …., xn),
y = (y1, y2, ….., yn),
x ∙ y = x1 y1 + x2 y2 y2 + ….. + xn yn.

Eine alternative Schreibweise für das innere Produkt ist (x, y).

Die folgenden Eigenschaften des inneren Produkts lassen sich leicht überprüfen, wobei x, y und z beliebige Vektoren und c beliebige Skalare sind:

  • x ∙ y = y ∙ x
  • x ∙ (y+z) = x ∙ y + x ∙ z
  • x ∙ cy = cx ∙ y
  • x ∙ x ≥ 0, mit Gleichheit nur wenn x = O

Jede Operation auf einem Vektorraum über dem Feld der reellen Zahlen, die diese Eigenschaften hat, wird als inneres Produkt bezeichnet. Die für n-dimensionale Vektoren definierte ist nicht das einzige mögliche innere Produkt. (Zum Beispiel ist 2(x ∙ y) eine weitere Möglichkeit.) Später werden wir beweisen, dass ein solcher Raum, der normalerweise als Innenproduktraum bezeichnet wird, isomorph zu den n-dimensionalen Vektoren und dem hier definierten Innenprodukt ist.

Die Norm (oder Länge) eines Vektors x wird durch ∥x∥ dargestellt und als Hauptwurzel (nicht negativ) von x ∙ x definiert. Wenn die Dimension nicht mehr als drei beträgt, ist dies der übliche Abstand vom Ursprung bis zum Punkt, der durch den Vektor dargestellt wird, gemäß dem Pythagoreischen Theorem. Der Abstand zwischen den Punkten x und y ist ∥x-y∥. Wir erweitern es in Analogie auf höhere Dimensionen.

Einige wichtige Eigenschaften der Norm sind wie folgt, wobei x ein beliebiger Vektor und c ein beliebiger Skalar ist:

  • ∥x∥ ≥ 0, mit Gleichheit nur wenn x = O
  • ∥c x∥ = ∣c∣ ∥x∥
  • ∥x + y∥ ≤ ∥x∥ + ∥y∥, mit Gleichheit nur wenn x und y linear abhängig sind.

Jede Funktion auf einem Vektorraum über dem Feld der reellen Zahlen, die diese Eigenschaften hat, wird als Norm bezeichnet, obwohl wir nur diejenige verwenden werden, die vom inneren Produkt abgeleitet ist. Da es dem Begriff der Entfernung in der euklidischen Geometrie entspricht, wird es oft als euklidische Norm bezeichnet.

Die ersten beiden Eigenschaften sind ziemlich offensichtlich; es ist die dritte, die einen detaillierten Nachweis erfordert. Der folgende Satz nennt sich Cauchy-Schwarz Ungleichheit (oder die Cauchy-Bunyakovski-Schwarz Ungleichheit oder die CBS Ungleichheit). Es ist ein grundlegender Satz in einer Reihe von Zweigen der Mathematik.

Satz 4.1 Für zwei beliebige Vektoren x und y, ∣x ∙ y∣ y∣ ≤ ∥x∥ ∥y∥, mit Gleichheit nur wenn x und y linear voneinander abhängig sind.

Beweis. Die Behauptung ist offensichtlich, wenn x und y linear voneinander abhängig sind. Wenn sie linear unabhängig sind, betrachten Sie die Linearkombination (x ∙ x) y – (x ∙ y) x. Sie muss ungleich Null sein, da der erste Koeffizient mindestens ungleich Null ist. Daher muss sein inneres Produkt mit sich selbst positiv sein:

[(x ∙ x) y – (x ∙ y) x] ∙ [(x ∙ x) y – (x ∙ y) x] > 0.

Wir nutzen die Eigenschaften von Innenprodukten, um das linke Element zu vervielfachen:

(x ∙ x)2(y ∙ y) – 2 (x ∙ x)(x ∙ y)2 + (x ∙ y)2(x ∙ x) > 0.

Wir kombinieren wie Begriffe:

(x ∙ x)2(y ∙ y) – (x ∙ x)(x ∙ y)2 > 0.

Wir teilen beide Begriffe durch (x ∙ x):

(x ∙ x)(y ∙ y) – (x ∙ y)2 > 0,

Wir verschieben den zweiten Begriff auf die rechte Seite:

(x ∙ x)(y ∙ y) > (x ∙ y)2.

Die Aufnahme der Hauptquadratwurzel jeder Seite ergibt das gewünschte Ergebnis. ?

Wir sind nun bereit, die dritte Eigenschaft von Normen zu etablieren, beginnend mit der Cauchy-Schwarz-Ungleichung für linear unabhängige Vektoren:

∣x ∙ y∣ < ∥x∥ ∥y∥.

Seit x ∙ y ≤ ∣x ∙ ∙ y∣ bedeutet dies, dass

x ∙ y < ∥x∥ ∥y∥.

Mit 2 multiplizieren und einige zusätzliche Begriffe hinzufügen:

x ∙ x + 2 (x ∙ y) + y ∙ y < x ∙ x + 2 ∥x∥ ∥y∥ + y ∙ y.

Berücksichtigen Sie jedes Mitglied:

(x + y) ∙ (x + y) < (∥x∥ + ∥y∥) 2.

Dann nehmen Sie die Hauptquadratwurzel jeder Seite, um das gewünschte Ergebnis zu erzielen:

∥x + y∥ < ∥x∥ + ∥y∥.

Das Ergebnis für linear abhängige Vektoren ist leicht nachzuweisen.

Dieses Ergebnis wird oft als Dreiecksungleichung bezeichnet. Wenn die Vektoren x, y und x + y in einem Dreieck angeordnet sind, besagt die Ungleichheit, dass der Abstand von einem Knoten zum anderen, gemessen entlang der Seite, die sie verbindet, kleiner ist als der Abstand, gemessen entlang der anderen beiden Seiten. Es ist ein Sonderfall des allgemeinen Prinzips, dass die kürzeste Entfernung zwischen zwei Punkten eine gerade Linie ist.

Zwei Vektoren x und y gelten als senkrecht oder orthogonal, wenn x ∙ y = 0. Dies ist eine Frage der Definition, entspricht aber in einer Hinsicht der üblichen Definition von senkrecht. Wenn x und y senkrecht stehen, dann ist der Winkel aus x und y gleich dem Winkel aus -x und y.

Wir haben noch keine Definition von Winkeln, aber das wird sicherlich der Fall sein, wenn der Abstand von -x bis y gleich dem Abstand von x bis y ist:

∥-x-y∥ = ∥x-y∥.

Wir können jede Seite quadrieren, um eine äquivalente Gleichung zu erhalten:

∥-x-y∥ 2 = ∥x-y∥ 2.

Unter Verwendung der Definition der Norm und der Eigenschaften von inneren Produkten können wir einige offensichtliche algebraische Manipulationen durchführen:

(-x-y) ∙ (-x-y) = (x-y) ∙ (x-y),
x ∙ x + 2(x ∙ y) + y ∙ y = x ∙ x – 2(x ∙ y) + y ∙ y,
2(x ∙ y) = -2(x ∙ y),

die gilt, wenn und nur wenn x ∙ y = 0.

Ein Satz von Vektoren v1, v2, …., vn in einem Vektorraum über dem Feld der reellen Zahlen wird orthogonal genannt, wenn jedes Paar von Vektoren orthogonal ist; d.h. vi ∙ vj = 0, wenn i ≠ j.

Die kanonischen Basisvektoren sind ein orthogonaler Satz:

e1 = (1, 0, 0, …, 0)
e2 = (0, 1, 0, …, 0)
e3 = (0, 0, 1, …, 0)
***
en = (0, 0, 0, 0, 0, …., 1)

Es ist leicht zu zeigen, dass nicht-null orthogonale Vektoren linear unabhängig sind. Angenommen, dass

c1v1 + c2v2 + ….. + cnvn = 0.

Nehmen Sie das Innenprodukt von beiden Seiten mit vi:

vi ∙ (c1v1 + c2v2 + …. + cnvn) = 0.

Dann gelten die Eigenschaften der inneren Produkte zu erhalten:

c1 vi ∙ v1 + c2 vi ∙ v2 + ….. + ci vi ∙ vi + ….. + cn vi ∙ vn = 0

Da die Vektoren orthogonal sind, verschwinden alle Begriffe bis auf einen:

ci (vi ∙ vi) = 0.

Da vi ungleich Null ist, bedeutet dies, dass ci = 0 ist.

Daher stellen ungleiche orthogonale Vektoren eine besondere Art der Grundlage für ihre lineare Spanne dar, die als orthogonale Basis bezeichnet wird.

Jede Basis kann durch ein Verfahren namens Gram-Schmidt-Prozess in eine orthogonale Basis für den gleichen Teilraum umgewandelt werden. Wir beschreiben diesen Prozess durch Induktion auf die Anzahl n von Vektoren.

Für n=1 ist der Prozess leer; ein einzelner Vektor ungleich Null ist ein othogonaler Satz.

Für höhere Werte von n verwenden Sie das Verfahren mit n-1-Vektoren, um eine orthogonale Basis w1, w2, …., wn-1 für die lineare Spanne der ersten n-1-Vektoren im ursprünglichen Satz zu erzeugen.

Lassen Sie vn den n-ten Vektor im Original-Set sein und ersetzen Sie ihn durch

wn = vn – [(vn ∙ w1)/(w1 ∙ w1)] w1 – [(vn ∙ w2)/(w2 ∙ w2)] w2 – ….. – [(vn ∙ wn-1)/(wn-1 ∙ wn-1)] wn-1.

Dann lässt sich leicht nachweisen, dass w1, w2, …., wn die gewünschte orthogonale Basis ist.

Eine orthogonale Basis, bei der jeder Basisvektor eine Einheitslänge hat (wie die oben erwähnte kanonische Basis), wird als orthonormale Basis bezeichnet. Jede orthogonale Basis kann in eine orthonormale Basis umgewandelt werden, indem jeder Vektor v durch den Vektor v/∥v∥ ersetzt wird. Dies wird als Normalisierung des Vektors bezeichnet.

Orthonormale Grundlagen sind besonders nützlich, da es einfach ist, jeden Vektor in Bezug auf die Basis zu exprimieren. Nehmen wir zum Beispiel an, dass

x = c1 w1 + c2 w2 + ….. + cn wn.

Nehmen Sie das Innenprodukt jeder Seite mit wk, um zu erhalten.

wk ∙ x = c1(wk ∙ w1) + c2(wk ∙ w2) + ….. + ck(wk ∙ wk) + …. + cn(wk ∙ wn).

Bei den Orthonormalitätseigenschaften reduziert sich dies auf

wk ∙ x = ck.

Deshalb,

x = (w1 ∙ x) w1 + (w2 ∙ x) w2 + ….. + (wn ∙ x) wn.

Darüber hinaus ist das innere Produkt zweier Vektoren, ausgedrückt in Form einer othonormalen Basis, folgendes

(c1 w1 + c2 w2 + …. + cn wn) ∙ (d1 w1 + d2 w2 + …. + dn wn) = c1 d1 + c2 d2 +…. + cn dn.

weil mit ∙ wj 1 ist, wenn i = j und sonst 0. Auf diese Weise wurde das innere Produkt für n-dimensionale Vektoren definiert.

Wenn S ein Teilraum eines n-dimensionalen Vektorraums ist, dann ist das orthogonale Komplement S ⊥ der Satz aller Vektoren, die zu jedem Vektor in S orthogonal sind. Die folgenden Eigenschaften orthogonaler Komplemente sind relativ einfach nachzuweisen:

S ⊥ ist ein Subraum.
dim(S) + dim(S ⊥) = n.
Der gesamte Vektorraum ist die direkte Summe aus S und S ⊥.
S ⊥⊥ = S.

Innere Produkte und Normen können über allgemeinere reale Vektorräume definiert werden. Betrachten Sie zum Beispiel den Satz aller kontinuierlichen reellen Wertfunktionen über ein geschlossenes Intervall[a,b], in dem Addition und skalare Multiplikation von Funktionen wie gewohnt definiert sind: (f+g)(x) = f(x) + g(x), (cf)(x) = c f(x). Das innere Produkt kann definiert werden als

f ∙ g = ∫ab f(x) g(x) g(x) dx.

Wenn a = 0 und b = 2π, dann sind die Funktionen sin(nx), sin(2x), sin(3x) …. und 1, cos(nx), cos(2x), cos(3x)… orthogonal.

Innere Produkte werden normalerweise über reale Vektorräume definiert, aber sie können auch über komplexe Vektorräume definiert werden, mit einigen Modifikationen. Wenn u und v zwei n-dimensionale Vektoren über das Feld der komplexen Zahlen sind, ist das komplexe innere Produkt u ∙ v der Skalar, der definiert ist durch

u = (u1, u2, …., un),
v = (v1, v2, ….., vn),
u ∙ v = ū1 v1 + ū2 v2 + ….. + ūn vn.

Die folgenden Eigenschaften des komplexen inneren Produkts lassen sich leicht überprüfen, wobei x, y und z beliebige Vektoren und e beliebige Skalare sind:

x ∙ y und y ∙ x sind Konjugate.
x ∙ (y+z) = x ∙ y + x ∙ z
(y+z) ∙ x = y ∙ x + z ∙ x x
x ∙ ey = ex ∙ y
ex ∙ y = ēx ∙ ∙ y
x ∙ x ≥ 0, mit Gleichheit nur wenn x = O

5. Winkel

Wir möchten einen Winkel zwischen zwei Linien in einer Weise definieren, die mit der euklidischen Geometrie in zwei und drei Dimensionen übereinstimmt. Berücksichtigen Sie den Winkel A, der sich aus dem Punkt x, dem Ursprung und dem Punkt y ergibt.

Wir lassen zuerst eine Lotlinie von y auf die Linie fallen, die den Ursprung mit x verbindet. Die Basis der Lotlinie ist eindeutig ein skalares Produkt px, das wir wie folgt berechnen können:

x ∙ (y – px) = 0,
x ∙ y – px ∙ x = 0,
p = (x ∙ y) / (x ∙ x).

Wenn der Winkel spitz ist, ist p > 0, und er ist gegeben durch

cos(A) = ∥px∥ / ∥y∥ = p ∥x∥ / ∥y∥ = [(x ∙ y) / (x ∙ x)] (∥x∥ / ∥y∥),
cos(A) = (x ∙ y) / (∥x∥ ∥y∥).

Es kann gezeigt werden, dass diese Formel auch dann gilt, wenn der Winkel ein rechter Winkel oder ein stumpfer Winkel ist.

Zur Akkuschrauber Homepage


Ähnliche Beiträge