Skip to main content

Eigenwerte und Eigenvektoren

Original: http://www.efgh.com/math/algebra/eigenvalue.htm von Philip J. Erdelsky

1. Definitionen

Lasst A eine quadratische Matrix sein. Ein Eigenwert von A ist ein Skalar λ, so dass

Ax = λx

für einen Spaltenvektor ungleich Null x. Der Vektor x wird als Eigenvektor bezeichnet, der dem Eigenwert entspricht.

Die obige Gleichung kann auch geschrieben werden:

(A – λI)x = 0,

wobei I die Identitätsmatrix (von der gleichen Größe wie A) ist.

Die alternative Form der Gleichung ist erfüllt, wenn und nur wenn die Matrix A – λI singulär ist.

Dies gibt uns alternative Definitionen des Eigenwertes. Ein Eigenwert der Matrix A ist eine Wurzel des Polynoms det(A – zI), das als charakteristisches Polynom der Matrix bezeichnet wird, oder eine Lösung der charakteristischen Gleichung det(A – zI) = 0. Der Eigenwert selbst wird auch als charakteristische Wurzel der Matrix bezeichnet.
2. Grundlegende Eigenschaften

Eine Matrix über einem algebraisch vollständigen Feld, wie beispielsweise dem Feld der komplexen Zahlen, hat immer mindestens einen Eigenwert. Da das charakteristische Polynom einer n⨯ n Matrix den Grad n hat, kann die Matrix nicht mehr als n Eigenwerte aufweisen.

Auch wenn ein Feld nicht algebraisch vollständig ist, existieren die Eigenwerte einer Matrix im splittenden Feld ihres charakteristischen Polynoms.

Satz 2.1. Eine quadratische Matrix hat das gleiche charakteristische Polynom und die gleichen Eigenwerte wie ihre Transponierung.

Beweis. Die charakteristischen Polynome von A und AT sind für alle Werte der unabhängigen Variablen gleich:

det(A – zI) = det((A – zI)T) = det(AT – zIT) = det(AT – zI).

In einem unendlichen Feld, wie beispielsweise dem Feld der reellen Zahlen, reicht dies aus, um zu zeigen, dass die Polynome identisch sind, d.h. sie haben gleiche Koeffizienten. Jeder Koeffizient ist jedoch selbst ein Polynom in den Einträgen in A und AT. Sie können für alle Werte der Einträge nur dann gleich sein, wenn sie gleiche Koeffizienten haben. Daher sind die beiden Polynome in jedem Feld identisch.

Identische charakteristische Polynome ergeben identische Eigenwerte. ?

Satz 2.2. Ähnliche Matrizen haben das gleiche charakteristische Polynom und die gleichen Eigenwerte.

Beweis. Wenn Q nicht singulär ist, dann ist det(Q-1) det(Q) = 1, und die charakteristischen Polynome von A und Q-1AQ sind für alle Werte der unabhängigen Variable gleich:

det(A – zI) = det(Q-1) det(A – zI) det(Q) = det(Q-1 (A – zI) Q) = det(Q-1AQ – zQ-1IQ))) = det(Q-1AQ – zI) = det(Q-1AQ – zI).

Der Rest des Arguments ist derselbe wie für Theorem 2.1, nur dass nicht alle Werte der Koeffizienten von Q Q Q unsingulär machen. Allerdings werden alle Werte innerhalb eines Intervalls, so dass das Argument weiterhin gültig ist. ?

Da ähnliche Matrizen als Matrizen derselben linearen Transformation in Bezug auf verschiedene Basen interpretiert werden können, ist es sinnvoll, die charakteristischen Polynome und Eigenwerte einer linearen Transformation eines endlichen Vektorraums ohne Rücksicht auf eine bestimmte Basis zu definieren.

Satz 2.3. Die Matrizen AB und BA haben das gleiche charakteristische Polynom und die gleichen Eigenwerte.

Beweis. Wenn A nicht singulär ist, dann sind AB und BA ähnlich:

BA = A-1ABA,

und das gewünschte Ergebnis ergibt sich aus Theorem 2.2. Die Erweiterung auf alle A verwendet ein ähnliches Argument. ?

Wenn λ ein Eigenwert der Matrix A ist, dann ist die Menge {x | Ax = λx} ein nicht-trivialer Subraum, der den Eigenraum entsprechend λ genannt wird.

Jede Matrix hat mindestens einen Eigenwert (vielleicht in einem Erweiterungsfeld), aber da das charakteristische Polynom mehrere Wurzeln haben kann, kann die Anzahl der verschiedenen Eigenwerte einer n⨯ n Matrix kleiner als n sein. Sie kann nie größer als n sein.

Jeder Eigenwert λ einer Matrix A weist eine algebraische Multiplizität auf, d.h. die Häufigkeit, mit der z-λ in einer vollständigen Faktorisierung des charakteristischen Polynoms erscheint. Es hat auch eine geometrische Multiplizität, die die Dimension seines Eigenraums ist. Die algebraischen Multiplikitäten aller Eigenwerte einer n⨯ n-Matrix ergeben immer n. Die geometrische Multiplikation eines Eigenwertes kann seine algebraische Multiplikation nicht überschreiten. Der Beweis dafür wird später erbracht. Es kann weniger sein, wie das folgende einfache Beispiel zeigt:

| 0 1 |
| 0 0 |

Das charakteristische Polynom ist z 2. Der einzige Eigenwert ist 0 und seine algebraische Multiplizität ist 2, jedoch sind alle Eigenvektoren ungleich Null skalare Vielfache von (1,0) T, so dass seine geometrische Multiplizität nur 1 ist.

Das charakteristische Polynom kann in lineare Faktoren (ggf. in seinem Splitting-Feld) einfließen:

det(A – zI) = (-1) n (z-λ1) (z-λ2) ….. (z-λn),

wobei λ1, λ2 …., λn die Eigenwerte sind.

Die Substitution von z = 0 zeigt, dass die Determinante das Produkt der Eigenwerte ist:

det(A) = λ1 λ2 λ2 …. λn.

Der Koeffizient von z n-1 in der Determinante ist die Summe der diagonalen Einträge in der Matrix. Der Koeffizient von z n-1 im Produkt aus linearen Faktoren ist die Summe der Eigenwerte. Daher:

a11 + a22 + ….. ann = λ1 + λ2 + λ2 + ….. + λn.

Die Summe der diagonalen Einträge in einer quadratischen Matrix wird als Trace der Matrix bezeichnet. Da es sich um die Summe der Eigenwerte handelt, ist es für ähnliche Matrizen gleich und kann daher als Eigenschaft einer linearen Transformation betrachtet werden.

Das charakteristische Polynom einer direkten Summe von Matrizen ist das Produkt ihrer charakteristischen Polynome:

A = B1 ⊕ B2 ⊕ ⊕ …. ⊕ Bm,
det(A-λI) = det(B1-λI) det(B2-λI) …. det(Bm-λI).

Seine Eigenwerte sind eindeutig die der konstituierenden Matrizen.
3. Dreieckige und diagonale Matrizen

Wenn die quadratische Matrix A dreieckig ist, dann ist A – zI auch dreieckig, und ihre Determinante ist das Produkt ihrer diagonalen Elemente:

det(A – zI) = (a11 – z) (a22 – z) ….. (ann – z).

Dadurch ist die charakteristische Gleichung besonders einfach zu lösen. Die Eigenwerte von A sind seine diagonalen Elemente.

Satz 3.1. Jede quadratische Matrix ist ähnlich (über das Teilungsfeld ihres charakteristischen Polynoms) wie eine obere dreieckige Matrix.

Beweis. Wir verwenden Induktion auf die Größe der Matrix. Für eine 1⨯ 1 Matrix ist das Ergebnis trivial.

Nehmen wir nun an, dass jede (n-1)⨯ (n-1) Matrix einer oberen dreieckigen Matrix ähnlich ist, und lassen wir A n⨯ n sein.

Lassen Sie λ einen Eigenwert von A und r1 einen entsprechenden Eigenvektor sein. Finden Sie zusätzliche Spaltenvektoren, so dass r1, r2, …., rn linear unabhängig sind. Diese Spaltenvektoren seien die Spalten der Matrix R.

Nun soll e1 der n⨯ 1 Spaltenvektor mit 1 als erstem Element und Nullen an anderer Stelle sein. Dann lässt sich leicht nachweisen, dass für jede n⨯ n Matrix S das Produkt Se1 die erste Spalte von S ist.

Insbesondere Re1 = r1 und R -1r1 = e1.

Dann ist die erste Spalte von R -1AR R -1ARe1, was leicht als λe1 dargestellt werden kann. Daher kann R -1AR wie folgt aufgeteilt werden:

| λ v ||
| 0 B |

Hier ist v 1⨯ (n-1), B ist (n-1)⨯ (n-1), und 0 besteht aus Nullen.

Durch die induktive Hypothese ist B ähnlich wie S -1BS, das ein oberes Dreieck ist. Daher

1 0 | | | | λ v | | | 1 0 ||
0 S -1 | | | | 0 B | | | 0 S |,

kann durch den Partitionssatz als gleichbedeutend mit

| λ vS ||
| 0 S -1BS |,

das obere Dreieck ist und ähnlich wie A ist. ?

Natürlich zeigt ein ähnliches Argument, dass jede quadratische Matrix einer unteren dreieckigen Matrix ähnlich ist.

Satz 3.2. Eigenvektoren, die unterschiedlichen Eigenwerten entsprechen, sind linear unabhängig.

Beweis. Wir verwenden Induktion auf die Anzahl m der Eigenvektoren (die kleiner als die Größe der Matrix sein kann). Für m=1 ist die Behauptung trivial.

Gehen wir nun davon aus, dass x1, x2, …., xm Eigenvektoren sind, die den unterschiedlichen Eigenwerten λ1, λ2, …., λm entsprechen und lassen wir die

c1x1 + c2x2 + ….. + cm-1xm-1 + cmxm = 0.

Multiplizieren Sie beide Seiten mit der Matrix A – λmI, um zu erhalten:

c1(λ1-λm)x1 + c2(λ2-λm)x2 + ….. + cm-1(λm-1-λm)xm-1 = 0.

Durch induktive Hypothese, ck(λk-λm) = 0 für jeden 0 ≤ k ≤ m-1. Seit λk≠λm folgt daraus, dass ck = 0 in jedem Fall. Daher ist cmxm = 0. cm muss also auch Null sein, und die Eigenvektoren sind linear unabhängig. ?

Folgerung 3.3. Eine Matrix mit ausgeprägten Eigenwerten ist ähnlich (über das Teilungsfeld ihres charakteristischen Polynoms) wie eine diagonale Matrix, deren Diagonalelemente die Eigenwerte sind.

4. Matrix-Polynome

Für eine quadratische Matrix A können wir Matrixleistungen als wiederholte Multiplikation von A oder A -1 definieren (wenn A nicht singulär ist):

A m = AA….. A (m mal),
A 0 = I,
A -m = A -1A -1A -1 ….. A -1 (m mal),

wobei I die Identitätsmatrix der gleichen Größe wie A ist. Es gelten die üblichen Machtgesetze:

A r+s = A rA s,
A rs = (A r) s

Obwohl die Matrixmultiplikation im Allgemeinen nicht kommutativ ist, pendeln Kräfte derselben Matrix.

Lassen Sie p(z) = cmz m + cm-1z m-1 m-1 + ….. + c1z + c0 ein Polynom sein und A eine quadratische Matrix sein lassen, beide über dasselbe Feld. Obwohl ein Polynom in der Regel nur für Skalare ausgewertet wird, ist es möglich, die Matrix A durch z (und c0I für die konstante Laufzeit) zu ersetzen:

p(A) = cmA m + cm-1A m-1 + ….. + c1A + c0I.

Matrix-Polynome haben viele der Eigenschaften von Polynomen im Allgemeinen. Die Multiplikation von Polynomen in derselben Matrix ist kommutativ.

Da die Ähnlichkeit die Matrixoperationen bewahrt, führt die Anwendung des gleichen Polynoms auf ähnliche Matrizen zu ähnlichen Ergebnissen:

p(R -1AR) = R -1p(A)R.

Satz 4.1. Für jede quadratische Matrix A gibt es ein einzigartiges monisches Polynom m(z) (über das gleiche Feld) von minimalem Grad, für das m(A) = 0 ist, und es teilt jedes Polynom p(z) (über das gleiche Feld oder ein Erweiterungsfeld), für das p(A) = 0.

Beweis. Wenn A die Nullmatrix ist, dann eindeutig m(z) = z. (Das folgende Argument ist in diesem Fall gültig, aber es ist schwer zu folgen.)

In anderen Fällen sind die Matrizen I, A, A, A 2, A 3, A 3,…. Vektoren in einem endlichen Vektorraum (mit den üblichen Definitionen von Addition und skalarer Multiplikation), so dass es einen Mindestwert von k gibt, so dass I, A, A, A 2, …., A k linear abhängig sind. Dann

p(A) = ckA k + ck-1A k-1 + ….. + c1A + c0I = 0,

wobei nicht alle Koeffizienten Null sind, und insbesondere ck muss ungleich Null sein, da sonst k nicht minimal wäre. Dann m(z) = z k + (ck-1/ck)z k-1 + ….. + (c1/ck)z + c0/ck.

Nun soll p(z) ein beliebiges Polynom mit p(A) = 0 sein. p(z) = m(z)q(z) + r(z), wobei r(z) Null oder ein niedrigerer Grad als m(z) ist. Aber die Substitution von A durch z zeigt, dass r(A) = 0 ist, was für ein ungleich Null r(z) unmöglich ist, weil m(z) das ungleich Null-Polynom des niedrigsten Grades mit dieser Eigenschaft ist. Somit ist r(z) das Nullpolynom und m(z) teilt p(z).

Die Einzigartigkeit von m(z) ergibt sich daraus, dass monische Polynome gleichen Grades, die sich gegenseitig trennen, identisch sein müssen. ?

Das Polynom m(z) wird als Minimalpolynom der Matrix A bezeichnet. Es ist leicht zu erkennen, dass ähnliche Matrizen das gleiche minimale Polynom aufweisen. Daher ist es sinnvoll, das minimale Polynom einer linearen Transformation eines endlichen Vektorraums ohne Rücksicht auf die Basis zu definieren.

Die folgende Verallgemeinerung des Theorems 4.1 zeigt, dass es für jeden nichttrivialen Teilraum ein minimales Polynom gibt, bezogen auf eine gegebene quadratische Matrix.

Satz 4.2. Für jede n⨯ n Matrix A und jeden nicht-trivialen Teilraum S des Vektorraums der n-dimensionalen Spaltenvektoren (über das gleiche Feld) gibt es ein einzigartiges monisches Polynom mS(z) (über das gleiche Feld) von minimalem Grad, so dass mS(A)x = 0 für jedes x ∈ S. Es teilt jedes Polynom p(z) (über das gleiche Feld oder ein Erweiterungsfeld) so, dass p(A)x = 0 für jedes x ∈ S. Außerdem, wenn S ein Teilraum von T ist, dann teilt mS(z) mT(z).

Beweis. Offensichtlich existiert ein solches Minimalpolynom, da das Minimalpolynom der Matrix die gewünschte Eigenschaft hat, obwohl sein Grad nicht minimal sein darf.

Nun soll p(z) ein beliebiges Polynom mit p(A)x = 0 für jedes x ∈ S (einschließlich mT(z)) sein. Durch den Divisionsalgorithmus, p(z) = mS(z)q(z) + r(z), wobei r(z) Null oder niedriger als mS(z) ist. Aber die Substitution von A durch z zeigt, dass r(A)x = 0 für jedes x ∈ S ist, was für ein ungleich Null r(z) unmöglich ist, weil mS(z) das ungleich Null-Polynom mit dieser Eigenschaft ist. Somit ist r(z) das Nullpolynom und mS(z) teilt p(z). ?

Das minimale Polynom des gesamten Raumes ist auch das minimale Polynom der Matrix, denn p(A)x = 0 für alle x wenn und nur wenn p(A)x = 0. Das minimale Polynom des Raumes aller skalaren Vielfachen eines ungleich Nullvektors x wird oft als das minimale Polynom von x bezeichnet.

Natürlich ist das minimale Polynom immer in Bezug auf eine Matrix (oder deren zugehörige lineare Transformation) definiert. Da sich die meisten Diskussionen über Minimalpolynome nur auf eine einzige Matrix beziehen, wird sie in der Regel verstanden.

Der folgende Satz wird als Cayley-Hamilton-Theorem bezeichnet.

Satz 4.3. Sei p(z) das charakteristische Polynom einer quadratischen Matrix A. Dann ist p(A) = 0, und das minimale Polynom von A teilt p(z).

Beweis. Wir zeigen zunächst, dass das Theorem für jede diagonale Matrix gilt. Operationen an diagonalen Matrizen sind besonders einfach. Die Summe und das Produkt von zwei diagonalen Matrizen ergeben sich aus der Addition bzw. Multiplikation der entsprechenden diagonalen Einträge. Somit ist p(A) die diagonale Matrix, deren i-ter diagonaler Eingang p(aii) ist. Aber aii ist ein Eigenwert von A, also p(aii) = 0, also p(A) = 0.

Nun gilt der Satz auch für jede Matrix, die einer diagonalen Matrix ähnlich ist, denn p(R -1AR) = R -1p(A)R und ähnliche Matrizen haben das gleiche charakteristische Polynom. Insbesondere gilt der Satz für jede Matrix mit unterschiedlichen Eigenwerten.

Wenn jede Quadratmatrix unterschiedliche Eigenwerte hätte, würde der Beweis hier enden.

Wir können ein Kontinuitätsargument verwenden, um das Theorem auf komplexe Matrizen auszudehnen, die keine unterschiedlichen Eigenwerte haben. Obwohl die Matrix A einer diagonalen Matrix nicht ähnlich sein kann, ist sie einer oberen dreieckigen Matrix T ähnlich. Die Eigenwerte dieser Matrix erscheinen entlang ihrer Hauptdiagonale, wie bei jeder oberen dreieckigen Matrix. Es ist einfach, eine Sequenz T1, T2, T3,…. von oberen dreieckigen Matrizen mit unterschiedlichen Eigenwerten zu konstruieren, deren Grenze T ist. Wenn pk(z) das charakteristische Polynom von Tk ist, dann pk(Tk) = 0. Dann limk⟶ ∞ pk(Tk) = p(T)= 0. Da A T ähnlich ist, p(A) = 0.

Schließlich können wir das Ergebnis auf Matrizen über ein beliebiges Feld erweitern. Im komplexen Fall ist jeder Eintrag in p(A) ein Polynom in den Einträgen in A, das für alle Werte der unabhängigen Variablen den Wert Null annimmt. Dies ist nur möglich, wenn alle Koeffizienten gleich Null sind, wenn gleiche Begriffe kombiniert werden. Daher wird das Polynom in jedem Feld auf Null gesetzt. (Tatsächlich wird es in jedem Kommutativring auf Null gesetzt.) ? ?
5. Das erste Matrix-Zerfallsatz-Theorem

Es hat sich gezeigt, dass jede Matrix mit unterschiedlichen Eigenwerten einer diagonalen Matrix ähnlich ist. Eine Matrix mit wiederholten Eigenwerten kann oder kann nicht ähnlich sein wie eine diagonale Matrix, aber sie ist ähnlich wie eine Matrix, die nach den beiden Zerfallssätzen nahezu diagonal ist.

Satz 5.1. Eine quadratische Matrix ist ähnlich (über das Teilungsfeld ihres charakteristischen Polynoms) einer direkten Summe von Matrizen, die jeweils nur einen einzigen Eigenwert aufweisen, der ein Eigenwert der ursprünglichen Matrix ist, und deren Größe die algebraische Multiplizität des Eigenwertes ist.

Beweis. Der Nachweis erfolgt durch Induktion an der Anzahl der einzelnen Eigenwerte. Wenn es nur einen gibt, ist der Satz trivial wahr.

Laß λ ein Eigenwert der n⨯ n Matrix A der algebraischen Multiplizität k sein, und laß λ1, λ2, …., λn-k seine anderen Eigenwerte sein. Dann kann sein charakteristisches Polynom als p(z) = q(z)r(z) geschrieben werden, wobei q(z) = (z-λ) k, und r(z) = (z-λ1)(z-λ2)…(z-λn-k).

Nun soll x ein beliebiger Vektor im Nullraum von q(A) sein, d.h. q(A)x = 0. Da die Multiplikation von Polynomen in der gleichen Matrix kommutativ ist, ist q(A)(Ax) = Aq(A)x = 0, also Ax auch im Nullraum. Daher ist der Nullraum von q(A) unter der linearen Transformation, deren Matrix A ist, invariant.

Ebenso ist der Nullraum von r(A) auch unter der linearen Transformation, deren Matrix A ist, invariant.

Da q(z) und r(z) relativ primär sind, gibt es nach dem euklidischen Algorithmus die Matrizen s(z) und s(z) so, dass s(z)q(z) + t(z)r(z) = 1 und s(A)q(A) + t(A)r(A) = I, und somit s(A)q(A)x + t(A)r(A)x = x für jeden Vektor x.

Jetzt befindet sich s(A)q(A)x im Nullraum von r(A), weil r(A)s(A)q(A)x = s(A)q(A)r(A)x = s(A)p(A)x und p(A) = 0 durch das Cayley-Hamilton Theorem.

Ebenso befindet sich t(A)r(A)x im Nullraum von q(A).

Somit kann ein beliebiger Vektor x als Summe von Elementen der beiden Nullräume ausgedrückt werden.

Außerdem ist das einzige gemeinsame Element der Nullräume Null, denn q(A)x = 0 und r(A)x = 0 bedeuten, dass x = 0 ist.

Daher ist der gesamte Vektorraum die direkte Summe der beiden Nullräume, von denen jeder ein invarianter Subraum unter der linearen Transformation ist, deren Matrix A ist.

Daraus folgt, dass A der direkten Summe Aq ⊕ Ar der Matrizen der Transformation ähnlich ist, die auf die Nullräume von q(A) bzw. r(A) beschränkt sind, und das charakteristische Polynom von A das Produkt der charakteristischen Polynome von Aq und Ar ist.

Lassen Sie nun ω einen Eigenwert von Aq und x den entsprechenden Eigenvektor (ausgedrückt in der ursprünglichen Basis) sein. Dann 0 = q(A)x = (A-λI) kx = (ω-λ) kx, was bedeutet, dass ω = λ. Ein ähnliches Argument zeigt, dass λ kein Eigenwert von Ar sein kann.

Daher sind die charakteristischen Polynome von Aq und Ar q(z) bzw. r(z) und Aq hat die erforderlichen Eigenschaften.

Um den Beweis zu vervollständigen, wenden wir die induktive Hypothese auf Ar. ? an.

6. Zerlegung von nilpotenten Matrizen

Eine nilpotente Matrix ist eine quadratische Matrix mit einer Leistung gleich der Nullmatrix, d.h. die quadratische Matrix A ist nilpotent, wenn und nur wenn A m = 0 für eine nichtnegative ganze Zahl m ist. Es wird leicht gezeigt, dass alle Eigenwerte von A Null sein müssen. Umgekehrt, wenn alle Eigenwerte einer Matrix Null sind, zeigt das Cayley-Hamilton Theorem, dass die Matrix nilpotent ist. Die lineare Transformation, die mit einer nilpotenten Matrix verbunden ist, gilt ebenfalls als nilpotent.

Die meisten der in diesem Abschnitt verwendeten Konzepte sind auch für Matrizen definiert, die nicht nilpotent sind, aber wir werden die allgemeineren Definitionen nicht benötigen.

Das minimale Polynom einer nilpotenten Matrix ist immer eine Stärke der Matrix, ebenso wie das minimale Polynom von nicht-trivialen Unterräumen und ungleich Nullvektoren. Daher werden wir in den meisten Fällen den Grad des minimalen Polynoms (abgekürzt DMP) verwenden, um uns auf das minimale Polynom einer nilpotenten Matrix, die damit verbundene lineare Transformation oder einen nicht-trivialen Subraum oder Vektor ungleich Null zu beziehen.

Sei m das DMP des Vektors x in Bezug auf die nilpotente Matrix A. Dann ist A mx = 0, aber A m-1x ≠ 0.

Wir zeigen zunächst, dass die Vektoren x, Ax, A 2x, …., A m-1x. linear unabhängig sind. Zu diesem Zweck lassen Sie c0x + c1Ax + c2A 2x + c2A 2x + ….. + cm-1A m-1x = 0, Wenn wir beide Seiten mit A m-1 multiplizieren, erhalten wir c0A m-1x = 0. c0 = 0. Jetzt multiplizieren wir beide Seiten mit A m-2, um c1A m-1x = 0 zu erhalten. c1 = 0. Fortsetzung auf diese Weise zeigen wir, dass alle Koeffizienten Null sein müssen.

Der m-dimensionale Subraum, der von x, Ax, A 2x, …. überspannt wird, A m-1x ist ein invarianter Subraum. Es wird als zyklisch invarianter Teilraum von A bezeichnet. Beachten Sie, dass sein DMP und seine Dimension immer gleich sind.

Lemma 6.1. Bei einer nilpotenten linearen Transformation eines endlichen Vektorraums gibt es immer einen zyklisch invarianten Subraum, dessen DMP gleich dem der Transformation ist.

Beweis. Das DMP der Transformation ist immer das maximale DMP eines der Vektoren in einer Basis für den Vektorraum. Da die Basis endlich ist, ist sie gleich dem DMP von mindestens einem Basisvektor. ?

Lemma 6.2. Wenn e und f zwei nichtnegative ganze Zahlen sind, deren Summe kleiner oder gleich der Dimension eines zyklisch invarianten Teilraums für die nilpotente Matrix A und A es = 0 für einen Vektor s im Teilraum ist, dann gibt es einen Vektor r im Teilraum, für den A fr = s.

Beweis. Möge x, Ax, A 2x, …., A m-1x eine Grundlage für den Teilraum sein. Dann

s = c0x + c1Ax + c2A 2x + ….. + cm-1A m-1x,
A es = c0A ex + c1A e+1x + c2A e+2x + ….. + cm-1-eA m-1x = 0,

was bedeutet, dass c0 = c1 = c2 = …. = cm-1-e = 0. also

s = cm-eA m-ex + cm-e+1A m-e+1x + cm-e+2A m-e+2x + ….. + cm-1A m-1x,

und

y = cm-eA m-e-fx + cm-e+1A m-e-f+1x + cm-e+2A m-e-f+2x + ….. + cm-1A m-f-1x.

Eine Verallgemeinerung des folgenden Theorems wird oft als zweiter Zersetzungstheorem bezeichnet.

Satz 6.3. Bei einer nilpotenten linearen Transformation eines endlichen Vektorraums ist der Raum eine direkte Summe von zyklisch invarianten Teilräumen der Transformation.

Beweis. Der Nachweis erfolgt durch Induktion auf das Maß n des Vektorraums. Es ist trivial für n = 1 (und auch ziemlich einfach zu beweisen für n = 2).

Wenn n > 1, soll A die Matrix der Transformation sein (relativ zu einer beliebigen Basis), und m soll ihr DMP sein.

Mit Lemma 6.1 gibt es einen zyklisch invarianten Teilraum S, dessen DMP m ist. Wenn m = n, ist S der gesamte Raum und der Beweis ist vollständig.

Wenn m < n, betrachten Sie die Beziehung zwischen den Vektoren, die durch x ~ y definiert ist, wenn x-y ∈ S. Es lässt sich leicht nachweisen, dass es sich um eine Äquivalenzbeziehung handelt. Darüber hinaus liefern Vektoroperationen auf äquivalenten Vektoren gleichwertige Ergebnisse, d.h. wenn x ~ x‘, y ~ y‘ und c irgendein Skalar ist, dann x + y ~ x‘ + y ~ x‘ + y‘ und cx ~ cx‘.

Betrachten Sie nun den Satz T * der Äquivalenzklassen. Für jeden Vektor x soll x * die Klasse sein, die ihn enthält. Der Vektor x wird als Vertreter der Klasse bezeichnet. Es ist nicht eindeutig; eindeutig (x+s) * = x * für alle s ∈ S.

Dann lässt sich leicht nachweisen, dass die folgenden Definitionen T * zu einem Vektorraum machen (über dem gleichen Feld wie A):

x * + y * = (x + y) *,
cx * = (cx) *.

Lassen Sie u1, u2, …., um eine beliebige Basis für S sein und lassen Sie v1 *, v2 *, …., vk * eine beliebige Basis für T * sein. Es lässt sich leicht nachweisen, dass u1, u2, …., um, v1, v2,…., vk eine Grundlage für den gesamten n-dimensionalen Vektorraum ist. Darüber hinaus kann jeder Vektor vj durch einen anderen Repräsentanten der gleichen Klasse ersetzt werden, und die gleichen Behauptungen gelten weiterhin. Außerdem ist das Maß von T * n – m.

Da S ein invarianter Subraum in Bezug auf A ist, können wir eine lineare Transformation von T * definieren durch

A *(x *) = (Ax) *.

Diese Transformation ist offensichtlich nilpotent. Lassen Sie p sein DMP sein.

Jetzt ist A m = 0, was A mx = 0 für jeden Vektor x entspricht. Dann deutlich (A *) mx * = 0 * für jede Äquivalenzklasse x *, und p ≤ m.

Da die Dimension von T * kleiner als n ist, besagt die induktive Hypothese, dass es sich um eine direkte Summe von zyklisch invarianten Teilräumen handelt. Das DMP von jedem ist kleiner oder gleich p, was kleiner oder gleich m ist.

Betrachten Sie einen solchen Teilraum, dessen Basis h *, (Ah) *, (A 2h) *, …., (A r-1h) * ist, wobei r ≤ m.

Jetzt (A rh) * = 0 *, was A rh ∈ S entspricht.

Multiplizieren Sie nun mit A m-r (hier wird r ≤ m verwendet), um A m-rA rh = A mh zu erhalten. Da m das DMP von A ist, ist A mh = 0.

Bei Lemma 6.2 muss es einen Vektor t ∈ S geben, so dass A rt = A rh.

Lassen Sie g = h – t. Dann kann die Basis für den zyklisch invarianten Teilraum von T * umgeschrieben werden in g *, (Ag) *, (A 2g) *, …., (A r-1g) *, wobei A rg = 0.

Dann sind g, Ag, A 2g, …., A r-1g die Grundlage für einen zyklisch invarianten Teilraum des gesamten Raumes.

Dies kann für jeden zyklisch invarianten Teilraum von T * erfolgen. Die resultierenden Teilräume ergeben zusammen mit S die erforderliche Zerlegung. ?

Besonders einfach ist die Matrix einer nilpotenten Transformation über einen zyklisch invarianten Subraum bezogen auf die Basis x, Ax, A 2x, …., A m-1x. Es hat Einsen knapp über der Hauptdiagonale und Nullen an anderer Stelle, wie in diesem vierdimensionalen Beispiel:

| 0 1 0 0 |
| 0 0 1 0 |
| 0 0 0 1 |
| 0 0 0 0 |

Die Matrix einer nilpotenten linearen Transformation relativ zu einer Basis, die aus den kombinierten Basen ihrer zyklisch invarianten Teilräume besteht, ist eine direkte Summe solcher Matrizen. Deshalb haben wir es bewiesen:

Satz 6.4. Eine nilpotente Matrix ist vergleichbar mit einer direkten Summe von Matrizen, von denen jede eine knapp über der Hauptdiagonale und Nullen an anderer Stelle aufweist.
7. Die jordanische kanonische Form

Ein Jordan-Block ist eine obere dreieckige Matrix mit einem einzigen Eigenwert, der in der Hauptdiagonale, über der Hauptdiagonale und an anderer Stelle mit Nullen erscheint:

| λ 1 0 0 … 0 0 |
| 0 λ 1 0 … 0 0 |
| 0 0 λ 1 … 0 0 |
| 0 0 0 λ … 1 0 |
* * *
| 0 0 0 0 … λ 1 |
| 0 0 0 0 … 0 λ |

Satz 7.1. Jede quadratische Matrix ist ähnlich (über das Teilungsfeld ihres charakteristischen Polynoms) wie eine direkte Summe von Jordanblöcken.

Beweis. Nach Theorem 5.1 ist eine Matrix vergleichbar mit einer direkten Summe von Matrizen, die jeweils einen einzigen Eigenwert haben:

Q -1AQ = A1 ⊕ A2 ⊕ ⊕ …. ⊕ Am.

Laß λk der Eigenwert von Ak sein. Dann ist Ak – λkI nilpotent, also ist es nach Theorem 6.4 einer direkten Summe von Matrizen ähnlich, von denen jede eine über ihrer Hauptdiagonale und Nullen an anderer Stelle hat:

Qk -1(Ak – λkI)Qk = Bk1 ⊕ Bk2 ⊕ Bk3 ⊕ Bk3 ⊕ …..

Daher

Qk -1AkQk = (Bk1 ⊕ Bk2 ⊕ Bk3 ⊕ …. ) + λkI,

was eine direkte Summe von Jordan-Blöcken ist. Daher

(Q1 -1 ⊕ Q2 -1 ⊕ …. ⊕ Qm -1) Q -1AQ (Q1 ⊕ Q2 ⊕… ⊕ Qm)

hat das erforderliche Formular. ?

Die direkte Summe der Jordanblöcke wird als Jordan kanonische Form oder Jordan Normalform einer Matrix bezeichnet. Es kann gezeigt werden, dass die jordanische kanonische Form einer Matrix einzigartig ist, mit Ausnahme der Reihenfolge der Blöcke. Darüber hinaus ist es im Wesentlichen das gleiche für ähnliche Matrizen, so dass es als eine Eigenschaft der zugehörigen linearen Transformation angesehen werden kann.

Die Grundlage, die zur jordanischen Kanonisierung führt, ist nicht eindeutig, auch wenn Umlagerungen der Basisvektoren erlaubt sind. Zum Beispiel ist eine Identitätsmatrix eine eigene jordanische kanonische Form, unabhängig von der verwendeten Basis.

Zur Akkuschrauber Homepage


Ähnliche Beiträge