Matrix (Mathematik)






Schema für eine allgemeine n{displaystyle mtimes n}-Matrix




Bezeichnungen


In der Mathematik versteht man unter einer Matrix (Plural Matrizen) eine rechteckige Anordnung (Tabelle) von Elementen (meist mathematischer Objekte, etwa Zahlen). Mit diesen Objekten lässt sich dann in bestimmter Weise rechnen, indem man Matrizen addiert oder miteinander multipliziert.


Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Mathematik auf. Sie stellen Zusammenhänge, in denen Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. Sie werden insbesondere dazu benutzt, lineare Abbildungen darzustellen und lineare Gleichungssysteme zu beschreiben und zu lösen.


Die Bezeichnung Matrix wurde 1850 von James Joseph Sylvester eingeführt.


Eine Anordnung, wie in nebenstehender Abbildung, von m⋅n{displaystyle mcdot n} Elementen aij{displaystyle a_{ij},} erfolgt in m{displaystyle m} Zeilen und n{displaystyle n} Spalten.


Die Verallgemeinerung auf mehr als zwei Indizes wird auch Hypermatrix genannt.[1]




Inhaltsverzeichnis






  • 1 Begriffe und erste Eigenschaften


    • 1.1 Notation


    • 1.2 Elemente der Matrix


    • 1.3 Typ


    • 1.4 Formale Darstellung




  • 2 Addition und Multiplikation


    • 2.1 Matrizenaddition


    • 2.2 Skalarmultiplikation


    • 2.3 Matrizenmultiplikation




  • 3 Weitere Rechenoperationen


    • 3.1 Transponierte Matrix


    • 3.2 Inverse Matrix


    • 3.3 Vektor-Vektor-Produkte




  • 4 Vektorräume von Matrizen


  • 5 Anwendungen


    • 5.1 Zusammenhang mit linearen Abbildungen


    • 5.2 Umformen von Matrizengleichungen




  • 6 Spezielle Matrizen


    • 6.1 Eigenschaften von Endomorphismen


    • 6.2 Eigenschaften von Bilinearformen


    • 6.3 Weitere Konstruktionen




  • 7 Unendlichdimensionale Räume


  • 8 Literatur


  • 9 Weblinks


  • 10 Belege





Begriffe und erste Eigenschaften |



Notation |


Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen zwei großen öffnenden und schließenden Klammern durchgesetzt. In der Regel verwendet man runde Klammern, es werden aber auch eckige verwendet. Zum Beispiel bezeichnen



(a11a12a13a21a22a23){displaystyle {begin{pmatrix}a_{11}&a_{12}&a_{13}\a_{21}&a_{22}&a_{23}end{pmatrix}}} und [a11a12a13a21a22a23]{displaystyle {begin{bmatrix}a_{11}&a_{12}&a_{13}\a_{21}&a_{22}&a_{23}end{bmatrix}}}

Matrizen mit zwei Zeilen und drei Spalten. Matrizen werden üblicherweise mit Großbuchstaben (manchmal fett gedruckt oder, handschriftlich, einfach oder doppelt unterstrichen), vorzugsweise A{displaystyle A}, bezeichnet. Eine Matrix mit m{displaystyle m} Zeilen und n{displaystyle n} Spalten:



A=A=A_=(a11a12⋯a1na21a22⋯a2n⋮am1am2⋯amn)=(aij){displaystyle A={boldsymbol {A}}={underline {A}}={begin{pmatrix}a_{11}&a_{12}&cdots &a_{1n}\a_{21}&a_{22}&cdots &a_{2n}\vdots &vdots &&vdots \a_{m1}&a_{m2}&cdots &a_{mn}\end{pmatrix}}=(a_{ij})}.


Elemente der Matrix |


Die Elemente der Matrix nennt man auch Einträge oder Komponenten der Matrix. Sie entstammen einer Menge K,{displaystyle K,} in der Regel einem Körper oder einem Ring. Man spricht von einer Matrix über K{displaystyle K}. Wählt man für K{displaystyle K} die Menge der reellen Zahlen, so spricht man von einer reellen Matrix, bei komplexen Zahlen von einer komplexen Matrix.


Ein bestimmtes Element beschreibt man durch zwei Indizes, meist ist das Element in der ersten Zeile und der ersten Spalte durch a11{displaystyle a_{11}} beschrieben. Allgemein bezeichnet aij{displaystyle a_{ij}} das Element in der i{displaystyle i}-ten Zeile und der j{displaystyle j}-ten Spalte. Bei der Indizierung wird dabei stets als erstes der Zeilenindex und als zweites der Spaltenindex des Elements genannt. Merkregel: Zeile zuerst, Spalte später.
Wenn Verwechslungsgefahr besteht, werden die beiden Indizes mit einem Komma abgetrennt. So wird zum Beispiel das Matrixelement in der ersten Zeile und der elften Spalte mit a1,11{displaystyle a_{1,11}} bezeichnet.


Einzelne Zeilen und Spalten werden oft als Spalten- oder Zeilenvektoren bezeichnet. Ein Beispiel:



A=(a11a12a21a22),{displaystyle A={begin{pmatrix}a_{11}&a_{12}\a_{21}&a_{22}end{pmatrix}},} hier sind (a11a21){displaystyle {begin{pmatrix}a_{11}\a_{21}end{pmatrix}}} und (a12a22){displaystyle {begin{pmatrix}a_{12}\a_{22}end{pmatrix}}} die Spalten oder Spaltenvektoren sowie (a11a12){displaystyle {begin{pmatrix}a_{11}&a_{12}end{pmatrix}}} und (a21a22){displaystyle {begin{pmatrix}a_{21}&a_{22}end{pmatrix}}} die Zeilen oder Zeilenvektoren.

Bei einzeln stehenden Zeilen- und Spaltenvektoren einer Matrix wird gelegentlich der unveränderliche Index weggelassen. Manchmal werden Spaltenvektoren zur kompakteren Darstellung als transponierte Zeilenvektoren geschrieben, also:



(a11a21){displaystyle {begin{pmatrix}a_{11}\a_{21}end{pmatrix}}} oder (a1a2){displaystyle {begin{pmatrix}a_{1}\a_{2}end{pmatrix}}} als (a11a21)T{displaystyle {begin{pmatrix}a_{11}&a_{21}end{pmatrix}}^{T}} oder (a1a2)T{displaystyle {begin{pmatrix}a_{1}&a_{2}end{pmatrix}}^{T}}


Typ |


Der Typ einer Matrix ergibt sich aus der Anzahl ihrer Zeilen und Spalten. Eine Matrix mit m{displaystyle m} Zeilen und n{displaystyle n} Spalten nennt man eine n{displaystyle mtimes n}-Matrix (sprich: m-mal-n- oder m-Kreuz-n-Matrix). Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von einer quadratischen Matrix.


Eine Matrix, die aus nur einer Spalte oder nur einer Zeile besteht, wird üblicherweise als Vektor aufgefasst. Einen Vektor mit n{displaystyle n} Elementen kann man je nach Kontext als einspaltige 1{displaystyle ntimes 1}-Matrix oder einzeilige n{displaystyle 1times n}-Matrix darstellen. Neben den Begriffen Spaltenvektor und Zeilenvektor sind hierfür auch die Begriffe Spaltenmatrix und Zeilenmatrix geläufig. Eine 1{displaystyle 1times 1}-Matrix ist sowohl Spalten- als auch Zeilenmatrix und wird als Skalar angesehen.



Formale Darstellung |


Eine Matrix ist eine doppelt indizierte Familie. Formal ist dies eine Funktion


A:{1,…,m}×{1,…,n}→K,(i,j)↦aij,{displaystyle Acolon {1,dotsc ,m}times {1,dotsc ,n}to K,quad (i,j)mapsto a_{ij},}

die jedem Indexpaar (i,j){displaystyle (i,j)} als Funktionswert den Eintrag aij{displaystyle a_{ij}} zuordnet. Beispielsweise wird dem Indexpaar (1,2){displaystyle (1,2)} als Funktionswert der Eintrag a12{displaystyle a_{12}} zugeordnet. Der Funktionswert aij{displaystyle a_{ij}} ist also der Eintrag in der i{displaystyle i}-ten Zeile und der j{displaystyle j}-ten Spalte. Die Variablen m{displaystyle m} und n{displaystyle n} entsprechen der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix als Funktion ist, dass Matrizen selbst lineare Abbildungen beschreiben.


Die Menge Abb⁡({1,…,m}×{1,…,n},K){displaystyle operatorname {Abb} left({1,dotsc ,m}times {1,dotsc ,n},Kright)} aller n{displaystyle mtimes n}-Matrizen über der Menge K{displaystyle K} wird in üblicher mathematischer Notation auch K{1,…,m}×{1,…,n}{displaystyle K^{{1,dotsc ,m}times {1,dotsc ,n}}} geschrieben; hierfür hat sich die Kurznotation Km×n{displaystyle K^{mtimes n}} eingebürgert. Manchmal werden auch die Schreibweisen Km,n,{displaystyle K^{m,n},} M(m×n,K){displaystyle M(mtimes n,K)} oder seltener mKn{displaystyle {}^{m}K^{n}} benutzt.



Addition und Multiplikation |


Auf dem Raum der Matrizen werden elementare Rechenoperationen definiert.



Matrizenaddition |



Zwei Matrizen können addiert werden, wenn sie vom selben Typ sind, das heißt, wenn sie dieselbe Anzahl von Zeilen und dieselbe Anzahl von Spalten besitzen.
Die Summe zweier n{displaystyle mtimes n}-Matrizen ist komponentenweise definiert:


A+B:=(aij+bij)i=1,…,m; j=1,…,n{displaystyle A+B:=(a_{ij}+b_{ij})_{i=1,dotsc ,m; j=1,dotsc ,n}}

Rechenbeispiel:


(1−32127)+(03521−1)=(1+0−3+32+51+22+17+(−1))=(107336){displaystyle {begin{pmatrix}1&-3&2\1&2&7end{pmatrix}}+{begin{pmatrix}0&3&5\2&1&-1end{pmatrix}}={begin{pmatrix}1+0&-3+3&2+5\1+2&2+1&7+(-1)end{pmatrix}}={begin{pmatrix}1&0&7\3&3&6end{pmatrix}}}

In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie z. B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.



Skalarmultiplikation |



Eine Matrix wird mit einem Skalar multipliziert, indem jeder Eintrag der Matrix mit dem Skalar multipliziert wird:


λA:=(λaij)i=1,…,m; j=1,…,n{displaystyle lambda cdot A:=(lambda cdot a_{ij})_{i=1,dotsc ,m; j=1,dotsc ,n}}

Rechenbeispiel:


5⋅(1−32127)=(5⋅15⋅(−3)5⋅25⋅15⋅25⋅7)=(5−151051035){displaystyle 5cdot {begin{pmatrix}1&-3&2\1&2&7end{pmatrix}}={begin{pmatrix}5cdot 1&5cdot (-3)&5cdot 2\5cdot 1&5cdot 2&5cdot 7end{pmatrix}}={begin{pmatrix}5&-15&10\5&10&35end{pmatrix}}}

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden.
Um die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar λ{displaystyle lambda } (Lambda) und die Einträge der Matrix demselben Ring (K,+,⋅,0){displaystyle (K,+,cdot ,0)} entstammen. Die Menge der n{displaystyle mtimes n}-Matrizen ist in diesem Fall ein (Links-) Modul über K.{displaystyle K.}



Matrizenmultiplikation |



Zwei Matrizen können multipliziert werden, wenn die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmt.
Das Produkt einer m{displaystyle ltimes m}-Matrix A=(aij)i=1,…,l,j=1,…,m{displaystyle A=(a_{ij})_{i=1,dotsc ,l,;j=1,dotsc ,m}} und einer n{displaystyle mtimes n}-Matrix B=(bij)i=1,…,m,j=1,…,n{displaystyle B=(b_{ij})_{i=1,dotsc ,m,;j=1,dotsc ,n}} ist eine n{displaystyle ltimes n}-Matrix C=(cij)i=1,…,l,j=1,…,n,{displaystyle C=(c_{ij})_{i=1,dotsc ,l,;j=1,dotsc ,n},} deren Einträge berechnet werden, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:


cij=∑k=1maik⋅bkj{displaystyle c_{ij}=sum _{k=1}^{m}a_{ik}cdot b_{kj}}

Die Matrizenmultiplikation ist nicht kommutativ, d. h., im Allgemeinen gilt B⋅A≠A⋅B{displaystyle Bcdot Aneq Acdot B}. Die Matrizenmultiplikation ist allerdings assoziativ, d. h. es gilt stets:


(A⋅B)⋅C=A⋅(B⋅C){displaystyle (Acdot B)cdot C=Acdot (Bcdot C)}

Eine Kette von Matrix-Multiplikationen kann daher unterschiedlich geklammert werden. Das Problem, eine Klammerung zu finden, die zu einer Berechnung mit der minimalen Anzahl von elementaren arithmetischen Operationen führt, ist ein Optimierungsproblem. Die Matrizenaddition und Matrizenmultiplikation genügen zudem den beiden Distributivgesetzen:


(A+B)⋅C=A⋅C+B⋅C{displaystyle (A+B)cdot C=Acdot C+Bcdot C}

für alle m{displaystyle ltimes m}-Matrizen A,B{displaystyle A,B} und n{displaystyle mtimes n}-Matrizen C{displaystyle C} sowie


A⋅(B+C)=A⋅B+A⋅C{displaystyle Acdot (B+C)=Acdot B+Acdot C}

für alle m{displaystyle ltimes m}-Matrizen A{displaystyle A} und n{displaystyle mtimes n}-Matrizen B,C.{displaystyle B,C.}


Quadratische Matrizen A∈Kn×n{displaystyle Ain K^{ntimes n}} können mit sich selbst multipliziert werden, analog zur Potenz bei den reellen Zahlen führt man abkürzend die Matrixpotenz A2=A⋅A{displaystyle A^{2}=Acdot A} oder A3=A⋅A⋅A{displaystyle A^{3}=Acdot Acdot A} etc. ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynome einzusetzen. Zu weitergehenden Ausführungen hierzu siehe unter Charakteristisches Polynom. Zur einfacheren Berechnung kann hier die jordansche Normalform verwendet werden. Quadratische Matrizen über R{displaystyle mathbb {R} } oder C{displaystyle mathbb {C} } kann man darüber hinaus sogar in Potenzreihen einsetzen, vgl. Matrixexponential. Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring R{displaystyle R}, also Rn×n{displaystyle R^{ntimes n}}. Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring, der Matrizenring genannt wird.



Weitere Rechenoperationen |



Transponierte Matrix |





Animation zur Transponierung der Matrix A


Die Transponierte einer n{displaystyle mtimes n}-Matrix A=(aij){displaystyle A=left(a_{ij}right)} ist die m{displaystyle ntimes m}-Matrix AT=(aji){displaystyle A^{T}=left(a_{ji}right)}, das heißt, zu


A=(a11…a1n⋮am1…amn){displaystyle A={begin{pmatrix}a_{11}&dots &a_{1n}\vdots &&vdots \a_{m1}&dots &a_{mn}end{pmatrix}}}

ist


AT=(a11…am1⋮a1n…amn){displaystyle A^{T}={begin{pmatrix}a_{11}&dots &a_{m1}\vdots &&vdots \a_{1n}&dots &a_{mn}end{pmatrix}}}

die Transponierte. Man schreibt also die erste Zeile als erste Spalte, die zweite Zeile als zweite Spalte usw. Die Matrix wird an ihrer Hauptdiagonalen a11,a22,…{displaystyle a_{11},a_{22},dotsc } gespiegelt. Es gelten die folgenden Rechenregeln:


(A+B)T=AT+BT(c⋅A)T=c⋅AT(AT)T=A(A⋅B)T=BT⋅AT(A−1)T=(AT)−1{displaystyle {begin{aligned}(A+B)^{T}&=A^{T}+B^{T}\(ccdot A)^{T}&=ccdot A^{T}\left(A^{T}right)^{T}&=A\(Acdot B)^{T}&=B^{T}cdot A^{T}\left(A^{-1}right)^{T}&=left(A^{T}right)^{-1}end{aligned}}}

Bei Matrizen über R{displaystyle mathbb {R} } ist die adjungierte Matrix genau die transponierte Matrix.



Inverse Matrix |



Falls die Determinante einer quadratischen n{displaystyle ntimes n}-Matrix A{displaystyle A} über einem Körper K{displaystyle K} nicht gleich null ist, d. h., falls det(A)≠0{displaystyle det(A)neq 0}, so existiert die zur Matrix A{displaystyle A} inverse Matrix A−1{displaystyle A^{-1}}. Für diese gilt



AA−1=A−1A=E{displaystyle AA^{-1}=A^{-1}A=E},

wobei E{displaystyle E} die n{displaystyle ntimes n}-Einheitsmatrix ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder reguläre Matrizen. Diese haben vollen Rang. Umgekehrt werden nichtinvertierbare Matrizen als singuläre Matrizen bezeichnet. Eine Verallgemeinerung der Inversen für singuläre Matrizen sind sog. pseudoinverse Matrizen.



Vektor-Vektor-Produkte |


Das Matrixprodukt v⋅w{displaystyle vcdot w} zweier 1{displaystyle ntimes 1}-Vektoren v{displaystyle v} und w{displaystyle w} ist nicht definiert, da die Anzahl 1{displaystyle 1} der Spalten von v{displaystyle v} im Allgemeinen ungleich der Anzahl n{displaystyle n} der Zeilen von w{displaystyle w} ist. Die beiden Produkte vT⋅w{displaystyle v^{T}cdot w} und v⋅wT{displaystyle vcdot w^{T}} existieren jedoch.


Das erste Produkt vT⋅w{displaystyle v^{T}cdot w} ist eine 1{displaystyle 1times 1}-Matrix, die als Zahl interpretiert wird; sie wird das Standardskalarprodukt von v{displaystyle v} und w{displaystyle w} genannt und mit v,w⟩{displaystyle langle v,wrangle } oder v→w→{displaystyle {vec {v}}cdot {vec {w}}} bezeichnet. Geometrisch entspricht dieses Skalarprodukt in einem kartesischen Koordinatensystem dem Produkt


v→w→=|v→|⋅|w→|⋅cos⁡(v→,w→){displaystyle {vec {v}}cdot {vec {w}}=|{vec {v}}|cdot |{vec {w}}|cdot cos sphericalangle ({vec {v}},{vec {w}})}

der Beträge der beiden Vektoren und des Kosinus des von den beiden Vektoren eingeschlossenen Winkels. Beispielsweise gilt


(123)T⋅(−2−11)=(123)⋅(−2−11)=1⋅(−2)+2⋅(−1)+3⋅1=−1{displaystyle {begin{pmatrix}1\2\3end{pmatrix}}^{T}cdot {begin{pmatrix}-2\-1\1end{pmatrix}}={begin{pmatrix}1&2&3end{pmatrix}}cdot {begin{pmatrix}-2\-1\1end{pmatrix}}=1cdot (-2)+2cdot (-1)+3cdot 1=-1}

Das zweite Produkt v⋅wT{displaystyle vcdot w^{T}} ist eine n{displaystyle ntimes n}-Matrix und heißt dyadisches Produkt oder Tensorprodukt von v{displaystyle v} und w{displaystyle w} (geschrieben v⊗w{displaystyle votimes w}). Seine Spalten sind skalare Vielfache von v{displaystyle v}, seine Zeilen skalare Vielfache von wT{displaystyle w^{T}}. Beispielsweise gilt


(123)⋅(−2−11)T=(123)⋅(−2−11)=(1⋅(−2)1⋅(−1)1⋅12⋅(−2)2⋅(−1)2⋅13⋅(−2)3⋅(−1)3⋅1)=(−2−11−4−22−6−33){displaystyle {begin{pmatrix}1\2\3end{pmatrix}}cdot {begin{pmatrix}-2\-1\1end{pmatrix}}^{T}={begin{pmatrix}1\2\3end{pmatrix}}cdot {begin{pmatrix}-2&-1&1end{pmatrix}}={begin{pmatrix}1cdot (-2)&1cdot (-1)&1cdot 1\2cdot (-2)&2cdot (-1)&2cdot 1\3cdot (-2)&3cdot (-1)&3cdot 1end{pmatrix}}={begin{pmatrix}-2&-1&1\-4&-2&2\-6&-3&3end{pmatrix}}}


Vektorräume von Matrizen |



Die Menge der n{displaystyle mtimes n}-Matrizen über einem Körper K{displaystyle K} bildet mit der Matrizenaddition und der Skalarmultiplikation einen K{displaystyle K}-Vektorraum. Dieser Vektorraum Km×n{displaystyle K^{mtimes n}} hat die Dimension m⋅n{displaystyle mcdot n}. Eine Basis von Km×n{displaystyle K^{mtimes n}} ist gegeben durch die Menge der Standardmatrizen Eij{displaystyle E_{ij}} mit i∈{1,…,m}{displaystyle iin {1,dotsc ,m}}, j∈{1,…,n}{displaystyle jin {1,dotsc ,n}}. Diese Basis wird manchmal auch als Standardbasis von Km×n{displaystyle K^{mtimes n}} bezeichnet.


Die Spur des Matrixprodukts AT⋅B{displaystyle A^{T}cdot B}


⟨A,B⟩=spur⁡(ATB)=∑i=1n∑j=1maijbij{displaystyle leftlangle A,Brightrangle =operatorname {spur} (A^{T}B)=sum _{i=1}^{n}sum _{j=1}^{m}a_{ij}b_{ij}}

ist dann im Spezialfall K=R{displaystyle K=mathbb {R} } ein reelles Skalarprodukt. In diesem euklidischen Vektorraum stehen die symmetrischen Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist A{displaystyle A} eine symmetrische und B{displaystyle B} eine schiefsymmetrische Matrix, so gilt ⟨A,B⟩=0{displaystyle {begin{matrix}leftlangle A,Brightrangle =0end{matrix}}}.


Im Spezialfall K=C{displaystyle K=mathbb {C} } ist die Spur des Matrixproduktes AT¯B{displaystyle {overline {A^{T}}}cdot B}


⟨A,B⟩=spur⁡(AT¯B)=∑i=1n∑j=1maij¯bij{displaystyle leftlangle A,Brightrangle =operatorname {spur} ({overline {A^{T}}}B)=sum _{i=1}^{n}sum _{j=1}^{m}{overline {a_{ij}}}b_{ij}}

ein komplexes Skalarprodukt und der Matrizenraum wird zu einem unitären Vektorraum. Dieses Skalarprodukt wird auch Frobenius-Skalarprodukt genannt. Die von dem Frobenius-Skalarprodukt induzierte Norm heißt Frobeniusnorm und mit ihr wird der Matrizenraum zu einem Banachraum.



Anwendungen |



Zusammenhang mit linearen Abbildungen |


Das Besondere an Matrizen über einem Ring K{displaystyle K} ist der Zusammenhang zu linearen Abbildungen. Zu jeder Matrix A∈Km×n{displaystyle Ain K^{mtimes n}} lässt sich eine lineare Abbildung mit Definitionsbereich Kn{displaystyle K^{n}} (Menge der Spaltenvektoren) und Wertebereich Km{displaystyle K^{m}} definieren, indem man jeden Spaltenvektor u∈Kn{displaystyle uin K^{n}} auf A⋅u∈Km{displaystyle Acdot uin K^{m}} abbildet. Umgekehrt entspricht jeder linearen Abbildung f:Kn→Km{displaystyle fcolon K^{n}to K^{m}} auf diese Weise genau eine n{displaystyle mtimes n}-Matrix A{displaystyle A}; dabei sind die Spalten von A{displaystyle A} die Bilder der Standard-Basisvektoren e1,…,en{displaystyle e_{1},dotsc ,e_{n}} von Kn{displaystyle K^{n}} unter f{displaystyle f}. Diesen Zusammenhang zwischen linearen Abbildungen und Matrizen bezeichnet man auch als (kanonischen) Isomorphismus


HomK⁡(Kn,Km)≃Km×n.{displaystyle operatorname {Hom} _{K}(K^{n},K^{m})simeq K^{mtimes n}.}

Er stellt bei vorgegebenem K,{displaystyle K,} m{displaystyle m} und n{displaystyle n} eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrixprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies dann auch für die Matrixmultiplikation, diese ist also assoziativ.


Ist K{displaystyle K} sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale K{displaystyle K}-Vektorräume V{displaystyle V} und W{displaystyle W} (der Dimension n{displaystyle n} bzw. m{displaystyle m}) betrachten. (Falls K{displaystyle K} ein kommutativer Ring mit 1 ist, dann kann man analog freie K-Moduln betrachten.) Diese sind nach Wahl von Basen v=(v1,…,vn){displaystyle v=(v_{1},dotsc ,v_{n})} von V{displaystyle V} und w=(w1,…,wm){displaystyle w=(w_{1},dotsc ,w_{m})} von W{displaystyle W} zu den Koordinatenräumen Kn{displaystyle K^{n}} bzw. Km{displaystyle K^{m}} isomorph, weil zu einem beliebigen Vektor u∈V{displaystyle uin V} eine eindeutige Zerlegung in Basisvektoren


u=∑j=1nαjvj{displaystyle u=sum _{j=1}^{n}alpha _{j}v_{j}}

existiert und die darin vorkommenden Körperelemente αj{displaystyle alpha _{j}} den Koordinatenvektor


vu=(α1⋮αn)∈Kn{displaystyle {}_{v}u={begin{pmatrix}alpha _{1}\vdots \alpha _{n}end{pmatrix}}in K^{n}}

bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis v{displaystyle v} ab, die daher auch in der Bezeichnung vu{displaystyle {}_{v}u} vorkommt.


Analog verhält es sich im Vektorraum W.{displaystyle W.} Ist eine lineare Abbildung f:V→W{displaystyle fcolon Vto W} gegeben, so lassen sich die Bilder der Basisvektoren von V{displaystyle V} eindeutig in die Basisvektoren von W{displaystyle W} zerlegen in der Form


f(vj)=∑i=1maijwi{displaystyle f(v_{j})=sum _{i=1}^{m}a_{ij}w_{i}}

mit Koordinatenvektor


wf(vj)=(a1j⋮amj)∈Km.{displaystyle {}_{w}f(v_{j})={begin{pmatrix}a_{1j}\vdots \a_{mj}end{pmatrix}}in K^{m}.}

Die Abbildung ist dann vollständig festgelegt durch die sog. Abbildungsmatrix


wfv=(a11…a1n⋮am1…amn)∈Km×n,{displaystyle {}_{w}f_{v}={begin{pmatrix}a_{11}&ldots &a_{1n}\vdots &&vdots \a_{m1}&ldots &a_{mn}end{pmatrix}}in K^{mtimes n},}

denn für das Bild des o. g. Vektors u{displaystyle u} gilt


f(u)=∑i=1m∑j=1naijαjwi,{displaystyle f(u)=sum _{i=1}^{m}sum _{j=1}^{n}a_{ij}alpha _{j}w_{i},}

also wf(u)=wfv⋅vu{displaystyle {}_{w}f(u)={}_{w}f_{v}cdot {}_{v}u} („Koordinatenvektor = Matrix mal Koordinatenvektor“). (Die Matrix wfv{displaystyle {}_{w}f_{v}} hängt von den verwendeten Basen v{displaystyle v} und w{displaystyle w} ab; bei der Multiplikation wird die Basis v{displaystyle v}, die links und rechts vom Malpunkt steht, „weggekürzt“, und die „außen“ stehende Basis w{displaystyle w} bleibt übrig.)


Die Hintereinanderausführung zweier linearer Abbildungen f:V→W{displaystyle fcolon Vto W} und g:W→X{displaystyle gcolon Wto X} (mit Basen v{displaystyle v}, w{displaystyle w} bzw. x{displaystyle x}) entspricht dabei der Matrixmultiplikation, also


x(g∘f)v=xgw⋅wfv{displaystyle {}_{x}(gcirc f)_{v}={}_{x}g_{w}cdot {}_{w}f_{v}}

(auch hier wird die Basis w{displaystyle w} „weggekürzt“).


Somit ist die Menge der linearen Abbildungen von V{displaystyle V} nach W{displaystyle W} wieder isomorph zu Km×n.{displaystyle K^{mtimes n}.} Der Isomorphismus f↦wfv{displaystyle fmapsto {}_{w}f_{v}} hängt aber von den gewählten Basen v{displaystyle v} und w{displaystyle w} ab und ist daher nicht kanonisch:
Bei Wahl einer anderen Basis v′{displaystyle v'} für V{displaystyle V} bzw. w′{displaystyle w'} für W{displaystyle W} wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren m{displaystyle mtimes m}- bzw. n{displaystyle ntimes n}-Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich


w′fv′=w′ewW⋅wfv⋅vev′V{displaystyle {}_{w'}f_{v'}={}_{w'}e_{w}^{W}cdot {}_{w}f_{v}cdot {}_{v}e_{v'}^{V}}

(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die Identitätsabbildungen eV{displaystyle e^{V}} und eW{displaystyle e^{W}} jeden Vektor aus V{displaystyle V} bzw. W{displaystyle W} auf sich selbst ab.


Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.


Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls K{displaystyle K} ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall V=W{displaystyle V=W} entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:


v′fv′=(vev′V)−1⋅vfv⋅vev′V{displaystyle {}_{v'}f_{v'}=({}_{v}e_{v'}^{V})^{-1}cdot {}_{v}f_{v}cdot {}_{v}e_{v'}^{V}}

In diesem Sinne ist also auch die Determinante basisunabhängig.



Umformen von Matrizengleichungen |


Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.


Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.


Beispiel: Lineares Gleichungssystem als einfache Umformung


Gesucht ist der Lösungsvektor x{displaystyle x} eines linearen Gleichungssystems


A⋅x=b{displaystyle Acdot x=b}

mit A{displaystyle A} als n{displaystyle ntimes n}-Koeffizientenmatrix. Wenn die inverse Matrix A−1{displaystyle A^{-1}} existiert, kann man mit ihr von links multiplizieren:


A−1⋅A⋅x=A−1⋅b⇔E⋅x=A−1⋅b{displaystyle A^{-1}cdot Acdot x=A^{-1}cdot bLeftrightarrow Ecdot x=A^{-1}cdot b}

und man erhält als Lösung


x=A−1⋅b.{displaystyle x=A^{-1}cdot b.}


Spezielle Matrizen |



Eigenschaften von Endomorphismen |


Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden.



Orthogonale Matrizen

Eine reelle Matrix A{displaystyle A} ist orthogonal, wenn die zugehörige lineare Abbildung das Standardskalarprodukt erhält, das heißt, wenn
Av,Aw⟩=⟨v,w⟩{displaystyle langle Av,Awrangle =langle v,wrangle }


gilt. Diese Bedingung ist äquivalent dazu, dass A{displaystyle A} die Gleichung
A−1=AT{displaystyle A^{-1}=A^{T}}


bzw.
AAT=E{displaystyle A,A^{T}=E}


erfüllt.

Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.



Unitäre Matrizen

Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix A{displaystyle A} ist unitär, wenn die zugehörige Transformation die Normierung erhält, das heißt, wenn
Av,Aw⟩=⟨v,w⟩{displaystyle langle Av,Awrangle =langle v,wrangle }


gilt. Diese Bedingung ist äquivalent dazu, dass A{displaystyle A} die Gleichung
A−1=A∗{displaystyle A^{-1}=A^{*}}


erfüllt; dabei bezeichnet A∗{displaystyle A^{*}} die konjugiert-transponierte Matrix zu A.{displaystyle A.}

Fasst man den n{displaystyle n}-dimensionalen komplexen Vektorraum als 2n{displaystyle 2n}-dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit i{displaystyle mathrm {i} } vertauschen.



Projektionsmatrizen

Eine Matrix ist eine Projektionsmatrix, falls
A=A2{displaystyle A=A^{2}}


gilt, sie also idempotent ist, das heißt, die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix. Steht der Nullraum senkrecht auf dem Bildraum, so erhält man eine Orthogonalprojektion.


Beispiel: Es sei X{displaystyle X} eine (m×n){displaystyle (mtimes n)}-Matrix und damit selbst nicht invertierbar, dann ist die (m×m){displaystyle (mtimes m)}-Matrix
A=X(XTX)−1XT{displaystyle A=X,(X^{T}X)^{-1}X^{T}}


idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.



Nilpotente Matrizen

Eine Matrix N{displaystyle N} heißt nilpotent, falls eine Potenz Nk{displaystyle N^{k}} (und damit auch jede höhere Potenz) die Nullmatrix ergibt.



Eigenschaften von Bilinearformen |


Im Folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform


(v,w)↦vTAw{displaystyle (v,w)mapsto v^{T}Aw}

entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.



Symmetrische Matrizen

Eine Matrix A{displaystyle A} heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
AT=A{displaystyle A^{T}=A}


Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen.

Beispiel:
(123245356)T=(123245356){displaystyle {begin{pmatrix}1&2&3\2&4&5\3&5&6end{pmatrix}}^{T}={begin{pmatrix}1&2&3\2&4&5\3&5&6end{pmatrix}}}


Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
vTAw=wTAv,{displaystyle v^{T}Aw=w^{T}Av,}


andererseits den selbstadjungierten linearen Abbildungen:
Av,w⟩=⟨v,Aw⟩{displaystyle langle Av,wrangle =langle v,Awrangle }




Hermitesche Matrizen

Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen.

Eine Matrix A∈Cn×n{displaystyle Ain mathbb {C} ^{ntimes n}} ist hermitesch oder selbstadjungiert, wenn gilt:
A=A∗{displaystyle A=A^{*}}




Schiefsymmetrische Matrizen


Eine Matrix A{displaystyle A} heißt schiefsymmetrisch oder auch antisymmetrisch, wenn gilt:
AT=A{displaystyle -A^{T}=A}


Um diese Bedingung zu erfüllen, müssen alle Einträge der Hauptdiagonale den Wert Null haben; die restlichen Werte werden an der Hauptdiagonale gespiegelt und mit 1{displaystyle -1} multipliziert.

Beispiel:
(012−103−2−30){displaystyle {begin{pmatrix}0&1&2\-1&0&3\-2&-3&0end{pmatrix}}}


Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
vT⋅A⋅w=−wT⋅A⋅v{displaystyle v^{T}cdot Acdot w=-w^{T}cdot Acdot v}


und antiselbstadjungierten Endomorphismen:
Av,w⟩=−v,Aw⟩{displaystyle langle Av,wrangle =-langle v,Awrangle }




Positiv definite Matrizen

Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, das heißt, wenn für alle Vektoren v≠0{displaystyle vneq 0} gilt:
vT⋅A⋅v>0{displaystyle v^{T}cdot Acdot v>0}


Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Hat die Bilinearform keine negativen Werte, heißt die Matrix positiv semidefinit. Analog kann eine Matrix negativ definit beziehungsweise negativ semidefinit heißen, wenn die obige Bilinearform nur negative beziehungsweise keine positiven Werte hat. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.



Weitere Konstruktionen |




Konjugierte und adjungierte Matrix



Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix A{displaystyle A} wird mit A∗{displaystyle A^{*}} bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden.




Adjunkte oder komplementäre Matrix



Die komplementäre Matrix adj⁡(A){displaystyle operatorname {adj} (A)} einer quadratischen Matrix A{displaystyle A} setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten det(Aij){displaystyle det(A_{ij})} werden die i{displaystyle i}-te Zeile und j{displaystyle j}-te Spalte von A{displaystyle A} gestrichen. Aus der resultierenden (n−1)×(n−1){displaystyle (n-1)times (n-1)}-Matrix wird dann die Determinante det(Aij){displaystyle det(A_{ij})} berechnet. Die komplementäre Matrix hat dann die Einträge (−1)i+jdet(Aji).{displaystyle (-1)^{i+j}det(A_{ji}).} Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.



Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix A{displaystyle A}, denn nach dem Laplaceschen Entwicklungssatz gilt:
adj⁡(A)⋅A=A⋅adj⁡(A)=det(A)⋅En{displaystyle operatorname {adj} (A)cdot A=Acdot operatorname {adj} (A)=det(A)cdot E_{n}}


Damit ist die Inverse A−1=1det(A)⋅adj⁡(A),{displaystyle A^{-1}={frac {1}{det(A)}}cdot operatorname {adj} (A),} wenn det(A)≠0.{displaystyle det(A)neq 0.}



Übergangs- oder stochastische Matrizen



Eine Übergangs- oder stochastische Matrix ist eine Matrix, deren Einträge alle zwischen 0 und 1 liegen und deren Zeilen bzw. Spaltensummen 1 ergeben. Sie dienen in der Stochastik zur Charakterisierung zeitlich diskreter Markow-Ketten mit endlichem Zustandsraum. Ein Spezialfall hiervon sind die doppelt-stochastischen Matrizen.



Unendlichdimensionale Räume |


Auch für unendlichdimensionale Vektorräume (sogar über Schiefkörpern) gilt, dass jede lineare Abbildung f:U→V{displaystyle fcolon Uto V} eindeutig durch die Bilder f(u){displaystyle f(u)} der Elemente u{displaystyle u} einer Basis BU⊂U{displaystyle {mathcal {B}}_{U}subset U} bestimmt ist und diese beliebig gewählt werden und zu einer linearen Abbildung auf ganz U{displaystyle U} fortgesetzt werden können. Ist nun BV{displaystyle {mathcal {B}}_{V}} eine Basis von V{displaystyle V}, so lässt sich f(u){displaystyle f(u)} eindeutig als (endliche) Linearkombination von Basisvektoren schreiben, d. h., es existieren eindeutige Koeffizienten f(u)b∈K{displaystyle f(u)_{b}in K} für b∈BV{displaystyle bin {mathcal {B}}_{V}}, von denen nur endlich viele von null verschieden sind, sodass f(u)=∑b∈BVf(u)bb{displaystyle f(u)=sum _{bin {mathcal {B}}_{V}}f(u)_{b}b}. Dementsprechend lässt sich jede lineare Abbildung als möglicherweise unendliche Matrix auffassen, wobei jedoch in jeder Spalte (BU{displaystyle {mathcal {B}}_{U}} „nummeriere“ die Spalten und die Spalte zu u{displaystyle u} bestehe dann aus den von den Elementen von BV{displaystyle {mathcal {B}}_{V}} nummerierten Koordinaten f(u)b{displaystyle f(u)_{b}}) nur endlich viele Einträge von null verschieden sind, und umgekehrt. Die entsprechend definierte Matrixmultiplikation entspricht wiederum der Komposition linearer Abbildungen.


In der Funktionalanalysis betrachtet man topologische Vektorräume, d. h. Vektorräume, auf denen man von Konvergenz sprechen und dementsprechend auch unendliche Summen bilden kann. Auf solchen können auch Matrizen mit unendlich vielen von null verschiedenen Einträgen in einer Spalte unter Umständen als lineare Abbildungen verstanden werden, wobei auch andere Basis-Begriffe zugrunde liegen.


Einen speziellen Fall bilden Hilberträume. Seien also U,V{displaystyle U,V} Hilberträume und (ui)i∈I,(vi)i∈I{displaystyle (u_{i})_{iin I},(v_{i})_{iin I}} Orthonormalbasen von U{displaystyle U} bzw. V{displaystyle V}. Dann erhält man eine Matrixdarstellung eines linearen Operators f:U→V{displaystyle fcolon Uto V} (für lediglich dicht definierte Operatoren funktioniert es ebenso, falls der Definitionsbereich eine Orthonormalbasis besitzt, was im abzählbardimensionalen Fall stets zutrifft), indem man die Matrixelemente fi,k:=⟨ui,fuk⟩{displaystyle f_{i,k}:=langle u_{i},fu_{k}rangle } definiert; dabei ist u,v⟩{displaystyle langle u,vrangle } das Skalarprodukt im betrachteten Hilbertraum (im komplexen Fall semilinear im ersten Argument).


Dieses sogenannte Hilbert-Schmidt-Skalarprodukt lässt sich im unendlichdimensionalen Fall nur noch für eine bestimmte Teilklasse von linearen Operatoren, die sogenannten Hilbert-Schmidt-Operatoren, definieren, bei denen die Reihe, über die dieses Skalarprodukt definiert ist, stets konvergiert.



Literatur |




  • Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13., durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.

  • Günter Gramlich: Lineare Algebra. Fachbuchverlag Leipzig im Carl Hanser Verlag, München u. a. 2003, ISBN 3-446-22122-0.


  • Klaus Jänich: Lineare Algebra. 11. Auflage. Springer, Berlin u. a. 2008, ISBN 978-3-540-75501-2.

  • Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra. Mit Anwendungen in der Statistik. 2., vollständig überarbeitete Auflage. Springer, Berlin u. a. 2006, ISBN 3-540-33007-0.


  • Gilbert Strang: Lineare Algebra. Springer, Berlin u. a. 2003, ISBN 3-540-43949-8.



Weblinks |



 Wiktionary: Matrix – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen


 Commons: Matrix – Sammlung von Bildern, Videos und Audiodateien



  • Matrizen-Rechner – Rechner, der Rechenoperationen für Matrizen mit konkreten Zahlenwerten, aber auch mit Variablen durchführt.


  • The Matrix Cookbook – Eine englischsprachige, umfangreiche Matrix-Formelsammlung (PDF; 522 kB).



Belege |




  1. Eric W. Weisstein: Hypermatrix. In: MathWorld (englisch).









Popular posts from this blog

Liste der Baudenkmale in Friedland (Mecklenburg)

Single-Malt-Whisky

Czorneboh