Matrizen – Definition, Eigenschaften und Anwendungen

Eine Matrix ist ein rechteckiges Schema von Zahlen, das verschiedene mathematische Operationen ermöglicht. Erfahre mehr über Matrizen, ihre Eigenschaften wie Ordnung und Typen, Rechenregeln und Anwendungen wie Flächenberechnung und lineare Gleichungssysteme.

Inhaltsverzeichnis zum Thema Matrizen

Das Quiz zum Thema: Matrizen

Was bezeichnet man als Matrix in der Mathematik?

Frage 1 von 5

Wie nennt man eine Matrix mit der gleichen Anzahl von Zeilen und Spalten?

Frage 2 von 5

Welche Eigenschaft muss erfüllt sein, um zwei Matrizen miteinander multiplizieren zu können?

Frage 3 von 5

Was bedeutet es, wenn eine Matrix symmetrisch ist?

Frage 4 von 5

Wie wird die Transponierte einer Matrix berechnet?

Frage 5 von 5

Matrizen im Überblick

  • Eine Matrix ist ein rechteckiges Schema von Zahlen, das von runden Klammern umschlossen wird, z. B:
    \begin{pmatrix} 0 & 592 & 554 \\ 554 & 0 & 393 \\ 554 & 393 & 0 \end{pmatrix}

  • Die Zahlen in einer Matrix nennt man die Einträge der Matrix.

  • Alle Zahlen, die in einer Matrix jeweils horizontal nebeneinander stehen, bilden eine Zeile der Matrix.

  • Alle Zahlen, die in einer Matrix jeweils vertikal untereinander stehen, bilden eine Spalte der Matrix.

  • Eine \bf{m \times n}Matrix hat m Zeilen und n Spalten. Die folgende Matrix ist eine 2\times 3-Matrix:
    B= \begin{pmatrix} 1 & -4 & 3 \\ 2 & 7 & -1,5 \end{pmatrix}

Matrizen Video Thumbnail

Quelle sofatutor.com

Matrizen – Definition und Eigenschaften

Eine Matrix ist ein rechteckiges Schema von Zahlen, ähnlich wie eine Tabelle, ein magisches Quadrat oder ein ausgefülltes Sudoku. Anders als mit Tabellen kann mit Matrizen in der Mathematik direkt gerechnet werden. Dabei gelten ähnliche Rechenregel wie beim Rechnen mit Zahlen. Matrizen werden zum Beispiel verwendet, um lineare Gleichungssysteme zu lösen, um Vektoren auf lineare Unabhängigkeit zu testen oder um das Volumen eines Parallelotops zu berechnen.

Definition der Matrix

In der Mathematik ist eine Matrix ein rechteckiges Schema von Zahlen, das von runden Klammern umschlossen wird. Die Zahlen in der Matrix nennt man die Einträge der Matrix.
Matrizen benennt man in der Regel durch lateinische Großbuchstaben: A, B, C, …, M, …, S, T usw. Die Einträge der Matrix bezeichnet man mit den zugehörigen Kleinbuchstaben. Hier ist ein Beispiel:

M= \begin{pmatrix} 2 & 1 & 4 & 7 \\ -3 & 8 & 4 & -5 \\ 3 & 2 & 1 & 0 \end{pmatrix}

Alle Zahlen, die in einer Matrix vertikal untereinander stehen, bilden zusammen jeweils eine Spalte der Matrix. Alle Zahlen, die horizontal nebeneinander stehen, bilden jeweils eine Zeile der Matrix.
In unserem Beispiel oben ist
\begin{array} -3 & 8 & 4 & -5 \end{array}
die zweite Zeile der Matrix M und
\begin{array} 4 \\ 4 \\ 1 \end{array}
die dritte Spalte von M.

Die Ordnung einer Matrix gibt an, wie viele Zeilen und Spalten die Matrix hat. Die erste Zahl benennt die Anzahl der Zeilen, die zweite Zahl die Anzahl der Spalten. Die Matrix M in unserem Beispiel hat 3 Zeilen und 4 Spalten, daher ist M eine 3\times 4-Matrix.

Will man die Anzahl der Zeilen und Spalten nicht ausdrücklich festlegen, verwendet man meistens die Variablen m für die Anzahl der Zeilen und n für die Anzahl der Spalten. Eine \bf{m\times n}Matrix hat also m Zeilen und n Spalten.
Um die Einträge in einer Matrix benennen zu können, verwendet man einen Doppelindex (i,j). Die Variablen i und j sind Platzhalter für Zahlen, die die Zeile und die Spalte der Matrix bezeichnen. Der Doppelindex wird als zwei einzelne Zahlen gelesen, geschrieben wird er ohne Kommatrennung. Den Doppelindex 23 lesen wir beispielsweise als „zwei drei“

Die beiden Zahlen des Doppelindex (i,j) geben an, an welcher Stelle in der Matrix der Eintrag steht. Die erste Zahl benennt die Zeile, die zweite Zahl die Spalte: Der Eintrag a_{ij} einer Matrix A steht in der i-ten Zeile und j-ten Spalte.
In unserem Beispiel oben ist also m_{21} = -3, denn in der zweiten Zeile von M steht in der ersten Spalte die Zahl -3.
Beachte, dass es in der Regel nur möglich ist, zu sagen, welche Zahl in der Matrix an der Stelle (i,j) steht, aber nicht umgekehrt, an welcher Stelle (i,j) eine vorgegebene Zahl steht. Denn die Zahlen in der Matrix können mehrfach vorkommen. In unserem Beispiel steht die Zahl 2 sowohl in der ersten Zeile der ersten Spalte als auch in der dritten Zeile der zweiten Spalte. Daher ist m_{11} = 2 = m_{32}.

Typen von Matrizen

Es gibt viele verschiedene Typen von Matrizen. Im Allgemeinen ist die Anzahl der Zeilen einer Matrix ungleich der Anzahl der Spalten.

  • Matrizen, die nur eine Zeile oder Spalte haben, können als Vektoren aufgefasst werden. Dabei ist eine n \times 1-Matrix ein Spaltenvektor, eine 1 \times n-Matrix heißt Zeilenvektor.
  • Matrizen mit der gleichen Anzahl von Zeilen und Spalten nennt man quadratische Matrizen. Zum Beispiel sind 2\times 2-Matrizen und 3\times 3-Matrizen quadratisch, aber 2\times 3-Matrizen und 3 \times 2-Matrizen sind nicht quadratisch.
  • Eine Matrix heißt symmetrisch, wenn ihre Zeilen und Spalten übereinstimmen, d. h., wenn die erste Zeile gleich der ersten Spalte ist, die zweite Zeile gleich der zweiten Spalte usw. Hier ist ein Beispiel und ein Gegenbeispiel:
    Die Matrix\begin{pmatrix} 2 & 3 \\ 3 & -2 \end{pmatrix} ist symmetrisch, die Matrix \begin{pmatrix} 3 & 2 \\ -2 & 3 \end{pmatrix}ist nicht symmetrisch.
  • Eine symmetrische Matrix heißt Diagonalmatrix, wenn alle Einträge mit zwei verschiedenen Indexen null sind. Die Einträge, bei denen beide Zahlen des Doppelindex übereinstimmen, heißen Diagonaleinträge. Bei einer Diagonalmatrix sind also höchstens die Diagonaleinträge von null verschieden. Aber auch Diagonaleinträge dürfen null sein. Hier sind zwei Beispiele und Gegenbeispiele:
    Die Matrizen \begin{pmatrix} 2 & 0 \\ 0 & -2 \end{pmatrix} und \begin{pmatrix} -1 & 0 \\ 0 & 0 \end{pmatrix}
    sind Diagonalmatrizen. Die Matrizen \begin{pmatrix} 2 & 1 \\ 0 & 2 \end{pmatrix} und \begin{pmatrix} 0 & 2 \\ -2 & 0 \end{pmatrix} sind keine Diagonalmatrizen.
  • Ein spezieller Typ von Diagonalmatrizen sind die Einheitsmatrizen. Eine Matrix heißt Einheitsmatrix, wenn für alle Einträge der Form a_{ii} gilt: a_{ii} = 1, und für alle anderen Einträge (also alle Einträge a_{ij} mit i \neq j) gilt: a_{ij}=0. Mit anderen Worten: Eine Einheitsmatrix ist eine Diagonalmatrix, bei der auf der Diagonalen überall 1 steht. Zu jeder natürlichen Zahl n gibt es genau eine Einheitsmatrix der Ordnung n \times n. Im Folgenden siehst du als Beispiel die Einheitsmatrizen der Ordnung 1 \times 1, 2 \times 2 und 3 \times 3:

\begin{pmatrix} 1 \end{pmatrix} \quad \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \quad \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}

Rechnen mit Matrizen

Wir wollen nun die wichtigsten Rechenregeln beim Rechnen mit Matrizen betrachten.

Addition und Skalar-Multiplikation von Matrizen

Zwei Matrizen der gleichen Ordnung kann man addieren. Dabei werden alle Einträge einzeln addiert und das Ergebnis ist wieder eine Matrix der gleichen Ordnung. Diese Addition von Matrizen wird durch ein Beispiel einfach erklärt:
Wir addieren die Matrizen
A= \begin{pmatrix} 1 & 2 \\ -1 & 0 \end{pmatrix} und B= \begin{pmatrix} 3 & 0 \\ 1& -2 \end{pmatrix}

Die Summe ist die Matrix
A+B= \begin{pmatrix} 1 & 2 \\ -1 & 0 \end{pmatrix} + \begin{pmatrix} 3 & 0 \\ 1& -2 \end{pmatrix} = \begin{pmatrix} 1+3 & 2+0 \\ -1+1 & 0-2 \end{pmatrix} = \begin{pmatrix} 4 & 2 \\ 0 & -2 \end{pmatrix}

Eine Matrix A kann auch mit einem Skalar, also einer reellen Zahl, multipliziert werden. Diese Skalar-Multiplikation geht genauso wie bei Vektoren: Wir multiplizieren jeden einzelnen Eintrag mit dem Skalar.
Wir schauen uns das an einem Beispiel an und multiplizieren die Matrix A mit dem Skalar 2:

2 \cdot A = 2 \cdot \begin{pmatrix} 1 & 2 \\ -1 & 0 \end{pmatrix} = \begin{pmatrix} 2 \cdot 1 & 2 \cdot 2 \\ 2 \cdot ({-}1) & 2 \cdot 0 \end{pmatrix} = \begin{pmatrix} 2 & 4 \\ -2 & 0 \end{pmatrix}

Durch diese Addition und Skalar-Multiplikation können wir mit Matrizen der gleichen Ordnung rechnen.

Multiplikation von Vektoren mit Matrizen

Eine n \times n-Matrix A kann man mit einem Vektor \vec{x} der Länge n multiplizieren. Das Produkt A \cdot \vec{x} ist wieder ein Vektor der Länge n. Die i-te Komponente des Vektors A \cdot \vec{x} erhältst du, indem du das Skalarprodukt der i-ten Zeile von A mit dem Vektor \vec{x} berechnest. Wir verdeutlichen das an einem Beispiel und multiplizieren die Matrix
A= \begin{pmatrix} 1 & 2 & 0 \\ -1 & 0 & 3 \\ 5 & 1 & -2 \end{pmatrix} mit dem Vektor \vec{x}= \begin{pmatrix} 4 \\ -1 \\ 2 \end{pmatrix}
Das Produkt ist der Vektor
A \cdot \vec{x} = \begin{pmatrix} 1 & 2 & 0 \\ -1 & 0 & 3 \\ 5 & 1 & -2 \end{pmatrix} \cdot \begin{pmatrix} 4 \\ -1 \\ 2 \end{pmatrix} = \begin{pmatrix} 1 \cdot 4 + 2 \cdot (-1) + 0 \cdot 2 \\ (-1) \cdot 4 + 0 \cdot (-1) + 3 \cdot 2 \\ 5 \cdot 4 + 1 \cdot (-1) + (-2) \cdot 2 \end{pmatrix} = \begin{pmatrix} 2 \\ 2 \\ 15 \end{pmatrix}

Multiplikation von Matrizen

Eine weitere Rechenoperation mit Matrizen ist die Matrix-Multiplikation. Zwei Matrizen A und B beliebiger Ordnung können nicht miteinander multipliziert werden. Um das Produkt A \cdot B berechnen zu können, muss die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmen. Die Matrix A \cdot B hat dann genauso viele Zeilen wie A und genauso viele Spalten wie B. Mit anderen Worten: Eine m \times n-Matrix A kann mit einer n \times k-Matrix multipliziert werden. Als Produkt A \cdot B ergibt sich eine m\times k-Matrix.
Die Einträge von A \cdot B werden folgendermaßen berechnet: An der Stelle (i,j) steht das Skalarprodukt der i-ten Zeile von A mit der j-ten Spalte von B:

(A \cdot B)_{ij} = a_{i1}b_{1j} + a_{i2}b_{2j} + \ldots + a_{in} b_{nj}

Wir zeigen das an einem konkreten Beispiel und berechnen das Produkt der Matrizen

A= \begin{pmatrix} 1 & 2 & -3 \\ 4 & -1 & -5 \end{pmatrix}

und

B= \begin{pmatrix} -5 & 7 \\ 3 & 0 \\ 1 & -1 \end{pmatrix}

A ist eine 2\times 3-Matrix und B eine 3 \times 2-Matrix. Wir können die Matrizen multiplizieren, weil A genauso viele Spalten hat, wie B Zeilen hat. Das Produkt A \cdot B ist die folgende 2 \times 2-Matrix:

\begin{array}{rcl} A \cdot B &=& \begin{pmatrix} 1 \cdot (-5) + 2 \cdot 3 + (-3) \cdot 1 & 1 \cdot 7 + 2 \cdot 0 + (-3) \cdot (-1) \\ 4 \cdot (-5) + (-1) \cdot 3 + (-5) \cdot 1 & 4 \cdot 7 + (-1) \cdot 0 + (-5) \cdot (-1) \end{pmatrix} \\ \\ &=& \begin{pmatrix} -5+6+ -3 & 7 + 0 + 3 \\ -20 - 3 -5 & 28 + 0 + 5 \end{pmatrix} \\ \\ &=& \begin{pmatrix} -2 & 10 \\ -28 & 33 \end{pmatrix} \end{array}

Die Matrizen A und B aus unserem Beispiel können wir auch umgekehrt multiplizieren, denn die Anzahl der Spalten von B ist gleich der Anzahl der Zeilen von A. Das Produkt B \cdot A ist dann eine 3\times 3-Matrix:

B \cdot A = \begin{pmatrix} 23 & -17 & -20 \\ 3 & 6 & -9 \\ -3 & 3 & 2 \end{pmatrix}

An diesen Beispielen erkennst du deutlich, dass die Matrix-Multiplikation nicht kommutativ ist: Die Matrizen A \cdot B und B \cdot A sind nicht gleich. In unserem Beispiel haben A \cdot B und B \cdot A nicht einmal die gleiche Ordnung.

Quadratische Matrizen der gleichen Ordnung können immer in beiden Richtungen miteinander multipliziert werden. Aber auch hier ist die Matrix-Multiplikation nicht kommutativ. Wir zeigen wieder ein Beispiel und multiplizieren die Matrizen
A= \begin{pmatrix} 1 & 2 \\ -1 & 0 \end{pmatrix} und B= \begin{pmatrix} 3 & 0 \\ 1& -1 \end{pmatrix}

Die beiden Produkte sind:

A \cdot B = \begin{pmatrix} 5 & -2 \\ -3 & 0 \end{pmatrix}
und
B \cdot A= \begin{pmatrix} 3 & 6 \\ 2 & 2 \end{pmatrix}

Matrizen transponieren

Eine weitere wichtige Rechenoperation mit Matrizen ist die Transposition. Die Transponierte A^T einer Matrix A erhältst du, indem du die Zeilen und Spalten der Matrix vertauschst: Aus der ersten Zeile wird die erste Spalte (und umgekehrt), aus der zweiten Zeile wird die zweite Spalte usw. Die Transponierte einer m \times n-Matrix ist dann eine n \times m-Matrix.
Wir machen das an einem Beispiel deutlich: Die Transponierte der Matrix
A= \begin{pmatrix} 1 & 2 & -3 \\ 4 & -1 & -5 \end{pmatrix} ist die Matrix A^T= \begin{pmatrix} 1 & 4 \\ 2 & -1 \\ -3 & -5 \end{pmatrix}

Im Allgemeinen kannst du die Einträge der transponierten Matrix bestimmen, indem du bei den Einträgen der Matrix A die beiden Zahlen des Doppelindex vertauscht. Steht in der Matrix A in der i-ten Zeile und j-ten Spalte der Eintrag a_{ij}, ist es bei der transponierten Matrix umgekehrt: An der Stelle (i,j) steht der Eintrag a_{ji} aus der Matrix A, d. h. (A^T)_{ij} = a_{ji}.

Bei symmetrischen Matrizen kann die Transposition auch benutzt werden, um zu überprüfen, ob die Matrix symmetrisch ist: Eine Matrix ist genau dann symmetrisch, wenn gilt: A = A^T.

Die Determinante

Die Determinante D einer Matrix A ist eine Zahl \det(A). Sie existiert nur für quadratische Matrizen. Für die Determinante einer Matrix sind die Bezeichnungen \det(A), \det A oder \vert A \vert geläufig.

Wir zeigen hier die Berechnung der Determinante für 2\times 2-Matrizen und für 3\times 3-Matrizen. Die Berechnung der Determinante einer n\times n-Matrix geht ähnlich, ist aber etwas umfangreicher.

Die Formel für die Determinante einer 2\times 2-Matrix lautet:

\left\vert \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} \right\vert = a_{12} a_{22} - a_{12} a_{21}

Du multipliziert also die Einträge auf der Diagonalen und subtrahierst davon das Produkt der beiden anderen Einträge. Wir berechnen ein konkretes Beispiel:

\left\vert \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \right\vert = 1 \cdot 4 - 2 \cdot 3 = 4-6 = -2

Die Formel für die Determinante einer 3\times 3-Matrix lautet:

\begin{array}{rcl} \vert A \vert &=& \left\vert \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ \end{pmatrix} \right\vert \\ &=& a_{12} a_{22} a_{33} + a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32} - a_{13} a_{22} a_{31} - a_{12} a_{21} a_{33} - a_{11} a_{23} a_{32} \end{array}

Du multiplizierst die Einträge auf den drei Hauptdiagonalen (die von links oben nach rechts unten verlaufen) und subtrahierst davon die Produkte der drei Nebendiagonalen.
Wir berechnen wieder ein konkretes Beispiel:

\begin{array}{rcl} \left\vert \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \right\vert &=& 1 \cdot 5 \cdot 9 + 2 \cdot 6 \cdot 7 + 3 \cdot 4 \cdot 8 - 3 \cdot 5 \cdot 7 - 2 \cdot 4 \cdot 9 - 1 \cdot 6 \cdot 8 \\ &=& 45 + 84 + 96 - 105 - 72 - 48 \\ &=& 225 - 225 \\ &=& 0 \end{array}

Anwendungen von Matrizen

Matrizen haben in der Mathematik viele verschiedene Anwendungen. Wir erklären im folgenden die Anwendung von Matrizen

  • zur Flächen- und Volumenberechnung,
  • zum Testen von Vektoren auf lineare Unabhängigkeit,
  • zur Formulierung linearer Gleichungssysteme und 
  • bei Berechnungen mit Übergangsmatrizen.

Berechnung von Flächeninhalten und Volumina

Die Determinante einer Matrix wird verwendet, um Flächeninhalte oder Volumina zu berechnen. Für Flächeninhalte wird eine 2\times 2-Matrix, für Volumina eine 3\times 3-Matrix genutzt.

Flächeninhalt von Dreiecken und Parallelogrammen

Die Determinante ist ein gutes Werkzeug, um den Flächeninhalt von Parallelogrammen oder Dreiecken in der Ebene zu berechnen. Du benötigst nur die Koordinaten der drei Eckpunkte A, B und C des Dreiecks.

Dreieck im Koordinatensystem

In unserem Beispiel ist A=(-3\vert2), B=(4\vert 1) und C=(1\vert 5). Aus den Koordinaten berechnest du die Verbindungsvektoren
\overrightarrow{AB} = \begin{pmatrix} 4 \\ 1 \end{pmatrix} - \begin{pmatrix}-3 \\ 2\end{pmatrix} = \begin{pmatrix} 7 \\ -1 \end{pmatrix}
und
\overrightarrow{AC} = \begin{pmatrix} 1 \\ 5 \end{pmatrix} - \begin{pmatrix}-3 \\ 2\end{pmatrix} = \begin{pmatrix} 4 \\ 3 \end{pmatrix}
Nun schreibst du diese beiden Vektoren als Spalten in eine Matrix M_{ABC}. Dabei soll die Reihenfolge der Vektoren so sein, dass die Drehung vom ersten zum zweiten Vektor gegen den Uhrzeigersinn erfolgt. Mit anderen Worten: Die Vektoren sollen eine rechtshändig orientierte Basis bilden. In unserem Beispiel ist \overrightarrow{AB}, \overrightarrow{AC} die richtige Reihenfolge. Wir erhalten also die Matrix:

M_{ABC} = \begin{pmatrix} 7 & 4 \\ -1 & 3 \end{pmatrix}

Der Flächeninhalt des Dreiecks \triangle_{ABC} ist:

\begin{array}{rcl} A(\triangle_{ABC}) &=& \frac{1}{2} \det(M_{ABC}) \\ \\ &=& \frac{1}{2} \left\vert \begin{pmatrix} 7 & 4 \\ -1 & 3 \end{pmatrix}\right\vert \\ \\ &=& \frac{1}{2} (7 \cdot 3 - 4 \cdot (-1)) \\ \\ &=& \frac{25}{2} \\ \\ &=& 12,\!5 \end{array}

Was passiert, wenn die Vektoren \overrightarrow{AB}, \overrightarrow{BC} nicht rechtshändig orientiert sind? Das können wir einfach erklären, indem wir in der Matrix oben die beiden Spalten vertauschen:

M_{ACB} = \begin{pmatrix} -1 & 3 \\ 7 & 4 \end{pmatrix}

Wenn wir jetzt in die Formel für den Flächeninhalt einsetzen, erhalten wir:
\frac{1}{2} \det(M_{ACB}) = \frac{1}{2} (4 \cdot (-1) - 7 \cdot 3) = -12,\!5

Die falsche Reihenfolge der Spaltenvektoren ändert das Vorzeichen der Determinante. Wenn du über die Reihenfolge der Vektoren nicht nachdenken willst, kannst du in der Formel für den Flächeninhalt des Dreiecks immer den Betrag der Determinante nehmen. Dann erhältst du automatisch das richtige Vorzeichen:

A(\Detla_{ABC}) = \vert \frac{1}{2} \det(M_{ABC}) \vert

Analog zum Flächeninhalt von Dreiecken berechnest du auch den Flächeninhalt des von zwei Vektoren \vec{v} und \vec{w} aufgespannten Parallelogramms P_{\vec{v},\vec{w}}. In unserem Beispiel mit \vec{v} = \overrightarrow{AB} und \vec{w}=\overrightarrow{BC} ist das von \vec{c} und \vec{w} aufgespannte Parallelogramm genau die Verdoppelung des Dreiecks \triangle_{ABC}. Daher ist der Flächeninhalt des Parallelogramms doppelt so groß wie der des Dreiecks: Du schreibst die Vektoren \vec{v} und \vec{w} als Spalten in eine Matrix M_{vw} = (\vec{v}, \vec{w}) und berechnest den Betrag der Determinante dieser Matrix:

A(P_{\vec{v},\vec{w}}) = \vert \det(M_{vw})\vert

Volumen von Parallelotopen

Drei linear unabhängige Vektoren \vec{a}, \vec{b} und \vec{c} im dreidimensionalen Raum spannen ein Parallelotop P_{\vec{a},\vec{b},\vec{c}} auf. Ein Parallelotop ist die dreidimensionale Verallgemeinerung eines Parallelogramms. Das Volumen dieses Parallelotops berechnest du ganz analog zum Flächeninhalt eines Parallelogramms in der zweidimensionalen Ebene: Du schreibst die drei Vektoren als Spalten in eine Matrix M_{abc}. Das Volumen des Parallelotops P_{\vec{a},\vec{b},\vec{c}} ist der Betrag der Determinante von M_{abc}:

V(P_{\vec{a},\vec{b},\vec{c}}) = \vert \det(M_{abc}) \vert

Von den Vektoren a, b und c aufgespanntes Parallelotop

Wir berechnen als Beispiel das Volumen V des von den Vektoren \vec{a}= \begin{pmatrix} -1 \\ 0 \\ 0 \end{pmatrix} und \vec{b} = \begin{pmatrix} 0 \\ 2 \\ -1 \end{pmatrix} und \vec{c} = \begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} aufgespannten Parallelotops P_{\vec{a},\vec{b},\vec{c}}:

\begin{array}{rcl} V(P_{\vec{a},\vec{b},\vec{c}}) &=& \left\vert(M_{abc})\right\vert \\ \\ &=& \left\vert \det \begin{pmatrix} -1 & 0 & 0 \\ 0 & 2 & 1 \\ 0 & -1 & 1 \end{pmatrix} \right\vert \\ \\ &=& (-1) \cdot 2 \cdot 1 + 0 \cdot 1 \cdot 0 + 0 \cdot 0 \cdot (-1) - 0 \cdot 2 \cdot 0 - 0 \cdot 0 \cdot 1 - (-1) \cdot 1 \cdot (-1) \\ \\ &=& \vert -2 -1\vert \\ \\ &=& 3 \end{array}

Lineare Unabhängigkeit von Vektoren

Vektoren im dreidimensionalen Raum kannst du mithilfe der Determinante auf lineare Unabhängigkeit testen. Die Vektoren \vec{a}, \vec{b} und \vec{c} sind genau dann linear unabhängig, wenn die Determinante der Matrix M_{abc} mit diesen Vektoren als Spalten ungleich null ist:

\vec{a},\vec{b},\vec{c} linear unabhängig \Leftrightarrow \det(M_{abc}) \neq 0

Wir erläutern das an einem Beispiel und betrachten die Vektoren
\vec{a} = \begin{pmatrix} 1 \\ 4 \\ 7 \end{pmatrix}, \vec{b} = \begin{pmatrix} 2 \\ 5 \\ 8 \end{pmatrix} und \vec{c} = \begin{pmatrix} 3 \\ 6 \\ 9 \end{pmatrix}

Auf den ersten Blick ist nicht zu erkennen, ob die Vektoren linear abhängig oder linear unabhängig sind. Wir schreiben die Vektoren als Spalten in die Matrix M_{abc}:

M_{abc} = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix}

Nun berechnen wir die Determinante dieser Matrix:

\det (M_{abc}) = \leftvert \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \right\vert = 1 \cdot 5 \cdot 9 + 2 \cdot 6 \cdot 7 + 3 \cdot 4 \cdot 8 - 3 \cdot 5 \cdot 7 - 2 \cdot 4 \cdot 9 - 1 \cdot 6 \cdot 8 = 0

Die Vektoren \vec{a}, \vec{b} und \vec{c} sind also linear abhängig.

Lineare Gleichungssysteme mit Matrizen lösen

Die Informationen eines linearen Gleichungssystems können in Form einer quadratischen Matrix und eines Vektors notiert werden. Das Rechenverfahren zum Lösen linearer Gleichungssysteme kann dann auf die Matrix und den Vektor der rechten Seite angewendet werden. Wir zeigen an einem Beispiel, wie du aus einem linearen Gleichungssystem die Matrix und den Vektor der rechten Seite gewinnst.

Als Beispiel verwenden wir das lineare Gleichungssystem:

\begin{array}{rcrcrcr} 2x &-& 3y &+& z &=& 2 \\ -x &+& 5y &+& 2z &=& 1 \\ 2x && &+& 3z &=& 5 \\ \end{array}

Die Koeffizientenmatrix A dieses linearen Gleichungssystems wird aus den Koeffizienten der Variablen in den einzelnen Gleichungen gebildet. Wir schreiben die Koeffizienten der ersten Gleichung in die erste Zeile. Dabei steht der Koeffizient von x in der ersten Spalte, der Koeffizient von y in der zweiten Spalte usw. Vor der Variablen z steht kein Koeffizient, dort ergänzen wir 1 als Koeffizienten.

\begin{array}{rcrcrcr} 2 && -3 && 1 \end{array}

In die zweite Zeile schreiben wir die Koeffizienten der zweiten Gleichung usw. In der dritten Zeile müssen wir beachten, dass die Variable y nicht vorkommt. Wir ergänzen daher den Koeffizienten 0.

So erhalten wir die Koeffizientenmatrix des linearen Gleichungssystems:

\begin{pmatrix} 2& -3 & 1 \\ -1 & 5 & 2 \\ 2 & 0 & 3 \\ \end{pmatrix}

Die Zahlen auf der rechten Seite des linearen Gleichungssystems schreiben wir in einen Vektor \vec{b}:

\vec{b} = \begin{pmatrix} 2 \\ 1 \\ 5 \end{pmatrix}

Die Variablen x, y und z schreiben wir ebenfalls in einen Vektor:

\vec{v} = \begin{pmatrix} x \\ y \\ z \end{pmatrix}

Mithilfe der Multiplikation von Matrizen und Vektoren können wir das lineare Gleichungssystem in der Form A \cdot \vec{v} = \vec{b} schreiben. Mit der Matrix A und den Vektoren \vec{v} und \vec{b} sieht das so aus:

\begin{pmatrix} 2& -3 & 1 \\ -1 & 5 & 2 \\ 2 & 0 & 3 \\ \end{pmatrix} \cdot \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 2 \\ 1 \\ 5 \end{pmatrix}

Um ein lineares Gleichungssystem zu lösen, kannst du Additions- und Subtraktionsverfahren direkt auf eine erweiterte Koeffizientenmatrix anwenden: Du ergänzt die Matrix A um den Vektor der rechten Seite. Die erweiterte Koeffizientenmatrix (A|\vec{b}) sieht in unserem Beispiel so aus:

\left(\begin{array}{rrr|r} 2& -3 & 1 & 2 \\ -1 & 5 & 2 & 1 \\ 2 & 0 & 3 & 5 \end{array}\right)

Indem du mit der erweiterten Koeffizientenmatrix rechnest, ersparst du dir, in jeder Umformung alle Variablen mitzuschreiben. Auf diese Weise lässt sich das Lösen linearer Gleichungssysteme mit dem gaußschen Eliminationsverfahren durch die Matrizenrechnung sehr effizient organisieren.

Berechnungen mit Übergangsmatrizen

Wir zeigen an einem Beispiel, wie eine Matrix aus einer Sachaufgabe abgeleitet wird und die Matrizenrechnung hilft, die Aufgabe zu lösen:

Gegeben sind drei Stromanbieter mit Namen A, B und C. Die Unternehmen analysieren die Kundenbewegungen im Jahresdurchschnitt: Unternehmen A verliert jährlich im Durchschnitt 40\,\% seiner Kunden an Unternehmen B und 10\,\% seiner Unternehmen an das Unternehmen C, die restlichen 50\,\% sind Bestandskunden. Der Stromanbieter B verliert nur 20\,\% seiner Kunden an A, aber keine an C. Und C verliert 20\,\% seiner Kunden an A und 10\,\% seiner Kunden an B. Zum Zeitpunkt 0 betragen die Marktanteile der Unternehmen 30\,\% für Unternehmen A und 45\,\% für Unternehmen B. Da es zu diesem Zeitpunkt nur drei Unternehmen am Markt gibt, besteht der Marktanteil des Unternehmens C aus den verbleibenden 25\,\%.

Um die wirtschaftliche Entwicklung der Unternehmen beurteilen zu können, berechnen wir die Marktanteile der Unternehmen nach einem Jahr. Die Prozentsätze der Kundenbewegungen aus der Aufgabenstellung formen wir in Dezimalbrüche um. Die Kundenbewegungen zwischen den verschiedenen Anbietern sind in dem folgenden Übergangsdiagramm oder Flussdiagramm dargestellt:

Flussdiagramm zur Übergangsmatrix

Aus dem Diagramm bilden wir die Übergangsmatrix. Der Eintrag a_{ij} der Übergangsmatrix gibt den Anteil der Kunden an, die vom Stromanbieter der Nummer j zum Anbieter mit der Nummer i wechseln. Wir ordnen dem Anbieter A die Nummer 1 zu, dem Anbieter B die Nummer 2 und dem Anbieter C die Nummer 3. Aus dem Diagramm erhalten wir die folgende Übergangsmatrix M:

M= \begin{pmatrix} 0,\!5 & 0,\!2 & 0,\!2 \\ 0,\!4 & 0,\!8 & 0,\!1 \\ 0,\!1 & 0 & 0,\!7 \end{pmatrix}

Bei einer Übergangsmatrix ist die Summer der Einträge jeder Spalte 1.

Aus der Übergangsmatrix und den Marktanteilen der Unternehmen zum Zeitpunkt 0 können wir die Marktanteile nach einem Jahr oder nach mehreren Jahren berechnen. Dazu schreiben wir die Marktanteile im Jahr 0 in einen Vektor \vec{x}_0:

\vec{x}_0 = \begin{pmatrix} 0,\!3 \\ 0,\!45 \\ 0,\!25 \end{pmatrix}

Die Verteilung der Marktanteile nach einem Jahr berechnen wir, indem wir die Übergangsmatrix M mit dem Vektor \vec{x}_0 multiplizieren. Dies ergibt den Vektor \vec{x}_1 der Marktanteile nach einem Jahr:

\begin{array}{rcl} \vec{x}_1 &=& M \cdot \vec{x}_0 \\ \\ &=& \begin{pmatrix} 0,\!5 & 0,\!2 & 0,\!2 \\ 0,\!4 & 0,\!8 & 0,\!1 \\ 0,\!1 & 0 & 0,\!7 \end{pmatrix} \cdot \begin{pmatrix} 0,\!3 \\ 0,\!45 \\ 0,\!25 \end{pmatrix} \\ \\ &=& \begin{pmatrix} 0,\!15+0,\!09+0,\!05 \\ 0,\!12+0,\!36+0,\!025 \\ 0,\!03+0+0,\!175 \end{pmatrix} \\ \\ &=& \begin{pmatrix} 0,\!29 \\ 0,\!505 \\ 0,\!205 \end{pmatrix} \end{array}

Der große Gewinn der Matrixrechnung ist, dass wir direkt die Marktanteile nach zwei, drei oder vier Jahren berechnen können. Wenn wir voraussetzen, dass die jährlichen Durchschnitte der Kundenbewegungen immer gleich bleiben, multiplizieren wir den Anteile-Vektor \vec{x}_1 mit der Übergangsmatrix M und erhalten den Vektor \vec{x}_2 der Marktanteile nach zwei Jahren:

\vec{x}_2 = M \cdot \vec{x}_1 = M \cdot M \cdot \vec{x}_0

Häufig gestellte Fragen zum Thema Matrizen

Eine Matrix ist ein rechteckiges Schema reeller Zahlen. Die Zahlen in der Matrix heißen Einträge der Matrix. Die horizontal nebeneinander stehenden Zahlen in der Matrix bilden die Zeilen der Matrix, die vertikal untereinander stehenden Zahlen bilden die Spalten der Matrix.

Jede Matrix hat eine Ordnung, die die Größe der Matrix angibt. Eine Matrix der Ordnung m \times n besteht aus m Zeilen und n Spalten. Es gibt Matrizen mit speziellen Eigenschaften, z. B. quadratische Matrizen, symmetrische Matrizen oder invertierbare Matrizen. Zwei Matrizen der gleichen Ordnung kann man addieren, aber im Allgemeinen nicht multiplizieren. Quadratische Matrizen der gleichen Ordnung kann man miteinander multiplizieren, aber die Multiplikation ist im Allgemeinen nicht kommutativ.

Beim Rechnen mit Matrizen gelten unter anderem folgende Regeln:

  • Jede Matrix kann man mit einer Zahl (d. h. einem Skalar) multiplizieren, indem man jeden Eintrag einzeln multipliziert.
  • Matrizen der gleichen Ordnung kann man addieren. Diese Addition ist kommutativ und assoziativ.
  • Zwei Matrizen A und B kann man nur dann zu einer Matrix A\cdot B multiplizieren, falls die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmt. Ist A eine M\times n-Matrix und B eine n \times k-Matrix, ist AB eine m \times k-Matrix.
  • Von einer quadratischen Matrix kann man die Determinante berechnen.

Die Multiplikation von Matrizen ist anders als die meisten bekannten Multiplikationen. Der wichtigste Unterschied ist, dass man nicht beliebige Matrizen miteinander multiplizieren kann, sondern nur Matrizen passender Ordnung. Um das Produkt A \cdot B definieren und berechnen zu können, muss die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmen. Ist A eine m \times n-Matrix und B eine n \times k-Matrix, ist A \cdot B eine m\times k-Matrix. Man definiert A \cdot B durch seine einzelnen Einträge: Der Eintrag (A \cdot B)_{ij}, also der Eintrag in der i-ten Zeile und j-ten Spalte von A \cdot B, ist das Skalarprodukt der i-ten Zeile von A mit der j-ten Spalte von B:
(A \cdot B)_{ij} = a_{i1} b_{1j} + a_{i2} b_{2j} + \ldots + a_{in} b_{nj}

Quadratische Matrizen der gleichen Ordnung kann man miteinander multiplizieren. Die Inverse einer quadratischen Matrix A ist eine Matrix B, für die gilt: Das Produkt A \cdot B ist die Einheitsmatrix. Im Allgemeinen gibt es eine solche Matrix B=A^{-1} nicht. Falls aber eine solche Matrix B existiert, heißt B die Inverse zu A. Die Berechnung der Inversen einer Matrix A nennt man Inversion.

Quadratische Matrizen der gleichen Ordnung kann man miteinander multiplizieren. Eine Matrix B heißt invers zu A, falls das Produkt A \cdot B die Einheitsmatrix ist. Man schreibt die Inverse einer Matrix A als A^{-1}. Die Inverse existiert meistens nicht. Eine Matrix A, die eine Inverse besitzt, nennt man invertierbar.

Die Transposition von Matrizen macht aus einer Matrix A die transponierte Matrix (oder kurz: Transponierte) A^T. Bei der Transposition werden die Rollen der Zeilen und Spalten von A vertauscht: Aus der ersten Zeile von A wird die erste Spalte der transponierten Matrix A^T und umgekehrt. Das Gleiche gilt für alle weiteren Zeilen und Spalten. Insbesondere ist die Transponierte einer m\times n-Matrix eine n \times m-Matrix.
Schreibt man die Matrix A in der Form
A = \begin{pmatrix} a_{11} & a_{12} & \ldots & a_{1,n-1} & a_{1n} \\ a_{21} & a_{22} & \ldots & a_{2,n-1} & a_{2n} \\ \vdots & & \ddots && \vdots \\ a_{m1} & a_{m2} & \ldots & a_{m,n-1} & a_{mn} \end{pmatrix},
ist die Transponierte:
A^T = \begin{pmatrix} a_{11} & a_{21} & \ldots & a_{n1} \\ a_{12} & a_{22} & \ldots & a_{n2} \\ \vdots & & \ddots & \vdots \\ a_{1,n-1} & a_{2,n-1} & \ldots & a_{m,n-1} \\ a_{1n} & a_{2n} & \ldots & a_{mn} \end{pmatrix}

Eine transponierte Matrix für sich allein gibt es nicht. Transponiert zu sein, ist keine Eigenschaft einer einzelnen Matrix. Eine Matrix kann nur die Transponierte von einer anderen Matrix sein. Eine Matrix B ist die Transponierte einer gegebenen Matrix A, wenn die Zeilen von B genau die Spalten von A sind (und umgekehrt). Man bezeichnet die Transponierte einer gegebenen Matrix A mit A^T. Zu jeder Matrix A gibt es die transponierte Matrix A^T. Die Transponierte von A^T ist dann wieder die Matrix A.

Um ein lineares Gleichungssystem mit Matrizen zu lösen, schreibst du die Koeffizienten der Variablen und den Vektor der rechten Seite zusammen in die erweiterte Koeffizientenmatrix (A|\vec{b}). Auf diese erweiterte Koeffizientenmatrix kannst du das gaußsche Eliminationsverfahren anwenden und erhältst so die Lösungen des linearen Gleichungssystems.

Die Formel für die Determinante einer 2\times 2-Matrix lautet:

\left\vert \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix} \right\vert = a_{12} a_{22} - a_{12} a_{21}

Wir berechnen ein konkretes Beispiel:

\left\vert \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \right\vert = 1 \cdot 4 - 2 \cdot 3 = 4-6 = -2

Die Formel für die Determinante einer 3\times 3-Matrix lautet:

\begin{array}{rcl} \vert A \vert &=& \left\vert \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ \end{pmatrix} \right\vert \\ &=& a_{12} a_{22} a_{33} + a_{12} a_{23} a_{31} + a_{13} a_{21} a_{32} - a_{13} a_{22} a_{31} - a_{12} a_{21} a_{33} - a_{11} a_{23} a_{32} \end{array}

Wir berechnen wieder ein konkretes Beispiel:

\begin{array}{rcl} \left\vert \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix} \right\vert &=& 1 \cdot 5 \cdot 9 + 2 \cdot 6 \cdot 7 + 3 \cdot 4 \cdot 8 - 3 \cdot 5 \cdot 7 - 2 \cdot 4 \cdot 9 - 1 \cdot 6 \cdot 8 \\ &=& 45 + 84 + 96 - 105 - 72 - 48 \\ &=& 225 - 225 \\ &=& 0 \end{array}

Die Summe zweier Matrizen berechnest du, indem du die Einträge einzeln addierst. Hier ist ein Beispiel:
\begin{pmatrix} 1 & 2 \\ -1 & 0 \end{pmatrix} + \begin{pmatrix} 3 & 0 \\ 1& -2 \end{pmatrix} = \begin{pmatrix} 1+3 & 2+0 \\ -1+1 & 0-2 \end{pmatrix} = \begin{pmatrix} 4 & 2 \\ 0 & -2 \end{pmatrix}

Du kannst Matrizen der gleichen Ordnung addieren und mit Skalaren multiplizieren. Diese Addition und Skalarmultiplikation erfüllen alle Rechenregeln für Vektorräume. Daher ist für jede natürliche Zahl m und jede natürliche Zahl n die Menge aller m \times n-Matrizen ein Vektorraum.

Typen von Matrizen können nach verschiedenen Kriterien unterschieden werden:

  • Matrizen unterscheiden sich in ihrer Ordnung, d. h. der Anzahl ihrer Zeilen und Spalten: Eine m \times n-Matrix besteht aus m Zeilen und n Spalten.
  • Ist m=n, heißt die Matrix quadratisch. Eine quadratische Matrix hat also genauso viele Zeilen wie Spalten.
  • Eine quadratische Matrix ist symmetrisch, falls jede Zeile mit der zugehörigen Spalte der Matrix übereinstimmt: Die erste Zeile hat nacheinander die gleichen Einträge wie die erste Spalte, die zweite Zeile hat die gleichen Einträge wie die zweite Spalte usw.
  • Eine Matrix ist symmetrisch, falls für alle ihre Einträge gilt: a_{ij}=a_{ji}. Mit anderen Worten: Der Eintrag in der i-ten Zeile und j-ten Spalte ist das Gleiche wie der Eintrag in der j-ten Zeile und i-ten Spalte.
  • Eine symmetrische Matrix heißt Diagonalmatrix, falls alle Einträge, die nicht auf der Diagonalen stehen, 0 sind. Mit der Diagonalen einer Matrix A sind die Einträge gemeint, bei denen die Nummer der Zeile das Gleiche ist wie die Nummer der Spalte. Die Einträge auf der Diagonalen sind also die Einträge a_{11}, a_{22}, a_{33} usw.
    Die Matrix
    A = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0& 5 \end{pmatrix} ist eine Diagonalmatrix, die Matrix A = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 2 & 0 \\ 5 & 0& 0 \end{pmatrix} ist keine Diagonalmatrix.
  • Spezielle Diagonalmatrizen sind die Einheitsmatrizen, bei denen alle Einträge auf der Diagonalen den Wert 1 haben:
    \begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & 1 \end{pmatrix}
Eine Matrix heißt quadratisch, wenn die Anzahl ihrer Spalten und Zeilen übereinstimmen. Mit anderen Worten: Eine m\times n-Matrix ist quadratisch, wenn gilt: m=n.

Eine quadratische Matrix heißt symmetrisch, wenn die Einträge jeder Zeile mit den Einträgen der zugehörigen Spalte übereinstimmen. Mit anderen Worten: Eine Matrix A ist symmetrisch, wenn für alle ihre Einträge gilt: a_{ij} = a_{ji}
Diese Gleichung ist äquivalent zu der Bedingung, dass die Matrix A mit ihrer Transponierten A^T identisch ist: A = A^T

Eine quadratische Matrix heißt Einheitsmatrix, wenn die Einträge auf der Diagonalen 1 sind und alle anderen Einträge 0 sind. Eine Einheitsmatrix sieht also so aus:
\begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & 1 \end{pmatrix}

Jede Einheitsmatrix ist symmetrisch, aber nicht jede symmetrische Matrix ist eine Einheitsmatrix.

In der linearen Algebra benutzt man die Einheitsmatrix, um die Identität oder identische Abbildung darzustellen.

  • Es gibt keine leere Matrix. Jede Matrix hat Einträge. 
  • Die Einträge sind in einem rechteckigen Schema angeordnet. Das bedeutet: Kein Eintrag einer Matrix darf leer sein oder fehlen. Ein nicht vollständig ausgefülltes Sudoku ist beispielsweise keine Matrix, denn eine Matrix hat keine Lücken oder Leerstellen.
  • Alle Zeilen einer Matrix haben die gleiche Länge, d. h. die gleiche Anzahl an Einträgen. Es dürfen keine Einträge fehlen. Keine Zeile darf kürzer oder länger sein als eine andere Zeile.  
  • Auch alle Spalten einer Matrix haben die gleiche Länge, d. h. die gleiche Anzahl an Einträgen. Kein Eintrag darf in einer Spalte fehlen, keine Spalte darf kürzer oder länger sein als eine andere Spalte.
  • Die Länge der Zeilen einer Matrix muss nicht mit der Länge der Spalten der Matrix übereinstimmen. Dies ist nur dann der Fall, wenn die Matrix quadratisch ist.

Super! Das Thema: Matrizen kannst du schon! Teile deine Learnings und Fragen mit der Community!