30 Tage kostenlos testen:
Mehr Spaß am Lernen.

Überzeugen Sie sich von der Qualität unserer Inhalte.

Matrizen – Nachweis der Nichtgültigkeit des Kommutativgesetzes 11:15 min

  • Ohne Druck

    Wissenslücken schließen

    videos
  • Überall

    wiederholen und üben

    tests
  • Im eigenen Tempo

    mit Arbeitsblättern lernen

    worksheets
  • Jederzeit

    Fragen stellen

    chat
Mit Spaß

Noten verbessern

30 Tage kostenlos testen

Testphase jederzeit online beenden

Textversion des Videos

Transkript Matrizen – Nachweis der Nichtgültigkeit des Kommutativgesetzes

Hallo, mein Name ist Frank. In diesem Video werde ich mit dir mal betrachten, ob die Matrixmultiplikation kommutativ ist. Dafür schaue ich zuerst einmal an: “was heißt kommutativ?” Es gibt das sogenannte Kommutativitätsgesetz, das Vertauschungsgesetz, das besagt: Wenn du zwei Elemente a und b miteinander verknüpfst, dieser Kringel steht für eine Verknüpfung, für eine Operation, dann ist es egal ob du a mit b verknüpfst oder b mit a. Das kennst du sicherlich schon von der Multiplikation, zum Beispiel im Bereich der reellen Zahlen, 23=32. Oder auch bei der Addition 2+3=3+2. Das geht natürlich nicht bei der Subtraktion und bei der Division. Und ich schaue jetzt hier mal an, ob diese Kommutativität denn auch gilt, wenn ich Matrizen miteinander multipliziere. Und jetzt werde ich mir erstmal nochmal anschauen, wie Matrizen multipliziert werden und dafür habe ich ein kleines Beispiel vorbereitet. Ich habe so eine Matrix A aufgeschrieben, dabei nur die erste Zeile und eine Matrix B, da nur die erste Spalte, um nochmal kurz zu zeigen, wie eine Matrixmultiplikation funktioniert. Wichtig ist erstmal, wenn du zwei Matrizen miteinander multiplizierst, in dem Falle AB, dann multiplizierst du jede Zeile der Matrix A mit jeder Spalte der Matrix B. Das mache ich jetzt exemplarisch mal für dieses Element. Also (1 3 1) * (2 1 1). Wäre 12=2. 31=3. 11=1. Und wenn ich die addiere, kommt 6 raus, das ist die sogenannte skalare Multiplikation von Vektoren. Die übrigen Elemente interessieren mich jetzt nicht. Wichtig ist dabei die Anzahl der Spalten, sonst könntest du die hier nicht multiplizieren, muss mit der Anzahl der Zeilen von B übereinstimmen. Das heißt wir bekommen eine Matrix AB raus, und diese Matrix hat vier Zeilen, also könnte ich jetzt hier sagen okay, hier stehen auch noch Elemente. Die hat vier Zeilen und die hat zwei Spalten. Das schreibt man so 4x2. Das siehst du hier, A ist 4x3, vier Zeilen, drei Spalten. Ich kann also schon mal festhalten, zur Matrixmultiplikation, wenn ich zwei Matrizen miteinander multipliziere, AB, dann muss auf jeden Fall gelten, dass die Anzahl der Spalten der Matrix A mit der Anzahl der Zeilen, also hier n, der Matrix B übereinstimmt, sonst wäre die Multiplikation nicht definiert. Und dann kommt eine Matrix C raus, die hat m Zeilen und k Spalten. Daran kannst du schon mal erkennen, dass in dem Fall die Kommutativität überhaupt nicht geht. Wenn ich jetzt A und B vertauschen würde, dann hätte ja B k Spalten und A m Zeilen und wenn die nicht übereinstimmen ist die Multiplikation auch nicht mehr definiert. Das heißt, da wäre die Kommutativität schon mal nicht gegeben. Nun schaue ich mir einen weiteren Fall an einer Multiplikation zweier Matrizen. Und zwar den Fall, dass die Matrizen, die Matrix A m Zeilen und n Spalten hat und die Matrix B n Zeilen und m Spalten. Du siehst wieder die Spaltenzahl von A und die Zeilenzahl von B stimmen überein. Das heißt, die Matrixmultiplikation ist definiert und es käme eine quadratische Matrix mxm heraus. Wenn ich jetzt A und B vertausche, steht hier BA ist gleich, B ist eine nxm-Matrix, A ist eine mxn-Matrix. Du siehst wieder, die Anzahl der Spalten von B stimmt mit der Anzahl der Zeilen von A überein, du kannst also die beiden Matrizen multiplizieren. Es käme auch da wieder eine Matrix C raus und die hat diesmal n Zeilen und n Spalten. Was du also da schon mal feststellen kannst, wenn überhaupt Kommutativität gelten soll, dann müssten die Matrizen A und B beide quadratisch sein. Ansonsten klappt das schon nicht, also das siehst du hier dran schon. Und ich werde mir jetzt im Folgenden anschauen, ob denn bei quadratischen Matrizen Kommutativität vorliegt. Ja, wie ich gerade schon festgestellt habe, wenn das Kommutativgesetz, also die Kommutativität bei der Matrixmultiplikation überhaupt gelten soll, dann nur dann, wenn die Matrizen die wir betrachten quadratisch sind. Und dann habe ich hier mal ein einfaches Beispiel vorbereitet, mit jeweils 2x2-Matrizen, heißt zwei Zeilen, zwei Spalten, sowohl A als auch B. Und wenn ich jetzt A mit B multipliziere, dann steht da (2 1) * (3 4), 23=6, +4 ist 10. 22=4, -1 ist 3. 33=9, 34=12, 9+12=21. Und dann 6-3=3. Das wäre also 10, 3, 21, 3. Und wenn ich jetzt mal die Reihenfolge der Matrizen vertausche, du siehst ich habe jetzt also hier die Matrix B nach links geschrieben und entsprechend die Matrix A nach rechts. Also ich multipliziere jetzt nicht A mit B, sondern B mit A. Schaue ich mal, (3 2) * (2 3), 32=6, 23=6, 6+6=12. An der Stelle könnte ich jetzt schon aufhören, weil du siehst das Element stimmt nicht überein. Das heißt die Kommutativität gilt nicht, aber ich werde jetzt trotzdem nochmal das Ergebnis nochmal angeben. 31=3, +6 ist 9, also käme hier die Neun hin. 8-3=5 und 4-3=1. Also der Vollständigkeit halber das Matrixprodukt ausgerechnet. Und wie gesagt, du siehst die beiden Ergebnisse stimmen nicht überein. Ich kann also schon mal festhalten, dass das Kommutativgesetz, das kürze ich jetzt mal mit KG ab, das steht für das Kommutativitätsgesetz, also a verknüpft b gleich b verknüpft a. Im Allgemeinen... Also das Kommutativitätsgesetz gilt im Allgemeinen nicht. Und das reicht auch voll und ganz ein einziges Beispiel zu finden, bei dem es nicht gilt, das ist dann ein Gegenbeweis. Und nun schaue ich mir nochmal an, ob es vielleicht einen Spezialfall geben könnte, bei dem das Kommutativitätsgesetz doch gilt, ganz schön schwieriges Wort. Und ich schaue mir wieder zwei quadratische Matrizen, der Einfachheit halber wieder 2x2-Matrizen. Und zwar haben die diesmal eine spezielle Form, a, 0, 0, b und die andere Matrix sei c, 0, 0, d. Und du siehst, diese Matrizen sind beides Diagonalmatrizen, mit einer Diagonalen von oben links nach unten rechts. Und wenn ich die miteinander multipliziere bekomme ich ac und hier die 0. (0 b) * (c 0) ist auch wieder 0. (0 b) * (0 d) = bd. Und auch hier vertausche ich wieder die Reihenfolge, also c, 0, 0, d mal a, 0, 0, b. Und wieder wenn ich die Matrixmultiplikation anwende, (c 0) * (a 0) = ca. (c 0) * (0 b) = 0. (0 d) * (a 0) = 0. (0 d) * (0 b) = db. Und da das Kommutativitätsgesetz ja bei der Multiplikation gilt, ist ac das gleiche wie ca und genauso gut db=b*d. Das heißt, dass es dann doch Spezialfälle gibt, nämlich: Es existieren also Spezialfälle, sogenannte Diagonalmatrizen, bei welchen das Kommutativitätsgesetz gilt. Ich kürze das wieder mit KG ab. Gut, dann fasse ich nochmal kurz zusammen, was ich in diesem Video gemacht habe: Ich habe geschaut, ob die Matrixmultiplikation kommutativ ist, das heißt ob es egal ist, in welcher Reihenfolge ich die Matrizen miteinander multipliziere. Und in einem ersten Schritt habe ich gezeigt, dass überhaupt eine spezielle Voraussetzung schon mal gelten muss, damit die Kommutativität gilt, nämlich die Eigenschaft A und B beide quadratisch. Und dann habe ich gezeigt, dass das Kommutativitätsgesetz trotzdem allgemein nicht gilt, an diesem einfachen Gegenbeispiel. Es gibt aber auch Spezialfälle, bei denen es gilt. Ich hoffe du konntest alles gut verstehen, danke dir für deine Aufmerksamkeit und freue mich wie immer über Fragen und Anregungen. Bis zum nächsten Mal, dein Frank.

Matrizen – Nachweis der Nichtgültigkeit des Kommutativgesetzes Übung

Du möchtest dein gelerntes Wissen anwenden? Mit den Aufgaben zum Video Matrizen – Nachweis der Nichtgültigkeit des Kommutativgesetzes kannst du es wiederholen und üben.

  • Beschreibe das Kommutativgesetz.

    Tipps

    Das Kommutativgesetz gilt für die Multiplikation: $a\cdot b=b\cdot a$.

    Beim Multiplizieren ist die Reihenfolge der Multiplikation egal.

    Überlege dir: Gilt $4-3=3-4$?

    „Commutare“ kommt aus dem Lateinischen und bedeutet übersetzt „vertauschen“.

    Lösung

    Das Kommutativgesetz bezüglich einer Operation $\circ$ besagt, dass die Reihenfolge bei dieser Operation vertauscht werden darf:

    $a\circ b=b\circ a$.

    Dieses Gesetz ist aus dem Bereich der reellen Zahlen bekannt. Es gilt für die Addition sowie die Multiplikation:

    • $a+b=b+a$
    • $a\cdot b=b\cdot a$
    Dieses Gesetz gilt jedoch nicht für die Subtraktion oder Division, was man sich an einfachen Beispielen klarmachen kann:

    • $2-1=1\neq -1=1-2$
    • $2:1=2\ne 0,5=1:2$
  • Gib an, was bei der Matrix-Multiplikation zu beachten ist.

    Tipps

    Wenn du zwei Matrizen

    • $A$ mit $m$ Zeilen und $n$ Spalten und
    • $B$ mit $n$ Zeilen und $m$ Spalten multiplizierst,
    • erhältst du eine Matrix mit $m$ Zeilen und $m$ Spalten.

    Wenn du zwei Matrizen

    • $B$ mit $n$ Zeilen und $m$ Spalten und
    • $A$ mit $m$ Zeilen und $n$ Spalten multiplizierst,
    • erhältst du eine Matrix mit $n$ Zeilen und $n$ Spalten.

    Bei der Matrixmultiplikation multiplizierst du immer eine Zeilen der linken Matrix mit einer Spalte der rechten. Das bedeutet, dass diese gleich viele Elemente haben müssen.

    Lösung

    Um zwei Matrizen miteinander zu multiplizieren, multipliziert man die Zeilen der linken Matrix mit den Spalten der rechten. Dies ist hier zu sehen:

    $1\cdot 2+3\cdot 1+1\cdot 1=6$.

    Daran kann man bereits erkennen, dass die linke Matrix eben so viele Spalten haben muss wie die rechte Zeilen. Die Anzahl der Zeilen der Ergebnismatrix ist $4$ und die der Spalten $2$.

    Allgemein gilt: Für $A\cdot B=C$ mit

    • $A$ eine $[m\times n]$ Matrix und
    • $B$ eine $[n\times k]$ Matrix
    • ist $C$ eine $[m\times k]$ Matrix.
    Nun ist bereits klar, dass die Matrixmultiplikation im Allgemeinen nicht kommutativ sein kann, da sie ja nur definiert ist, wenn die Spaltenzahl der linken Matrix mit der Zeilenzahl der rechten übereinstimmt. Das bedeutet, dass für das nebenstehende Beispiel die Multiplikation beim Vertauschen der Reihenfolge noch nicht einmal definiert ist.

    Übrigens: Wenn man zwei Matrizen

    • $A$ mit $m$ Zeilen und $n$ Spalten und
    • $B$ mit $n$ Zeilen und $m$ Spalten multipliziert,
    • erhält man eine Matrix mit $m$ Zeilen und $m$ Spalten.
    Umgekehrt erhält man eine $[n\times n]$-Matrix. Das bedeutet, dass die Matrixmultiplikation nur dann kommutativ sein kann, wenn die beiden Matrizen, die miteinander multipliziert werden, quadratisich sind.

  • Berechne das jeweilige Matrixprodukt.

    Tipps

    Rechne jeweils eine Zeile der linken Matrix mal eine Spalte der rechten.

    Schaue dir dieses Beispiel an. Ebenso berechnest du die übrigen Elemente.

    Beachte, dass die Ergebnismatrix jeweils eine $[2\times 2]$-Matrix ist.

    Es gilt übrigens $A\cdot B\neq B\cdot A$.

    Lösung

    Es wird jeweils eine Zeile der linken Matrix mit einer Spalte der rechten multipliziert.

    • $2\cdot 3+1\cdot 4=10$ sowie $2\cdot 2+1\cdot (-1)=3$ und
    • $3\cdot 3+3\cdot 4=21$ sowie $3\cdot 2+3\cdot (-1)=3$.
    Ebenso wird das Produkt

    $\begin{pmatrix} 3&2 \\ 4&-1 \end{pmatrix}\cdot \begin{pmatrix} 2&1 \\ 3&3 \end{pmatrix}=\begin{pmatrix} 12&9 \\ 5&1 \end{pmatrix}$

    berechnet.

    Das bedeutet, dass beim Multiplizieren zweier quadratischer Matrizen das Vertauschen zwar definiert ist, die Ergebnisse jedoch nicht überein stimmen.

    Man kann damit folgern, dass im Allgemeinen die Matrixmultiplikation nicht kommutativ ist.

  • Weise nach, für welche Matrizen die Multiplikation kommutativ ist.

    Tipps

    Wenn du glaubst, dass Kommutativität nicht gilt, wähle ein Gegenbeispiel, zum Beispiel für $[2\times 2]$-Matrizen.

    Bei einer symmetrischen Matrix sind die Elemente $a_{i,j}$ sowie $a_{j,i}$ identisch.

    Hier siehst du ein Beispiel für eine symmetrische $[2\times 2]$-Matrix.

    Die beiden Matrizen $A$ und $B$ sind invertierbar. Das bedeutet, dass es zu jeder dieser Matrizen eine Matrix, am Beispiel $A$, $A^{-1}$ gibt, so dass

    $A\cdot A^{-1}=A^{-1}\cdot A=I$

    gilt.

    Lösung

    Die Matrixmultiplikation ist kommutativ, wenn

    • entweder beide Matrizen Diagonalmatrizen sind
    • oder eine der beiden Matrizen eine Einheitsmatrix oder deren Vielfaches ist.
    In allen anderen Fällen liegt, im allgemeinen, keine Kommutativität vor. Für jeden dieser Fälle ist hier ein Gegenbeispiel zu sehen:

    symmetrische Matrizen

    $\begin{pmatrix} 1&1 \\ 1&1 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 1&2 \end{pmatrix}=\begin{pmatrix} 2&3 \\ 2&3 \end{pmatrix}$

    aber

    $\begin{pmatrix} 1&1 \\ 1&2 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 1&1 \end{pmatrix}=\begin{pmatrix} 2&2 \\ 3&3 \end{pmatrix}$.

    Obere Dreiecksmatrix

    $\begin{pmatrix} 1&1 \\ 0&1 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 0&2 \end{pmatrix}=\begin{pmatrix} 1&3 \\ 0&2 \end{pmatrix}$

    aber

    $\begin{pmatrix} 1&1 \\ 0&2 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 0&1 \end{pmatrix}=\begin{pmatrix} 1&2 \\ 0&2 \end{pmatrix}$.

    Für untere Dreiecksmatrizen ist dies ebenso zu zeigen.

    Invertierbare Matrizen

    $\begin{pmatrix} 1&1 \\ 0&1 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 2&1 \end{pmatrix}=\begin{pmatrix} 3&2 \\ 2&1 \end{pmatrix}$

    aber

    $\begin{pmatrix} 1&1 \\ 2&1 \end{pmatrix}\cdot \begin{pmatrix} 1&1 \\ 0&1 \end{pmatrix}=\begin{pmatrix} 1&2 \\ 2&3 \end{pmatrix}$.

  • Prüfe, bei welchen der Multiplikationen die Reihenfolge vertauscht werden kann.

    Tipps

    Berechne jeweils links und rechts das Matrixprodukt.

    Multipliziere hierfür jeweils eine Zeile der linken Matrix mit einer Spalte der rechten.

    Es ist nur eine Vertauschung korrekt.

    Hier siehst du allgemein die Multiplikation zweier Diagonalmatrizen.

    Multipliziere die beiden Matrizen

    $\begin{pmatrix} c&0 \\ 0&d \end{pmatrix}\cdot \begin{pmatrix} a&0 \\ 0&b \end{pmatrix}$

    und vergleiche.

    Lösung

    Wenn man zwei Diagonalmatrizen miteinander multipliziert, darf man die Reihenfolge vertauschen.

    Dabei müssen beide Matrizen auf den Hauptdiagonalen, von oben links nach unten rechts, Elemente haben, die $0$ oder ungleich $0$ sind. Alle übrigen Elemente müssen $0$ sein.

    Sobald in einer (oder beiden) der Matrizen die Anordnung vertauscht wird, gilt nicht mehr, dass die Multiplikation kommutativ ist.

    $\begin{array}{rcl}\begin{pmatrix} a&0 \\ 0&b \end{pmatrix}\cdot \begin{pmatrix} c&0 \\ 0&d \end{pmatrix}&=&\begin{pmatrix} ac&0 \\ 0&bd \end{pmatrix}\\ &=&\begin{pmatrix} c&0 \\ 0&d \end{pmatrix}\cdot \begin{pmatrix} a&0 \\ 0&b \end{pmatrix} \end{array}$

    Dies kann man sich an einem der oberen Beispiele anschauen:

    $\begin{pmatrix} 0&1 \\ 2&0 \end{pmatrix}\cdot \begin{pmatrix} 0&3 \\ 4&0 \end{pmatrix}=\begin{pmatrix} 4&0 \\ 0&6 \end{pmatrix}$

    aber

    $\begin{pmatrix} 0&3 \\ 4&0 \end{pmatrix}\cdot \begin{pmatrix} 1&0 \\ 0&2 \end{pmatrix}=\begin{pmatrix} 0&6 \\ 4&0 \end{pmatrix}$.

  • Untersuche, ob die Multiplikation mit der entsprechenden Matrix kommutativ ist.

    Tipps

    Beachte: Wenn die Matrixmultiplikation kommutativ sein soll, dann müssen beide Matrizen quadratisch sein.

    So sieht eine allgemeine Diagonalmatrix aus. Die Diagonalelemente müssen nicht unbedingt ungleich $0$ sein.

    So sieht ein Vielfaches der Einheitsmatrix aus.

    Hier siehst du eine obere Dreiecksmatrix.

    Lösung

    Die $[m\times m]$-Einheitsmatrix $I$ ist das neutrale Element der Matrixmultiplikation. Das bedeutet, dass für jede beliebige $[m\times m]$-Matrix $A$ gilt

    $I\cdot A=A$.

    • Dies gilt auch umgekehrt $A\cdot I=A$ und
    • auch für jedes Vielfache von $I$: $k\cdot I\cdot A=k\cdot A=A\cdot k\cdot I$.
    Natürlich muss die Matrix $A$ dafür quadratisch sein, sonst wären nicht beide Multiplikationen definiert.

    $\begin{pmatrix} 1 & 0 & \dots &0\\ 0 &1& \ddots &\vdots\\ \vdots& \ddots&\ddots&0\\ 0&\dots&0&1 \end{pmatrix}\cdot \begin{pmatrix} a_{1,1} & a_{1,2} & \dots &a_{1,n}\\ a_{2,1} &a_{2,2}& \ddots &\vdots\\ \vdots& \ddots&\ddots&a_{n-1,n}\\ a_{n,1}&\dots&a_{n,n-1}&a_{n,n} \end{pmatrix}=\begin{pmatrix} a_{1,1} & a_{1,2} & \dots &a_{1,n}\\ a_{2,1} &a_{2,2}& \ddots &\vdots\\ \vdots& \ddots&\ddots&a_{n-1,n}\\ a_{n,1}&\dots&a_{n,n-1}&a_{n,n} \end{pmatrix}$