Advent, Advent, 1 Monat weihnachtliche Laufzeit geschenkt.

Nicht bis zur Bescherung warten, Aktion nur gültig bis zum 18.12.2016!

Textversion des Videos

Transkript Kap2 Theorie 1: Lineare Unabhängigkeit in IR^n

Hallo, ich bin Sergej. In diesem Video besprechen wir den Begriff der linearen Unabhängigkeit im Raum Rn. Natürlich schreibe ich euch eine Definition auf die Tafel, die ist aber zugegebener Maßen trocken. Trocken und abstrakt, bis es nicht mehr geht. Und deswegen ist es sinnvoll mit einem Beispiel anzufangen. Zur Motivation behandle ich ein auf der Ebene, wo man einfacher zeichnen kann. Auf der Ebene verstehen wir zuerst, was lineare Unabhängigkeit bedeutet und dann schreibe ich auch die Definition in aller Pracht auf. Dann gibt es wieder Veranschaulichung, noch mehr und anschließen erkläre ich euch, wie man bei Übungsaufgaben  nachprüft ob die gegebene Familie von Vektoren linear unabhängig ist. Nach dieser Anleitung gibt es noch ein paar nützliche Bemerkungen, was man sich so alles merken soll über lineare Unabhängigkeit und dann wird es schon sein, ja. Gut, dann fangen wir an mit unserem einfachen Beispiel. Also ich habe hier auf der Tafel zwei Paare von Vektoren aufgeschrieben. Die Vektoren v und w sind linear abhängig und die Vektoren a und b sind linear unabhängig. Dann lasst uns mal anschauen, was man so alles aussagen kann über diese Vektoren. Die linear abhängigen Vektoren v und w liegen auf einer Linie, deswegen ist es naheliegend, sie linear abhängig zu nennen. Und in der Tat, sie hängen voneinander ab. Ich habe sie so gezeichnet, dass sie in dieselbe Richtung zeigen, aber der Vektor w ist zweimal so lang als der Vektor v. Das heißt zum Beispiel, wenn ich den Vektor v ausdehne um den Faktor 2 und den Faktor 2 dehne, dann bekomme ich den Vektor w. Das geht auch umgekehrt. Wenn ich den Vektor w halbiere, dann bekomme ich den Vektor, der gleich dem Vektor v ist. Die Gleichung, die wie hier bekommen haben, also die offensichtlichen Abhängigkeitsrelation zu den Vektoren v und w, diese Gleichungen kann man so umschreiben. Man kann in der ersten Gleichung w auf die linke Seite schieben und dann bekommt man 2v-w=0, das geht. Und dasselbe Spiel kann man mit der zweiten Gleichung machen. Und dasselbe Spiel kann man mit der zweiten Gleichung machen. Man kann dieses Spiel allgemeiner aufschreiben. Was meine ich damit? Ich schreibe euch an die Tafel die Gleichung αv+βw=0 , wobei α eine gewisse Zahl ist. Und wir sehen hier, dass diese Gleichung bezüglich α und β lösbar ist. Zum Beispiel man kann α=2 nehmen und β=-1, so wie hier und dann ist die Gleichung lösbar. Also zum Beispiel kann man so nehmen α=2, β=-1. Man kann auch diese Gleichung hier zum Vorbild nehmen. Hier ist α=1  und β=-½, wie wir hier sehen. Man kann dieses Spiel beliebig weiter treiben. Jetzt lasst uns das Wesentliche auszeichnen. Wenn ich die Gleichung αv+βw betrachte und versuche sie zu lösen, dann hat sie auf jeden Fall Lösungen. Zunächst, wenn ich α und β einfach nur null nehme, dann geht die Gleichung auf. Das ist ganz einfach. Mathematiker sagen, in diesem Fall, das ist trivial. Wenn α=0 ist und β=0 ist, dann ist alles 0. Das geht aber auch nichttrivial. Man kann Vergleich 2 nehmen, β=-1 und die Gleichung geht auf. Oder auch α=1 oder β=-½ usw. Man kann meinetwegen. ihr wisst schon, wo der Hase langläuft. Man kann meinetwegen α=20 nehmen und β=-10, das wird auch gehen. Dieses Spiel kann man spielen, wenn die Vektoren linear abhängig sind. Nun lasst uns mal den Fall betrachten, wenn die Vektoren nicht anhängig sind. Die Vektoren a und b, sie liegen nicht auf einer Linie, sie sind nicht linear abhängig. Und wir versuchen, diese Gleichung zu lösen, intuitiv grafisch, erst mal ohne Zahlen. Wir betrachten die Gleichung αa+βb=0, betrachten diesen Ausdruck und versuchen es =0 zu setzen. Und wir versuchen, diese Gleichung zu lösen, intuitiv grafisch, erst mal ohne Zahlen. Was bedeutet, wenn ich Vektor a mit Faktor α multipliziere? Das bedeutet, dass ich den Vektor a strecke und daraus wir ungefähr so ein Vektor rauskommen. Hier ist der schwarze Pfeil und das ist der Vektor αa. Im Fall der Faktor &alpha">;>1 dann bekommen wir einen längeren Vektor. Und den Vektor b will mich mit der Zahl β ausmultiplizieren und ich nehme mal zu Abwechslung die Zahl β, die 1< ist, dann wird der multiplizierte Faktor βb kürzer sein als b, wenn β Wir haben ja gesehen, wie die lineare Unabhängigkeit aussieht auf dem Bild. Jetzt weg mit diesem Zwischenüberlegenem. So sieht die lineare Unabhängigkeit aus auf dem Bild und das ist die formale Konsequenz aus diesem grafischen Aussehen. Und diese formale Konsequenz nimmt man zur Definition. Noch einmal, was haben wir im Fall der linearen Abhängigkeit, diese Gleichung αv+βw=0 kann man lösen trivial aber auch nicht trivial. Das ist der Fall, wenn die Vektoren linear abhängig sind. Wenn die Vektoren linear unabhängig sind, kann man diese Gleichung nur trivial lösen. Und daraus machen wir jetzt eine allgemeine Definition. Zur Definition der linearen Unabhängigkeit ist es nützlich, den Begriff der linearen Kombination einzuführen. Und hier ist sie. Wir haben k Vektoren, wir haben k reelle Zahlen, Vektoren v und Zahlen α. Wir multiplizieren die Zahlen α und Vektoren v aus paarweise miteinander. α1×v1, α2×v2 und summieren das Ganze. Insgesamt heißt diese Summe lineare Kombination von Vektoren v, v1 und v2 bis vk, mit der Kombination der Koeffizienten α1, α2 bis αk. Und wenn ich diese Summe als Vektor w bezeichne, so sagt man, man hat die Vektoren v's mit den Koeffizienten α zum Vektor w kombiniert. Und ganz wichtig für den Fall, wenn dieses w=0 ist und das ist relevant für den Begriff der linearen Unabhängigkeit. Und nun kommen die Definitionen. Die Vektoren v1 bis vk heißen linear unabhängig, falls sie sich nur trivial zum Nullvektor kombinieren lassen. Das heißt, wenn wir es schon geschafft haben, diese α's zu wählen, sodass die Kombination der v's mit den Koeffizienten α gleich 0 ist, dann geht das nur dann, wenn alle α's gleich 0 sind. Das geht nur trivial. In diesem Fall heißen die Vektoren v's, v1 bis vk linear unabhängig. Und wir erinnern uns an unser Beispiel am Anfang. Da hatten wir zwei Vektoren gesehen, a und b und wir haben da intuitiv anschaulich erkannt, dass diese linear unabhängig sind. Und wir haben da die Gleichung gelöst αa+βb=0 und wir haben da gesehen, das geht nur dann, wenn α=0 ist und β=0 ist. Und das unten was wir haben, das ist die Verallgemeinerung, was wir im bespiel gesehen haben auf dem allgemeinen Fall einer Familie, die aus k Vektoren besteht. Nicht nur aus zwei, a und b, sondern aus k Vektoren. Das ist die Definition der linearen Unabhängigkeit. Nach der allgemeinen Definition kommt noch einmal eine Veranschaulichung. Veranschaulichung schadet nie. Was bedeutet die lineare Unabhängigkeit für zwei Vektoren? Das haben wir ausgiebig am Anfang des Videos diskutiert. Dort haben wir festgestellt, Vektoren v und w sind genau dann linear unabhängig, wenn sie nicht auf derselben Linie liegen, wie hier im Bild. Mit denselben Überlegungen kann man sich veranschaulichen, was den bedeutet die lineare Unabhängigkeit für 3 Vektoren. Man überlegt sich einfach, 3 Vektoren, a,b und c, sind genau dann linear unabhängig, wenn sie nicht alle zugleich in derselben Ebene enthalten sind. Noch einmal schaut euch das Bild an. Ich habe hier Vektoren a und b. Sie zeigen in die Richtungen der Koordinatenachsen. Überlegt euch, was passiert, wenn der Vektor c nicht nach oben ragt, sondern in der Ebene der ersten zwei Koordinaten enthalten ist. Wenn er hier unten in der Ebene der ersten zwei Koordinaten enthalten ist, dann lässt er sich sofort aus den Vektoren a und b linear kombinieren mit demselben Spiel, das wir am Anfang des Videos gespielt haben. Wenn der Vektor c sich aus a und b kombinieren lässt, wenn er unten in der Ebene liegt, dann sind alle 3 Vektoren linear abhängig. Wenn der Vektor c aus der Ebene hier rausragt, dann kann man mit Parallelviten sehen, dass die einzig mögliche lineare Kombination der 3 Vektoren zu 0 nur trivial sein kann. Wenn er hier unten in der Ebene der ersten zwei Koordinaten enthalten ist, dann lässt er sich sofort aus den Vektoren a und b linear kombinieren mit demselben Spiel, das wir am Anfang des Videos gespielt haben. So sehen wir klar und deutlich, was denn die lineare Unabhängigkeit genau bedeutet. Die Übungsaufgaben zum Thema lineare Unabhängigkeit sehen in der Regel so aus. Man bekommt eine konkrete Reihe von Vektoren vorgegeben. Gefragt wird, ob die vorgegebenen Vektoren linear unabhängig sind. Da, wo es blau markiert ist, da stehen konkrete Zahlen in den Übungsaufgaben. Wie soll man dabei vorgehen? Man soll ein gewisse lineare Gleichung auflösen und untersuchen. Das ist klar, wie dieses lineare Gleichungssystem aussieht. Untersuche das lineare Gleichungssystem, also im Prinzip mit jedem Vektor mit einer Zahl α und summieren das Ganze und setzen das Ganze =0. Das ist das lineare Gleichungssystem. Am besten soll man dieses lineare Gleichungssystem komponentenweise ausschreiben. Und das geht so. Wie ihr gerade gesehen habt, dieses lineare Gleichungssystem, dieses hier, sieht komponentenweise so aus. Nun muss man dieses Gleichungssystem lösen. Eines ist aber von vornerein klar, wenn alle diese α's= 0 sind, dann geht das System auf. Solche Lösungen, wenn alle α's=0 sind, nennt man trivial. Die Frage ist, ob neben der Triviallösung andere Lösungen existieren. Und das soll man hier rausfinden, entweder durch geschicktes einsetzten und Umformen und die Zahlen rumschieben. Das wird oft funktionieren, weil in Übungsaufgaben diese Zahlen blau sind oft v und viele von Ihnen sind einfach 0 und durch geschicktes Umformen hier rausfinden, ob es andere Lösungen gibt oder, wenn es nicht geht, dann mit dem Algorithmus von Gauß. Der Algorithmus von Gauß gibt auf jeden Fall eine Antwort darauf, ob es neben der trivialen Lösung noch andere Lösungen gibt. Wenn wir das getan haben, dann treffen wir die nachfolgende Schlussfolgerung. Ist die triviale Lösung, also die Lösung, wo alle α's=0 sind, die einzig mögliche Lösung, so sind die Vektoren linear unabhängig. Wenn es aber Lösungen gibt, wo mindesten 1 der α's von 0 verschieden ist, also gibt es neben der trivialen Lösungen noch andere Lösungen, so sind die Vektoren linear abhängig.  Und das ist das Entscheidungskriterium. Es gibt aber auch Situationen, wo man überhaupt nicht rechnen soll, um herauszufinden, ob vorgegebene Vektoren linear unabhängig sind. Und zwar diese hier. Wir haben k Vektoren in enddimensionellem Raum und wenn es so ist, dass die Anzahl der Vektoren größer als die Dimension des Raumes ist, dann weiß man sofort, dass die Vektoren linear abhängig sind, ohne zu rechnen. Das ist jetzt eine nützliche Regel. Für diejenigen von euch, die mit dem Algorithmus von Gauß vertraut sind, möchte ich an dieser Stelle auch erklären, warum das so ist. Ganz schnell. Wir stellen das übliche Gleichungssystem auf und analysieren es bezüglich α. Am besten, man schreibe ich es in Matrixvektor vor und Matrix des Systems nenne ich dann Aa, die Koeffizienten des Matrixsystems üblicherweise. Und nun denken wir an das Randkriterium. Es sind Ränge der Matrix des Systems und der erweiterten Matrix sind auf jeden Fall gleich, da die rechte Seite aus 0 besteht und das System ist auf jeden Fall lösbar, das ist ja keine Überraschung. Wenn α=0 ist, ist das System lösbar. Gut und nun kommt das Wichtige. Die Matrix A hat n Zeilen und k Spalten und Rang der Matrix A kann nie größer sein als die Anzahl der Zeilen oder Spalten. Also der Rang der Matrix A ist auf jeden Fall kleiner gleich n. Und nach unserer Voraussetzung n ist die Dimension des Raumes, die ist kleiner als die Anzahl der Vektoren k. K ist aber auch die Anzahl der Spalten der Matrix A. Also der Rang der Matrix A ist kleiner als die Anzahl der Spalten der Matrix A. Nach dem Rangkriterium nach dem Algorithmus vom Gauß heißt das, dass das System unendlich viele Lösungen besitzt. Das System hat unendlich viele Lösungen und unter ihnen gibt es natürlich auch nicht triviale Lösungen. Weil es nicht triviale Lösungen vorhanden sind, sind diese Vektoren linear abhängig. Das sind die Informationen, die ich euch als erstes über lineare Unabhängigkeit mitteilen wollte und außerdem auf dieser Seite gibt es ein paar konkrete Beispiele, wo ich konkret vorgegebene Vektoren ausrechne ob sie linear abhängig sind oder nicht. Ich danke euch an dieser Stelle für die Aufmerksamkeit, ich hoffe, es war hilfreich. Dankeschön

              Hallo, ich bin Sergej.

In diesem Video besprechen wir den Begriff der linearen Unabhängigkeit im Raum Rn.

Natürlich schreibe ich euch eine Definition auf die Tafel, die ist aber zugegebener Maßen trocken. Trocken und abstrakt bis es nicht mehr geht. Und deswegen ist es sinnvoll mit einem Beispiel anzufangen. Zur Motivation behandle ich ein auf der Ebene, wo man einfacher zeichnen kann. Auf der Ebene verstehen wir zuerst, was lineare Unabhängigkeit bedeutet und dann schreibe ich auch die Definition in aller Pracht auf. Dann gibt es wieder Veranschaulichung, noch mehr und anschließen erkläre ich euch, wie man bei Übungsaufgaben  nachprüft ob die gegebene Famiie von Vektoren linear unabhängig ist. Nach dieser Anleitung gibt es noch ein paar nützliche Bemerkungen, was man sich so alles merken soll über lineare Unabhängigkeit und dann wird es schon sein, ja. Gut, dann fangen wir an mit unserem einfachen Beispiel. Also ich habe hier auf der Tafel zwei Paare von Vektoren aufgeschrieben. Die Vektoren v und w sind linear abhängig und die Vektoren a und b sind linear unabhängig. Dann lasst uns mal anschauen, was man so alles aussagen kann über diese Vektoren. Die linear abhängigen Vektoren v und w liegen auf einer Linie, deswegen ist es naheliegend, sie linear abhängig zu nennen. Und in der Tat, sie hängen voneinander ab. Ich habe sie so gezeichnet, dass sie in dieselbe Richtung zeigen, aber der Vektor w ist zweimal so lang als der Vektor v. Das heißt zum Beispiel, wenn ich den Vektor v ausdehne um den Faktor 2 und den Faktor 2 dehne, dann bekomme ich den Vektor w. Das geht auch umgekehrt. Wenn ich den Vektor w halbiere, dann bekomme ich den Vektor, der gleich dem Vektro v ist. Die Gleichung, die wie hier bekommen haben, also die offensichtlichen Abhängigkeitsrelation zu den Vektoren v und w, diese Gleichungen kann man so umschreiben. Man kann in der ersten Gleichung w auf die linke Seite schieben und dann bekommt man 2v-w=0, das geht. Und das selbe Spiel kann man mit der zweiten Gleichung machen. Man kann dann von dieser Gleichung auf beiden Seiten ½w substrahieren und ich habe dann v-½w=0, das geht ja auch. Man kann dieses Spiel allgemeiner aufschreiben. Was meine ich damit? Ich schreibe euch an die Tafel die Gleichung αv+βw=0 , wobei α eine gewisse Zahl ist. Und wir sehen hier, dass diese Gleichung bezüglich α und β lösbar ist. Zum Beispiel man kann α=2 nehmen und β=-1, so wie hier und dann ist die Gleichung lösbar. Also zum Beispiel kann man so nehmen α=2, β=-1. Man kann auch diese Gleichung hier zum Vorbild nehmen. Hier ist α=1  und β=-½, wie wir hier sehen. Man kann dieses Spiel beliebig weiter treiben. Jetzt lasst uns das Wesentliche auszeichen.

Wenn ich die Gleichung αv+βw betrachte und versuche sie zu lösen, dann hat sie auf jeden Fall Lösungen. Zunächst, wenn ich α und β einfach nur Null nehme, dann geht die Gleichung auf. Das ist ganz einfach. Mathematiker sagen, in diesem Fall, das ist trivial. Wenn α=0 ist und β=0 ist, dann ist alles 0. Das geht aber auch nichttrivial. Man kann Vergleich 2 nehmen, β=-1 und die Gleichung geht auf. Oder auch α=1 oder β=-½ usw. Man kann meinetwegen. ihr wisst schon, wo der Hase langläuft. Man kann meinetwegen α=20 nehmen und β=-10, das wird auch gehen. Dieses Spiel kann man spielen, wenn die Vektoren linear abhängig sind.

Nun, lasst uns mal den Fall betrachten, wenn die Vektoren nicht anhängig sind. Die Vektoren a und b, sie liegen nicht auf einer Linie, sie sind nicht linear abhängig. Das nehmen wir erstmal intuitiv so und wir versuchen das selbe Spielchen hier weiter zu treiben. Wir betrachten die Gleichung αa+βb=0, betrachten diesen Ausdruck und versuchen es =0 zu setzen. Und wir versuchen, diese Gleichung zu lösen, intuitiv grafisch, erstmal ohne Zahlen. Was bedeutet, wenn ich Vektor a mit Faktor α multipliziere? Das bedeutet, dass ich den Vektor a strecke und daraus wir ungefähr so ein Vektor rauskommen. Hier ist der schwarze Pfeil und das ist der Vektor αa. Im Fall der Faktor &alpha">;>1 dann bekommen wir einen längeren Vektor. Und den Vektor b will mich mit der Zahl β ausmultiplizieren und ich nehme mal zu Abwechslung die Zahl β, die 1< ist, dann wird der multiplizierte Faktor βb kürzer sein als b, wenn β Wir haben ja gesehen, wie die lineare Unabhängigkeit aussieht auf dem Bild. Jetzt weg mit diesem Zwischenüberlegenem. So sieht die lineare Unabhängigkeit aus auf dem Bild und das ist die formale Konsequent aus diesem grafischen Aussehen. Und diese formale Konsequent nimmt man zur Definition. Noch einmal, was haben wir im Fall der linearen Abhängigkeit, diese Gleichung αv+βw=0 kann man lösen trivial aber auch nicht trivial. Das ist der Fall, wenn die Vektoren linear abhängig sind. Wenn die Vektroren linear unabhängig sind, kann man diese Gleichung nur trivial lösen. Und daraus machen wir jetzt eine allgemeine Definition. Zur Definition der linearen Unabhängigkeit ist es nützlich, den Begriff der linearen Kombination einzuführen. Und hier ist sie. Wir haben k Vektoren, wir haben k reele Zahlen, Vektoren v und Zahlen α. Wir multiplizieren die Zahlen α und Vektoren v aus parweise miteinander. α1×v1, α2×v2 und summieren das Ganze. Insgesamt heißt diese Summe lineare Kombination von Vektoren v, v1 und v2 bis vk, mit der Kombination der Koeffiziente α1, α2 bis αk. Und wenn ich diese Summe als Vektor w bezeichne, so sagt man, man hat die Vektoren v's mit den Koeffizienten α zum Vektor w kombiniert.

Und ganz wichtig für den Fall, wenn dieses w=0 ist und das ist relevant für den Begriff der linearen Unabhängigkeit. Und nun kommen die Definitionen. Die Vektoren v1 bis vk heißen linear unabhängig, falls sie sich nur trivial zum Nullvektor kombinieren lassen. Das heißt, wenn wir es schon geschafft haben, diese α's zu wählen, sodass die Kombination der v's mit den Koeffizienten α gleich 0 ist, dann geht das nur dann, wenn alle α's gleich 0 sind. Das geht nur trivial. In diesem Fall heißen die Vektoren v's, v1 bis vk linear unabhängig. Und wir erinnern uns an unser Beispiel am Anfang. Da hatten wir zwei Vektoren gesehen, a und b und wir haben da intuitiv anschaulich erkannt, dass diese linear unabhängig sind. Und wir haben da die Gleichung gelöst αa+βb=0 und wir haben da gesehen, das geht nur dann, wenn α=0 ist und β=0 ist. Und das unten was wir haben, das ist die Verallgemeinung, was wir im Bespiel gesehen haben auf dem allgemeinen Fall einer Familie, die aus k Vektoren besteht. Nicht nur aus zwei, a und b, sondern aus k Vektoren. Das ist die Definiton der linearen Unabhängigkeit.

Nach der allgemeinen Definiton kommt noch einmal eine Veranschaulichung. Veranschaulichung schadet nie.

Was bedeutet die lineare Unabhängigkeit für zwei Vektoren? Das haben wir ausgiebig am Anfang des Videos diskutiert. Dort haben wir festgestellt, vektoren v und w sind genau dann linear unanhängig, wenn sie nicht auf der selben Linie liegen, wie hier im Bild. Mit den selben Überlegungen kann man sich veranschaulichen, was den bedeutet die lineare Unabhängigkeit für 3 Vektoren. Man überlegt sich einfach, 3 Vektoren, a,b und c, sind genau dann linear unabhängig, wenn sie nicht alle zugleich in der selben Ebene enthalten sind. Noch einmal, schaut euch das Bild an. Ich habe hier Vektoren a und b. Sie zeigen in die Richtungen der Koordinatenachsen. Überlegt euch, was passiert, wenn der Vektor c nicht nach oben ragt, sondern in der Ebene der ersten zwei Koordinaten enthalten ist. Wenn er hier unten in der Ebene der ersten zwei Koordinaten enthalten ist, dann lässt er sich sofort aus den Vektoren a und b linear kombinieren mit dem selben Spiel, das wir am Anfang des Videos gespielt haben. Wenn der Vektor c sich aus a und b kombinieren lässt, wenn er unten in der Ebene liegt, dann sind alle 3 Vektoren linear abhängig. Wenn der Vektor c aus der Ebene hier rausragt, dann kann man mit Parallelviten sehen, dass die einzig mögliche lineare Kombination der 3 Vektoren zu 0 nur trivial sein kann. Gut, das ist nocheimal nützlich zu merken im Fall von 2 und 3 Vektoren. So sehen wir klar und deutlich, was denn die lineare Unabhängigkeit genau bedeutet.

Die Übungsaufgaben zum Thema lineare Unabhängigkeit sehen in der Regel so aus. Man bekommt eine konkrete Reihe von Vektoren vorgegeben. gefragt wird, ob die vorgegebenen Vektoren linear unabhängig sind. Da, wo es blau markiert ist, da stehen konkrete Zahlen in den Übungsaufgaben. Wie soll man dabei vorgehen? Man soll ein gewisse lineare Gleichung auflösen und untersuchen. Das ist klar, wie dieses lineare Gleichungssystem aussieht.

Untersuche das lineare Gleichungssystem, also im Prinzip mit jedem Vektor mit einer Zahl α und summieren das Ganze und setzen das Ganze =0. Das ist das lineare Gleichungssystem. Am besten soll man dieses lineare Gleichungssystem komponentenweise ausschreiben. Und das geht so.

Wie ihr gerade gesehen habt, dieses lineare Gleichungssystem, dieses hier, sieht komponentenweise so aus. Nun muss man dieses Gleichungssystem lösen. Eines ist aber von vornerein klar, wenn alle diese α's= 0 sind, dann geht das System auf. Solche Lösungen, wenn alle α's=0 sind, nennt man trivial. Die Frage ist, ob neben der Trivialenlösung andere Lösungen existieren. Und das soll man hier rausfinden, entweder durch geschicktes Einsetzten und Umformen und die Zahlen rumschieben. Das wird oft funktionieren, weil in Übungsaufgaben diese Zahlen blau sind oft v und viele von Ihnen sind einfach 0 und durch geschicktes Umformen hier rausfinden, ob es andere Lösungen gibt oder, wenn es nicht geht, dann mit dem Algorithmus von Gauß. Der Algorithmus von Gauß gibt auf jeden Fall eine Antwort darauf, ob es neben der trivialen Lösung noch andere Lösungen gibt. Wenn wir das getan haben, dann treffen wir die nachfolgende Schlußfolgerung. Ist die triviale Lösung, also die Lösung, wo alle α's=0 sind, die einzig mögliche Lösung, so sind die Vektoren linear unabhängig. Wenn es aber Lösungen gibt, wo mindesten 1 der α's von 0 verschieden ist, also gibt es neben der trivialen Lösungen noch andere Lösungen, so sind die Vektroren linear abhängig.  Und das ist das Entscheidungskriterium.

Es gibt aber auch Situationen, wo man überhaupt nicht rechnen soll um herauszufinden, ob vorgegebene Vektoren linear unabhängig sind. Und zwar diese hier. Wir haben k Vektoren in endimensionellem Raum und wenn es so ist, dass die Anzahl der Vektoren größer als die Dimension des Raumes ist, dann weiß man sofort, dass die Vektoren linear abhängig sind, ohne zu rechnen.

             

Informationen zum Video
3 Kommentare
  1. Default

    Bravo !! Super erklärt. :-)

    Von Gar Ga Jos, vor 9 Monaten
  2. Default

    Super Video

    Von Damian Jaskolla, vor mehr als einem Jahr
  3. Default

    Ein großes Lob an dich bin im ersten Semester Informatik und habe heftigst mit Mathe zu kämpfen in meinem Fernstudium.
    Mein gezahltes Geld hat sich bereits bewährt ich erfahre bei dir Sachen die so in meinem Kurstext nicht stehen bzw Vorausgesetzt werden. Da ich aber kein Abitur habe helfen mir deine Video's wirklich gut.
    Danke endlich hab ich verstanden warum Vektoren Lin abhängig sind oder nicht.
    Hoffe es gibt noch viele Videos von dir.

    Von Daniel Sun, vor etwa 4 Jahren