30 Tage risikofrei testen

Überzeugen Sie sich von der Qualität unserer Inhalte im Basis- oder Premium-Paket.

Überzeugen Sie sich von der Qualität unserer Inhalte.

30 Tage risikofrei testen

Definition der linearen Unabhängigkeit

$n$ Vektoren $\vec{v_1}$, ..., $\vec{v_n}$ heißen linear unabhängig, wenn die Linearkombination dieser $n$ Vektoren

$\alpha_1\cdot \vec{v_1}+...+\alpha_n\cdot \vec{v_n}=\vec 0$

nur dann den Nullvektor ergibt, wenn alle Koeffizienten $\alpha_i=0$ sind.

Andernfalls heißen die Vektoren linear abhängig.

Man kann dies auch anders formulieren:

$n$ Vektoren heißen linear abhängig, wenn sich einer der Vektoren als Linearkombination der anderen Vektoren darstellen lässt.

Was dies bedeutet, siehst du im Folgenden an den Beispielen der Vektorräume $\mathbb{R}^2$ sowie $\mathbb{R}^3$ .

Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^2$

Ein Vektor im $\mathbb{R}^2$ hat die folgende Form

$\vec v=\begin{pmatrix} v_x \\ v_y \end{pmatrix}$.

Beispiel für lineare Unabhängigkeit

Schauen wir uns ein Beispiel an: Gegeben seien die Vektoren

$\vec u=\begin{pmatrix} 1\\ -1 \end{pmatrix};~\vec v=\begin{pmatrix} 1\\ 1 \end{pmatrix};~\vec w=\begin{pmatrix} 1\\ 3 \end{pmatrix}$

Wir prüfen zunächst die lineare Abhängigkeit oder Unabhängigkeit zweier Vektoren

$\vec u$ sowie $\vec v$:

$\alpha\cdot \begin{pmatrix} 1\\ -1 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1 \end{pmatrix}=\begin{pmatrix} 0\\ 0 \end{pmatrix}$

führt zu den beiden Gleichungen

  • $\alpha+\beta=0$ sowie
  • $-\alpha+\beta=0$.

Wenn du die beiden Gleichungen addierst, erhältst du $2\beta=0$, also $\beta =0$. Einsetzen von $\beta=0$ in die obere Gleichung führt zu $\alpha=0$. Also sind die beiden Vektoren $\vec u$ und $\vec v$ linear unabhängig.

Beispiel für lineare Abhängigkeit

Linear abhängig sind zwei Vektoren, dies gilt in jedem Vektorraum, wenn der eine Vektor sich als Vielfaches des anderen Vektors schreiben lässt. Man nennt die Vektoren dann auch kollinear.

Nun untersuchen wir die drei Vektoren $\vec u$, $\vec v$ sowie $\vec w$ auf lineare Abhängigkeit oder Unabhängigkeit. Hierfür prüfen wir, ob der Vektor $\vec w$ sich als Linearkombination der beiden linear unabhängigen Vektoren $\vec u$ sowie $\vec v$ schreiben lässt:

$\begin{pmatrix} 1\\ 3 \end{pmatrix}= \alpha\cdot \begin{pmatrix} 1\\ -1 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1 \end{pmatrix}$.

Dies führt zu den folgenden Gleichungen

  • $\alpha+\beta=1$ sowie
  • $-\alpha+\beta=3$.

Addition der beiden Gleichungen führt zu $2\beta=4$, also $\beta =2$. Setzt du dieses $\beta$ in die obere Gleichung ein, erhältst du $\alpha+2=1$, also $\alpha=-1$. Das bedeutet, dass sich der Vektor $\vec w$ tatsächlich als Linearkombination der beiden Vektoren $\vec u$ sowie $\vec v$ schreiben lässt. Somit sind diese drei Vektoren linear abhängig.

Wenn drei Vektoren linear abhängig sind, dann werden sie als komplanar bezeichnet.

Übrigens: Der Nullvektor lässt sich als Linearkombination von beliebigen Vektoren darstellen. Damit ist eine Menge von Vektoren, von denen einer der Nullvektor ist, immer linear abhängig.

Basisvektoren im $\mathbb{R}^2$

In dem Vektorraum $\mathbb{R}^2$ sind immer mehr als zwei Vektoren linear abhängig. Die maximale Anzahl linear unabhängiger Vektoren ist also zwei. Dies ist die Dimension des Vektorraumes. Jeweils zwei linear unabhängige Vektoren werden als Basisvektoren bezeichnet. Eine besondere Basis ist die sogenannte kanonische Basis $\{\vec{e_1};~\vec{e_2}\}$, welche aus den Einheitsvektoren

$\vec e_1=\begin{pmatrix} 1\\ 0 \end{pmatrix}$$~$sowie$~$$\vec e_2=\begin{pmatrix} 0\\ 1 \end{pmatrix}$

besteht.

Jeder Vektor eines Vektorraumes lässt sich als Linearkombination von Basisvektoren dieses Vektorraumes darstellen.

Bedeutung der Kollinearität

In der analytischen Geometrie werden zum Beispiel Geraden behandelt. Eine Geradengleichung in Parameterform ist gegeben durch:

$g:\vec x=\vec a+r\cdot \vec u$

Dabei ist

  • $\vec a$ der Stützvektor, der Ortsvektor eines beliebigen Punktes der Geraden,
  • $r\in\mathbb{R}$ ein Parameter und
  • $\vec u$ der Richtungsvektor der Geraden.

Wenn du untersuchen sollst, ob zwei Geraden parallel zueinander sind, schaust du dir die Richtungsvektoren an. Diese müssen kollinear sein.

Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^3$

Ein Vektor im $\mathbb{R}^3$ hat die folgende Form:

$\vec v=\begin{pmatrix} v_x \\ v_y\\ v_z \end{pmatrix}$

Schauen wir uns auch hier ein Beispiel an: Gegeben seien die Vektoren:

$\vec u=\begin{pmatrix} 1\\ -1 \\ 0 \end{pmatrix};~\vec v=\begin{pmatrix} 1\\ 1\\ 2 \end{pmatrix};~\vec w=\begin{pmatrix} 2\\ 0\\ 2 \end{pmatrix}$

Wir prüfen die lineare Abhängigkeit oder Unabhängigkeit dieser drei Vektoren.

$\alpha\cdot \begin{pmatrix} 1\\ -1 \\ 0 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1\\ 2 \end{pmatrix}+\gamma\cdot \begin{pmatrix} 2\\ 0\\ 2 \end{pmatrix}=\begin{pmatrix} 0\\ 0 \\0 \end{pmatrix}$

Du erhältst das folgende Gleichungssystem:

  • $\alpha+\beta+2\gamma=0$,
  • $-\alpha+\beta=0$ sowie
  • $2\beta+2\gamma=0$.

Die letzten beiden Gleichungen können umgeformt werden zu $\alpha=\beta$ sowie $\gamma=-\beta$. Setzt du dies in die obere Gleichung ein, erhältst du $\beta+\beta-2\beta=0$, also $0=0$. Das bedeutet, dass $\beta$ frei gewählt werden kann, zum Beispiel $\beta=1$. Damit folgt $\alpha=1$ und $\gamma=-1$.

Es gibt also eine Lösung der obigen Gleichung, bei welcher nicht alle Koeffizienten $0$ sind. Damit sind die drei Vektoren linear abhängig. Du kannst nachprüfen, dass $\vec u+\vec v=\vec w$ gilt.

Basisvektoren im $\mathbb{R}^3$

Auch in dem Vektorraum $\mathbb{R}^3$ gilt, dass die maximale Anzahl an linearen unabhängigen Vektoren gerade $3$, die Dimension des Vektorraumes, ist. Die kanonische Basis des Vektorraums $\mathbb{R}^3$ ist auch hier gegeben durch die Einheitsvektoren.

$\left\{\begin{pmatrix} 1 \\ 0\\0 \end{pmatrix};~\begin{pmatrix} 0 \\ 1\\0 \end{pmatrix};~\begin{pmatrix} 0 \\ 0\\1 \end{pmatrix}\right\}$

Der Zusammenhang zwischen der Determinante und der linearen Unabhängigkeit

Wenn du $n$ Vektoren nebeneinander schreibst, erhältst du eine Matrix.

Du kannst nun die Vektoren auf lineare Unabhängigkeit überprüfen, indem du die Determinante dieser Matrix berechnest.

  • Ist diese ungleich $0$, dann sind die Vektoren linear unabhängig.
  • Ist diese gleich $0$, dann sind die Vektoren linear abhängig.

Um dies einmal zu üben, schauen wir uns noch einmal die Vektoren

$\vec v=\begin{pmatrix} 1\\ 1 \end{pmatrix}~\text{sowie}~\vec w=\begin{pmatrix} 1\\ 3 \end{pmatrix}$

an. Nun muss die Determinante der Matrix

det$\begin{pmatrix} 1& 1 \\1&3 \end{pmatrix}$

berechnet werden. Hierfür gehst du wie folgt vor:

  • Du multiplizierst die Elemente der Hauptdiagonalen, von oben links nach unten rechts, und
  • subtrahierst davon das Produkt der Elemente der Nebendiagonalen, von unten links nach oben rechts.

Somit ergibt sich

det$\begin{pmatrix} 1& 1 \\1&3 \end{pmatrix}=1\cdot 3-1\cdot 1=3-1=2\neq 0$

und damit die lineare Unabhängigkeit der beiden Vektoren $\vec v$ sowie $\vec w$.