Lineare Algebra
1. Vektoren
➢ Elemente des kartesischen Produkts x x … x = n nennt man Vektoren.
➢ n-dimensionaler Spaltenvektor
𝑣1
v =( ⋮ )
𝑣𝑛
➢ m-dimensionaler Zeilenvektor
v = (𝑣1 … 𝑣𝑚 )
➢ Transponieren eines Vektors
𝑣1
v = ( 2 ); vT = (𝑣1 𝑣2 𝑣3 )
𝑣
𝑣3
➢ Ordnungsrelationen für gleichdimensionale Vektoren
o Gleichheit von Vektoren
2 2
v = ( ); w = ( )
1 1
→v=w
o Ungleichheit von Vektoren
2 4
v = ( ); w = ( )
1 6
→v<w
8 2
v = ( ); w = ( )
7 1
→v>w
2 0
v = ( ); w = ( )
1 2
→v≠w
➢ Für den Vektor v, der den Punkt A ⟨a1|a2 |a3⟩ auf den Punkt B ⟨b1 |b2|b3 ⟩ abbildet, gilt:
𝑏1 − 𝑎1
v = (𝑏2 − 𝑎2 )
𝑏3 − 𝑎3
➢ Der Vektor v hat den Gegenvektor –v. Vektor und Gegenvektor sind gleich lang, aber
entgegengesetzt orientiert.
➢ Der Vektor, der einen Punkt auf sich selbst abbildet, heißt Nullvektor.
0
0 = (0)
0
➢ Der Vektor, der den Ursprung 0 auf den Punkt P abbildet, heißt Ortsvektor von P. Der
Ortvektor von P hat die gleichen Koordinaten wie der Punkt P.
𝑝1
𝑝
P ⟨p1 |p2 |p3⟩; Ortsvektor von P = ( 2 )
𝑝3
➢ Der Vektor ~v, der in die gleiche Richtung zeigt wie der Vektor v und den Betrag 1 hat,
heißt Einheitsvektor.
v v v
v~ = Betrag von v = d(v) = T
√v ∙v
,➢ Die Summe von Vielfachen von Vektoren nennt man Linearkombination von Vektoren.
Man bezeichnet c1, c2, …, ck ∈ als Gewichtungsfaktoren. Wenn sich alle Gewichtungs-
faktoren zu 1 addieren, also 0 ≤ ci ≤ 1 und ∑𝑘𝑖=1 𝑐𝑖 = 1 gelten, spricht man von einer
Konvexkombination.
w = c1 ∙ v + c2 ∙ u + c3 ∙ q
➢ Betrag oder Norm eines Vektors
d(v) = ||v|| = √v1 2 + …2 + vn 2 = √v T ∙ v
Beispiel:
1
v = (2)
2
d(v) = ||v|| = √12 + 22 + 22 = √9 = 3
➢ Vektoroperationen für gleichdimensionale Vektoren
o Addition und Subtraktion von Vektoren:
Zwei Vektoren v und u werden addiert bzw. subtrahiert, indem man die einzelnen
Koordinaten der Vektoren addiert bzw. subtrahiert.
𝑣1 𝑢1 𝑣1 + 𝑢1
v + u = (𝑣2 ) + (𝑢2 ) = (𝑣2 + 𝑢2 )
𝑣3 𝑢3 𝑣3 + 𝑢3
𝑣1 𝑢1 𝑣1 − 𝑢1
v – u = ( 2 ) – ( 2 ) = ( 2 − 𝑢2 )
𝑣 𝑢 𝑣
𝑣3 𝑢3 𝑣3 − 𝑢3
Gesetz Regel (Vektoren a, b, c)
Kommutativgesetz a+b=b+a
Assoziativgesetz a + (b + c) = (a + b) + c
Existenz des neutralen Elements 0 a+0=a
Existenz des inversen Elements –a a–a=0
o skalare Multiplikation und skalare Division von Vektoren:
Ein Vektor wird mit einem Wert t multipliziert, indem man die einzelnen Koordinaten
mit t multipliziert.
Ein Vektor wird durch einen Wert t dividiert, indem man die einzelnen Koordinaten
durch t dividiert.
𝑣1 𝑣1
1 1
t ∙ v = t ∙ (𝑣2 ) bzw. t ∙ v = t ∙ (𝑣2 )
𝑣3 𝑣3
Gesetz Regel (Vektoren a, b; Skalar r)
Assoziativgesetz r ∙ (s ∙ a) = (r ∙ s) ∙ a
Distributivgesetz (ausmultiplizieren) r ∙ (a + b) = r ∙ a + r ∙ b
Distributivgesetz (ausklammern) r ∙ a + r ∙ b = r ∙ (a + b)
, o inneres Produkt von Vektoren:
Als inneres Produkt bezeichnet man die Multiplikation eines Zeilenvektors mit einem
Spaltenvektor.
Zwei Vektoren sind orthogonal zueinander, wenn ihr inneres Produkt gleich 0 ist.
Wenn zusätzlich zu vTw = 0 auch vTv = wTw = 1 gilt, sind sie orthonormal zueinander.
𝑣T 𝑤 ∑𝑛𝑖=1 𝑣𝑖 𝑤𝑖
∙
(1𝑥𝑛) (𝑛𝑥1) =
(1𝑥1)
Beispiel:
4
vT = (1 2 3); w = (2); vT ∙ w = 1 ∙ 4 + 2 ∙ 2 + 3 ∙ 5 = 23
5
Rechenregeln für das innere Produkt (Vektoren u, v und w; Skalar c)
➢ vT ∙ w = wT ∙ v
➢ vT ∙ (w + u) = vT ∙ w + vT ∙ u
➢ (c ∙ v)T ∙ w = vT ∙ (c ∙ w) = c ∙ (vT ∙ w)
➢ vT ∙ v = ∑𝑛𝑖=1 𝑣𝑖 2 > 0 für v ≠ 0
➢ vT ∙ ϛ = ∑𝑛𝑖=1 𝑣𝑖 mit ϛ = entsprechender Einheitsvektor der Dimension n
Beispiel:
1
vT = (1 2 3); ϛ = (1)
1
vT ∙ ϛ = 1 + 2 + 3 = 6
➢ Winkel zwischen Vektoren
||vT ∙ w|| ||vT ∙ w||
cos(α) = ||v|| ∙||w|| =
√vT ∙ v ∙ √wT ∙ w
||vT ∙ w||
α = arccos( )
√ vT ∙ v ∙ √ w T ∙ w
Beispiel:
1 1
v = ( ); vT = (1 0); u = ( ); uT = (1 1)
0 1
T ( ) 1
v ∙ u = 1 0 ∙( )= 1
1
||v|| = √v T ∙ v = √12 + 02 = √1 = 1
||u|| = √uT ∙ u = √12 + 12 = √2
||vT ∙ w|| 1
α = arccos( ) = arccos(1 ∙ ) = 45°
√ vT ∙ v ∙ √ w T ∙ w √2
➢ lineare (Un-)Abhängigkeit von Vektoren
o Vektoren heißen linear unabhängig, wenn c1 ∙ v1 + c2 ∙ v2 + … + ck ∙ vk = 0
ausschließlich durch c1 = c2 = … = ck = 0 für c1, c2, …, ck ∈ erfüllbar ist.
Beispiel:
1 1
v1 = ( ); v2 = ( )
2 0
① c1 ∙ 1 + c2 ∙ 1 = 0
② c1 ∙ 2 + c2 ∙ 0 = 0
→ c1 = 0 → c2 = 0 → lineare unabhängig
, o Andernfalls heißen Vektoren linear abhängig. Dann gilt v1 = d2 ∙ v2 + … + dk ∙ vk mit
d2, …, dk ∈ .
Beispiel:
1 2
v1 = ( ); v2 = ( )
2 4
① c1 ∙ 1 + c2 ∙ 2 = 0
② c1 ∙ 2 + c2 ∙ 4 = 0
→ c1 = 2 → c2 = – 1 → lineare abhängig
➢ Geraden im n-dimensionalen Raum
Die Gerade L in n durch die zwei verschiedenen Punkte a und b ist die Menge aller
Punkte x mit: x = (1 – c) ∙ a + c ∙ b mit c ∈ .
Beispiel: Schnittpunkt mit x1-x2-Ebene
A⟨1|2|2⟩; B ⟨−1|−2|−1⟩ x3 = 0
x1 = (1 – c) ∙ 1 + c ∙ (– 1) = 1 – 2c 0 = 2 – 3c
x2 = (1 – c) ∙ 2 + c ∙ (– 2) = 2 – 4c c = 2/3
x3 = (1 – c) ∙ 2 + c ∙ (– 1) = 2 – 3c S = ⟨−1/3|−2/3|0⟩
➢ Vektorraum
In jedem Vektorraum V gibt es eine Maximalzahl m linear unabhängiger Vektoren, die
durch die Dimension bestimmt wird: dimV = m.
Jede Teilmenge B von m Vektoren eines Vektorraums, die linear unabhängig ist und den
gesamten Vektorraum aufspannt, ist eine Basis: B = {a1, a2, …, am} ⊂ m.
2. Matrizen
➢ Reiht man m Spaltenvektoren der Länge n nebeneinander bzw. n Zeilenvektoren der
Länge m untereinander, so ergibt sich eine Matrix der Dimension (n x m):
𝑎11 … 𝑎1𝑚
𝑨
=( ⋮ 𝑎𝑖𝑗 ⋮ )
(𝑛𝑥𝑚) 𝑎 … 𝑎𝑛𝑚
𝑛1
Die Zusammenfassung von (n x m) reellen Zahlen aij ∈ mit i = 1, …, n und j = 1, …, m
nennt man (n x m)-Matrix. Sie besitzt n Zeilen und m Spalten.
➢ Vektoren können unter dieser Definition als spezielle Matrizen aufgefasst werden.
o Zeilenvektor: (1 x m)-Matrix
o Spaltenvektor: (n x 1)-Matrix
o Skalar: (1 x 1)-Matrix
➢ Ordnungsrelationen für gleichdimensionale Matrizen
o A = B ↔ aij = bij für alle i = 1, …, n und j = 1, …, m
o A ≥ B ↔ aij ≥ bij für alle i = 1, …, n und j = 1, …, m
o A > B ↔ aij > bij für alle i = 1, …, n und j = 1, …, m
o A < B ↔ aij < bij für alle i = 1, …, n und j = 1, …, m
o A ≤ B ↔ aij ≤ bij für alle i = 1, …, n und j = 1, …, m
➢ Matrizenoperationen
o Multiplikation mit einem Skalar
C = k ∙ A ↔ cij = k ∙ aij für alle i und j
o Addition und Subtraktion von gleichdimensionalen Matrizen
C = A ± B ↔ cij = aij ± bij für alle i und j
, Gesetz Regel (Matrizen A, B, C; Skalar k)
Kommutativgesetz A+B=B+A
Assoziativgesetz A + (B + C) = (A + B) + C
Distributivgesetz k ∙ (A + B) = k ∙ A + k ∙ B
Existenz des neutralen Elements 0 A+0=A
Existenz des inversen Elements –a A–A=0
o Multiplikation von konformen Matrizen als Verallgemeinerung des inneren Produkts:
Das erste Element der ersten Zeile von C = A ∙ B ergibt sich aus dem inneren Produkt
der ersten Zeile von A und der ersten Spalte von B.
c11 = ∑𝑚𝑖=1 𝑎1𝑖 ∙ 𝑏𝑖1
allgemein:
ckl = ∑𝑚
𝑖=1 𝑎𝑘𝑖 ∙ 𝑏𝑖𝑙
Falksches Schema
Prämultiplikation von links
Achtung: i. d. R. kein Kommutativgesetz
C = A + B → D ∙ C = D ∙ (A + B)
Postmultiplikation von rechts
A∙B≠B∙A
C = A + B → C ∙ D = (A + B) ∙ D
, Gesetz Regel (Matrizen A, B, C)
Assoziativgesetz A ∙ (B ∙ C) = (A ∙ B) ∙ C
rechtsseitiges Distributivgesetz (A + B) ∙ C = A ∙ C + B ∙ C
linksseitiges Distributivgesetz A ∙ (B + C) = A ∙ B + A ∙ C
Beispiel:
𝑨 1 0 2
=( )
(2𝑥3) 2 2 3
𝑩 1 1
=( 2)
(3𝑥2) 0
1 3
𝑪 𝑨 𝑩 𝑫 𝑩 𝑨
= ∙ = ∙
(2𝑥2) (2𝑥3) (3𝑥2) (3𝑥3) (3𝑥2) (2𝑥3)
1 1
c11 = (1 1) ∙ ( ) = 1 + 2 = 3
c11 = (1 0 2) ∙ (0) = 1 + 0 + 2 = 3 2
1 0
c12 = (1 1) ∙ ( ) = 0 + 2 = 2
1 2
c12 = (1 0 2) ∙ (2) = 1 + 0 + 6 = 7 2
c13 = (1 1) ∙ ( ) = 2 + 3 = 5
3 3
1 1
c21 = (0 2) ∙ ( ) = 0 + 4 = 4
c21 = (2 2 3) ∙ (0) = 2 + 0 + 3 = 5 2
0
1 c22 = (0 2) ∙ ( ) = 0 + 4 = 4
1 2
2
c22 = (2 2 3) ∙ (2) = 2 + 4 + 9 = 15c23 = (0 2) ∙ ( ) = 0 + 6 = 6
3
3 1
c31 = (1 3) ∙ ( ) = 1 + 6 = 7
2
0
c32 = (1 3) ∙ ( ) = 0 + 6 = 6
2
2
c33 = (1 3) ∙ ( ) = 2 + 9 = 11
3
𝑪 𝑫 3 2 5
3 7
=( ) =( )
(2𝑥2) 5 15 (3𝑥3) 4 4 6
7 6 11
𝑪 𝑨 𝑩 𝑩 𝑨 𝑫
= ∙ ≠ ∙ =
(2𝑥2) (2𝑥3) (3𝑥2) (3𝑥2) (2𝑥3) (3𝑥3)
, Matrixmultiplikation mit Hilfe des Spaltenbilds:
𝑨 𝑩 𝑪
∙ =
(𝑚𝑥𝑛) (𝑛𝑥𝑝) (𝑚𝑥𝑝)
Die Spalten in C sind Linearkombinationen der Spalten in A mit Gewichten aus den
Spalten in B.
𝑨 2 −1
=( )
(2𝑥2) −1 2
𝑩 1 0
=( )
(2𝑥2) 2 1
𝑪 2 −1 2 −1 0 −1
= (( ) ∙ 1 + ( ) ∙ 2 ( ) ∙ 0 + ( ) ∙ 1) = ( )
(2𝑥2) −1 2 −1 2 3 2
Matrixmultiplikation mit Hilfe des Zeilenbilds:
𝑨 𝑩 𝑪
∙ =
(𝑚𝑥𝑛) (𝑛𝑥𝑝) (𝑚𝑥𝑝)
Die Zeilen in C sind Linearkombinationen der Zeilen in B mit Gewichten aus den
Zeilen in A.
𝑨 2 −1
=( )
(2𝑥2) −1 2
𝑩 1 0
=( )
(2𝑥2) 2 1
𝑪 (1 0) ∙ 2 + (2 1) ∙ (−1) 0 −1
=( ) =( )
(2𝑥2) (1 0) ∙ (−1) + (2 1) ∙ 2 3 2
o Potenz einer Matrix
An = A ∙ A ∙ … ∙ A ∙ A mit n > 0 Potenzierung von Produkten einer Matrix
(A ∙ B)2 ≠ A2 ∙ B2
(A ∙ B) ∙ (A ∙ B) ≠ A ∙ A ∙ B ∙ B
n-mal
A0 = I
➢ Transponieren einer Matrix
Beim Transponieren einer Matrix werden die Zeilen und Spalten vertauscht.
1 4
𝑨 𝑨𝑻 1 2 3
= (2 5); =( )
(3𝑥2) (2𝑥3) 4 5 6
3 6
allgemein:
𝑎11 … 𝑎1𝑚 𝑎11 … 𝑎𝑛1
𝑨 ⋮ 𝑎 ⋮ 𝑨𝑻
=( 𝑖𝑗 ); =( ⋮ 𝑎𝑖𝑗 ⋮ )
(𝑛𝑥𝑚) 𝑎 … 𝑎𝑛𝑚 (𝑚𝑥𝑛) 𝑎1𝑚 … 𝑎𝑛𝑚
𝑛1
Regeln beim Transponieren einer Matrix
(AT)T = A
(A + B)T = AT + BT
𝑪 (𝑨 ∙ 𝑩)𝐓 𝑩𝐓 𝑨𝐓
= = ∙
(𝑘𝑥𝑛) (𝑛𝑥𝑚)(𝑚𝑥𝑘) (𝑘𝑥𝑚) (𝑚𝑥𝑛)
➢ äußeres Produkt von Vektoren
𝑣1 𝑤1 … 𝑣1 𝑤𝑚 𝑣1 ∙ 𝑤 𝑇
𝑣 𝑤𝑇
( ⋮ ⋱ ⋮ ) = (𝑣 ∙ 𝑤1 … 𝑣 ∙ 𝑤𝑚 ) = ( ⋮ )
(𝑛𝑥1) ∙ (1𝑥𝑚) =
𝑣𝑛 𝑤1 … 𝑣𝑛 𝑤𝑚 𝑣𝑛 ∙ 𝑤 𝑇
,3. Eigenschaften besonderer Matrizen
➢ quadratische Matrizen
→ Anzahl der Zeilen = Anzahl der Spalten → (n x n)-Matrix
𝑎11 … 𝑎1𝑛
𝑨
=( ⋮ ⋱ ⋮ )
(𝑛𝑥𝑛)
𝑎𝑛1 … 𝑎𝑛𝑛
Beispiel:
𝑨 1 2 3
= (4 5 6 )
(3𝑥3)
7 8 9
➢ Null-Matrix
→ Matrix, bei der alle Elemente gleich 0 sind
0 … 0
0 =( ⋮ ⋱ ⋮)
0 … 0
A+0=A
A∙0=0
➢ Einheitsmatrix
→ quadratische Matrix, bei der alle Elemente der Hauptdiagonalen gleich 1 sind und alle
→ weiteren Elemente gleich 0 sind
1 0 … 0
𝑰𝒏 0 1 … 0
=( )
(𝑛𝑥𝑛) ⋮ ⋮ ⋱ ⋮
0 0 … 1
𝑨 𝑰 𝑨 𝑰 𝑨
∙ = = ∙
(𝑛𝑥𝑚) (𝑚𝑥𝑚) (𝑛𝑥𝑚) (𝑛𝑥𝑛) (𝑛𝑥𝑚)
Beispiel:
𝑰𝟑 1 0 0
= (0 1 0 )
(3𝑥3)
0 0 1
➢ symmetrische Matrizen
→ quadratische Matrix, die identisch zu ihrer Transponierten ist
𝑎11 𝑎12 𝑎1𝑛
𝑨
= ( 𝑎12 ⋱ 𝑎2𝑛 )
(𝑛𝑥𝑛)
𝑎1𝑛 𝑎2𝑛 𝑎𝑛𝑛
Beispiel:
1 2 7
𝑨 𝑨𝑻
= (2 3 5 ) =
(3𝑥3) (3𝑥3)
7 5 9
➢ Diagonalmatrizen
→ quadratische Matrix, deren Elemente außerhalb der Hauptdiagonalen gleich 0 sind
𝑑11 0 … 0
𝑫𝒏 0 𝑑22 … 0
=( )
(𝑛𝑥𝑛) ⋮ ⋮ ⋱ ⋮
0 0 … 𝑑𝑛𝑛 Um eine beliebige Matrix B
Beispiel: so umzuformen, dass sie
𝑫𝟑 1 0 0 symmetrisch ist, addiert man
= (0 2 0 ) sie zu ihrer Transponierten
(3𝑥3)
0 0 3 und dividiert durch zwei.
0,5 ∙ (B + BT)
,➢ Dreiecksmatrizen
→ quadratische Matrix, deren Elemente auf einer Seite der Hauptdiagonalen gleich 0
→ sind und auf der anderen Seite der Hauptdiagonalen von 0 verschieden sein können
untere Dreiecksmatrix obere Dreiecksmatrix
Beispiel: Beispiel:
𝑨 1 0 0 𝑩 1 2 7
=( ) =( )
(3𝑥3) 2 3 0 (3𝑥3) 0 3 4
7 4 9 0 0 9
➢ idempotente Matrizen
→ quadratische Matrix, für die A2 = A ∙ A = A gilt
Beispiel:
𝑨 2 −2 −4
= (−1 3 4)
(3𝑥3)
1 −2 −3
2 −2 −4 2 −2 −4 2 −2 −4
A2 = A ∙ A = (−1 3 4 ) ∙ (−1 3 4 ) = (−1 3 4 )=A
1 −2 −3 1 −2 −3 1 −2 −3
➢ Permutationsmatrix
→ Matrix, die bei Multiplikation die Spalten bzw. Zeilen einer Ausgangsmatrix vertauscht
Spaltentausch mit Hilfe des Spaltenbilds Zeilentausch mit Hilfe des Zeilenbilds
Ausgangsmatrix: Ausgangsmatrix:
𝑨 2 3 𝑨 2 3
=( ) =( )
(2𝑥2) 4 6 (2𝑥2) 4 6
Zielmatrix: Zielmatrix:
𝑩 3 2 𝑩 4 6
=( ) =( )
(2𝑥2) 6 4 (2𝑥2) 2 3
Permutationsmatrix: Permutationsmatrix:
𝑨 𝑩 𝑨 𝑩
∙( )= ( )∙ =
(2𝑥2) (2𝑥2) (2𝑥2) (2𝑥2)
2 3 0 1 3 2 0 1 2 3 4 6
( )∙( )=( ) ( )∙( )=( )
4 6 1 0 6 4 1 0 4 6 2 3
→ 0-mal die erste Spalte von A und 1-mal → 0-mal die erste Zeile von A und 1-mal
→ die zweite Spalte von A → die zweite Zeile von A
→ 1-mal die erste Spalte von A und 0-mal → 1-mal die erste Zeile von A und 0-mal
→ die zweite Spalte von A → die zweite Zeile von A
→ Postmultiplikation für Spaltentausch → Prämultiplikation für Zeilentausch
, 4. Invertieren einer Matrix
➢ Eigenschaft der Inversen einer Matrix: A ∙ A–1 = A–1 ∙ A = I
➢ A als quadratische Matrix aus Konformitätsgründen
➢ nicht jede quadratische Matrix besitzt eine Inverse
➢ jede Inverse ist stets eindeutig
➢ Eigenschaften invertierbarer Matrizen
o (A –1)–1 = A
o (A ∙ B)–1 = B–1 ∙ A–1
o (AT)–1 = (A–1)T
➢ Vergleich von regulären und singulären Matrizen
regulär bzw. nicht singulär nicht regulär bzw. singulär
- A ist invertierbar - A ist nicht invertierbar
- det(A) ≠ 0 - det(A) = 0
- Zeilen bzw. Spalten in A sind - Zeilen bzw. Spalten in A sind
- linear unabhängig - linear abhängig
- rg(A) = n - rg(A) = r mir r < n
- Ax = b besitzt genau eine - Ax = b besitzt unendlich viele
- Lösung: x* = A–1b - Lösungen oder keine Lösung
- Ax = 0 besitzt genau eine - Ax = 0 besitzt unendlich viele
- Lösung: x* = 0 - Lösungen
- Eigenwerte λi ≠ 0 - mindestens ein Eigenwert λj = 0
5. Determinante einer Matrix
➢ Berechnung nur für quadratisch Matrizen möglich
➢ Berechnung der Determinante einer (2 x 2)- Matrix
𝑨 𝑎11 𝑎12
= (𝑎 )
(2𝑥2) 21 𝑎22
det(A) = |A| = a11 ∙ a22 – a12 ∙ a21 („Produkt Hauptdiagonale – Produkt Nebendiagonale”)
Beispiel:
𝑨 2 4
=( )
(2𝑥2) 7 6
det(A) = |A| = 2 ∙ 6 – 4 ∙ 7 = – 16