Vektorräume
Theorie zu Vektoren, Vektorräumen, Skalarprodukten, Geraden, linearer Abhängigkeit, Basen, Orthogonalität, Projektionen, Winkeln und Vektorprodukt.
1. Vektoren und Kräfte
Definition. Ein Vektor ist ein gerichteter Größenvektor mit Betrag und Richtung:
\[
\vec{v} = \begin{pmatrix}v_1 \\ v_2 \\ v_3\end{pmatrix} \in \mathbb{R}^3.
\]
Kräfte in der Physik können als Vektoren dargestellt werden.
Beispiel: Eine Kraft von 10 N in Richtung der x-Achse:
\(\vec{F} = \begin{pmatrix}10 \\ 0 \\ 0\end{pmatrix}\).
2. Vektorräume
Ein
Vektorraum \(V\) über einem Körper \(K\) erfüllt:
- Abgeschlossenheit unter Addition: \(\vec{u}, \vec{v} \in V \Rightarrow \vec{u}+\vec{v} \in V\)
- Abgeschlossenheit unter Skalarmultiplikation: \(\lambda\in K, \vec{v}\in V \Rightarrow \lambda \vec{v} \in V\)
- Existenz eines Nullvektors \(0 \in V\)
- Existenz inverser Vektoren: \(\forall \vec{v}\in V, -\vec{v} \in V\)
3. Skalarprodukt
Für \(\vec{u},\vec{v}\in\mathbb{R}^n\) definiert:
\[
\langle \vec{v} | \vec{u} \rangle = \sum_{i=1}^n v_i u_i
\]
Eigenschaften:
- Kommutativ: \(\langle \vec{v} | \vec{u} \rangle = \langle \vec{u} | \vec{v} \rangle\)
- Linearität: \(\langle \lambda \vec{v} + \mu \vec{w} | \vec{u} \rangle = \lambda \langle \vec{v} | \vec{u} \rangle + \mu \langle \vec{w} | \vec{u} \rangle\)
- Positiv definit: \(\langle \vec{v} | \vec{v} \rangle \ge 0\), Gleichheit nur für \(\vec{v}=0\)
Beispiel:
\(\vec{u} = \begin{pmatrix}1\\2\\3\end{pmatrix}, \vec{v} = \begin{pmatrix}4\\-1\\2\end{pmatrix} \Rightarrow
\langle \vec{v} | \vec{u} \rangle = 4*1 + (-1)*2 + 2*3 = 8
\)
4. Geraden und Linien
Eine Gerade durch Punkt \(\vec{p}\) in Richtung \(\vec{v}\):
\[
\vec{x} = \vec{p} + t \vec{v}, \quad t \in \mathbb{R}.
\]
Gerade durch \((1,2,0)\) in Richtung \((1,1,0)\):
\[
\vec{x} = \begin{pmatrix}1\\2\\0\end{pmatrix} + t \begin{pmatrix}1\\1\\0\end{pmatrix}.
\]
5. Lineare Abhängigkeit
Vektoren \(\vec{v}_1,\dots,\vec{v}_n\) sind linear abhängig, wenn es nicht-triviale \(\lambda_i\) gibt:
\[
\sum_{i=1}^n \lambda_i \vec{v}_i = 0, \quad \exists i: \lambda_i \neq 0.
\]
Andernfalls linear unabhängig.
\(\vec{v}_1 = (1,0,0), \vec{v}_2 = (2,0,0)\) → linear abhängig, da \(-2\vec{v}_1 + \vec{v}_2 = 0\).
6. Basen
Eine Basis \(\mathcal{B} = (\vec{b}_1,\dots,\vec{b}_n)\) eines Vektorraums \(V\) erfüllt:
- linear unabhängig
- spannen \(V\) auf
Jeder Vektor \(\vec{v}\in V\) lässt sich eindeutig darstellen:
\[
\vec{v} = a_1 \vec{b}_1 + \dots + a_n \vec{b}_n.
\]
7. Orthogonalität
Vektoren \(\vec{u},\vec{v}\) heißen orthogonal, falls
\(\langle \vec{v} | \vec{u} \rangle = 0\).
8. Projektion
Projektion von \(\vec{u}\) auf \(\vec{v}\):
\[
\mathrm{proj}_{\vec{v}} \vec{u} = \frac{\langle \vec{v} | \vec{u} \rangle}{\langle \vec{v} | \vec{v} \rangle} \vec{v}.
\]
9. Winkel zwischen Vektoren
Winkel \(\theta\) zwischen \(\vec{u},\vec{v}\):
\[
\cos\theta = \frac{\langle \vec{v} | \vec{u} \rangle}{\|\vec{v}\|\|\vec{u}\|}.
\]
10. Vektorprodukt
Für \(\vec{u},\vec{v}\in\mathbb{R}^3\):
\[
\vec{u}\times \vec{v} =
\begin{pmatrix} u_2v_3-u_3v_2 \\ u_3v_1-u_1v_3 \\ u_1v_2-u_2v_1 \end{pmatrix}.
\]
\(\vec{u}\times \vec{v}\) ist orthogonal zu \(\vec{u}\) und \(\vec{v}\), Betrag: \(\|\vec{u}\times \vec{v}\| = \|\vec{u}\|\|\vec{v}\|\sin\theta\).
\(\vec{u}=(1,0,0), \vec{v}=(0,1,0) \Rightarrow \vec{u}\times \vec{v} = (0,0,1)\)
PDF Übungen
Blatt 1
Blatt 2