Man kann zur Lösung von Problemen der linearen Algebra unterschiedliche Basen verwenden, so dass man oft von einer Basis zur anderen übergeht. Da Basen verallgemeinterte Koordinatensysteme sind entspricht dieses Vorgehen Koordinatentransformationen. Im weiteren untersuchen wir, wie sich derartige Basiswechsel durch Matrizen realisieren lassen. Dabei stossen wir auf quadratische Matrizen mit orthogonalen Spaltenvektoren
Eine Matrix mit der Eigenschaft
A−1=AT
heisst orthogonal.
Es folgt:
ATA=AAT=I
A=(372767−6737272767−37) ist orthogonal, weil
ATA=(37−67272737676727−37)(372767−6737272767−37)=(100010001)
Eine Rotation in R2 um einen Winkel ϕ gegen den Uhrzeigersinn wird beschrieben mit
A=(cos(ϕ)−sin(ϕ)sin(ϕ)cos(ϕ))
ge
Diese Matrix ist orthogonal für jedes ϕ
ATA=(cos(ϕ)sin(ϕ)−sin(ϕ)cos(ϕ))(cos(ϕ)−sin(ϕ)sin(ϕ)cos(ϕ))=(1001)
Eine genauere Betrachtung zeigt, dass die Spaltenvektoren orthonormal sind.
Für eine (n,n)-Matrix A sind die folgenden Aussagen äquivalent
a) A ist orthogonal
b) Die Zeilenvektoren sind orthonormal bezüglich des inneren Skalarprodukts Rn
c) Die Spaltenvektoren sind orthonormal bezüglich des inneren Skalarprodukts Rn
a) Die Inverse einer orthogonalen Matrix ist orthogonal.
b) Produkt orthogonaler Matrizen ist orthogonal
d) Für eine orthogonale Matrix gilt |det(A)|=1
Beweis Übungen
Für eine (n,n)-Matrix A sind die folgenden Aussagen äquivalent
a) A ist orthogonal
b) ‖ für alle x \in \mathbb{R}^n
c) A x \cdot A y = x \cdot y für alle x,y \in \mathbb{R}^n
Eine lineare Abbildung T:\mathbb{R}^n \to \mathbb{R}^n mit einer orthogonalen Matrix heisst orthogonaler Operator. Nach obigem Satz ist ein Operator genau dann orthogonal, wenn er alle Vektornormen invariant lässt.
Seien B und B^{\prime} zwei Basen eines Vektorraums V. Welcher Zusammenhang besteht zwischen den Koordinatenmatrizen [v]_{B} und [v]_{B^{\prime}} eines Vektors v \in V
Seien B = \left\{ \vec{u_1},\vec{u_2}\right\} und B^{\prime} = \left\{ \vec{u_1^{\prime}},\vec{u_2^{\prime}} \right\} zwei Basen.
sowie
\begin{bmatrix} \vec{u_1^{\prime}} \end{bmatrix}_B = \begin{pmatrix}a\\b\end{pmatrix}, \begin{bmatrix} \vec{u_2^{\prime}} \end{bmatrix}_B = \begin{pmatrix}c\\d\end{pmatrix}
also
\vec{u_1^{\prime}} = a \vec{u_1} + b \vec{u_2}\\ \vec{u_2^{\prime}} = c \vec{u_1} + d \vec{u_2}
Ein Vektor \vec{v} hat bezüglich der Basis B^{\prime} die Koordinaten
\begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}} = \begin{pmatrix}v_1\\v_2\end{pmatrix}
das entspricht der Linearkombination
\vec{v} = v_1 \vec{u_1^{\prime}} + v_2 \vec{u_1^{\prime}}
mit den anderen Basisvektoren
\begin{align} \vec{v} &= v_1 (a \vec{u_1} + b \vec{u_2}) + v_2 (c \vec{u_1} + d \vec{u_2}) \\ \vec{v} &= (v_1 a + v_2 c) \vec{u_1} + (v_1 b + v_2 d) \vec{u_2} \end{align}
Die Koordinaten von \vec{v} bezüglich der Basis B
\begin{bmatrix} \vec{v} \end{bmatrix}_{B} = \begin{pmatrix}v_1 a + v_2 b\\v_1 b+ v_2 d\end{pmatrix}
lässt sich als Produkt schreiben
\begin{bmatrix} \vec{v} \end{bmatrix}_{B} = \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{pmatrix} v_1\\ v_2 \end{pmatrix}
also
\begin{bmatrix} \vec{v} \end{bmatrix}_{B} = \begin{pmatrix} a & c \\ b & d \end{pmatrix} \begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}}
Seien B = \left\{ \vec{u_1},\vec{u_2},\cdots,\vec{u_n}\right\} und B^{\prime} = \left\{ \vec{u_1^{\prime}},\vec{u_2^{\prime}},\cdots, \vec{u_n^{\prime}}\right\} Basen eines Vektorraums V.
Dann gilt für die Koordinaten \begin{bmatrix} \vec{v} \end{bmatrix}_{B} und \begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}} eines Vektors \vec{v} \in V
\begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}} = A \begin{bmatrix} \vec{v} \end{bmatrix}_{B}
wobei A eine (n,n)-Matrix ist und aus den Spalten
\begin{bmatrix} \vec{u_1^{\prime}} \end{bmatrix}_{B}, \begin{bmatrix} \vec{u_2^{\prime}} \end{bmatrix}_{B}, \cdots , \begin{bmatrix} \vec{u_n^{\prime}} \end{bmatrix}_{B},
besteht.
Seien B = \left\{ \vec{u_1},\vec{u_2}\right\} und B^{\prime} = \left\{ \vec{u_1^{\prime}},\vec{u_2^{\prime}} \right\} zwei Basen.
mit
\vec{u_1}=\begin{pmatrix} 1 \\ 0 \end{pmatrix},\vec{u_2}=\begin{pmatrix} 0 \\ 1 \end{pmatrix} \\ \vec{u_1^{\prime}}=\begin{pmatrix} 1 \\ 1 \end{pmatrix},\vec{u_2^{\prime}}=\begin{pmatrix} 2 \\ 1 \end{pmatrix}
Gesucht der Matrixübergang B^{\prime} nach B und \begin{bmatrix} \vec{v} \end{bmatrix}_{B} für \begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}} = \begin{pmatrix} -3 \\ 5 \end{pmatrix}
weil
\begin{bmatrix} u_1^{\prime}\end{bmatrix}_{B} = \begin{pmatrix} 1 \\ 1 \end{pmatrix}, \begin{bmatrix} u_2^{\prime}\end{bmatrix}_{B} = \begin{pmatrix} 2 \\ 1 \end{pmatrix}
ist
A = \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix}
Die Übergangsmatrix von B^{\prime} nach B
\begin{bmatrix} \vec{v} \end{bmatrix}_{B^{\prime}} = \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} -3 \\ 5 \end{pmatrix} = \begin{pmatrix} 7 \\ 2 \end{pmatrix}
Satz: Für die Übergangsmatrix A von B^{\prime} nach B gilt:
Satz: Seien B^{\prime} nach B Orthonormalbasen eines n-dimensionalen Vektorraums V mit Skalarprodukt. Dann ist die Übergangsmatrix A von B^{\prime} nach B orthogonal, das heisst:
A^{-1}= A^T
Wir betrachten ein rechtwinkliges x,y-Koordinatensystem in der Ebene, das durch eine Drehung um den Winkel \Theta in ein x^{\prime},y^{\prime}-System übergeht.
Jeder Punkt Q hat dann Koordinaten (x,y) im x,y-System sowie Koordinaten in (x^{\prime},y^{\prime}) im x^{\prime},y^{\prime}-System.
Sind u_1,u_2,u_1^{\prime},u_2^{\prime} in Richtung der positiven Koordiantenachsen (Fig. b), so entspricht die Rotation des Koordinatensystems einem Basiswechsel von B=\{ u_1,u_2\} zu B^{\prime}=\{ u_1^{\prime},u_2^{\prime}\}. Wir erhalten für die Koordinaten von Q
\begin{pmatrix} x^{\prime} \\ y^{\prime} \end{pmatrix} = A^{-1} \begin{pmatrix} x \\ y \end{pmatrix}
wobei A die Übergangsmatrix von B^{\prime} nach B ist.
Die Koordinaten von u_1^{\prime},u_2^{\prime} bezüglich der Basis B \begin{bmatrix} u_1^{\prime} \end{bmatrix}_{B} = \begin{pmatrix} \cos(\Theta) \\ \sin(\Theta) \end{pmatrix}\\ \begin{bmatrix} u_2^{\prime} \end{bmatrix}_{B} = \begin{pmatrix} -\sin(\Theta) \\ \cos(\Theta) \end{pmatrix}
A = \begin{pmatrix} \cos(\Theta) & -\sin(\Theta) \\ \sin(\Theta) & \cos(\Theta) \end{pmatrix}
ist orthogonal
A^{-1}= A^T = \begin{pmatrix} \cos(\Theta) & \sin(\Theta) \\ -\sin(\Theta) & \cos(\Theta) \end{pmatrix}
\begin{pmatrix} x^{\prime} \\ y^{\prime} \end{pmatrix} = \begin{pmatrix} \cos(\Theta) & \sin(\Theta) \\ -\sin(\Theta) & \cos(\Theta) \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}
Zeige dass A orthogonal ist mit
A = \begin{pmatrix} \frac{4}{5} & 0& -\frac{3}{5}\\ -\frac{9}{25} & \frac{4}{5} & -\frac{12}{25}\\ \frac{12}{25} & \frac{3}{25}& \frac{16}{25}\end{pmatrix}