読者です 読者をやめる 読者になる 読者になる

ばぐばぐわーるど

Pythonなどなど

対角化とかで使うP^-1APは何をやっているのか

対角化でとか使う P^{-1}APの解説です。
証明したからOKって終わってたり、謎の図で説明とかよくあるんですが、そういうのに納得がいかない人向けです。
例によって正しさは保証しません。定義とは違うことを言い切ってるため結構危険かもしれません。

最初に、そもそも各記号が何を表しているのかを確認しておくと、
A・・・表現行列
 P・・・基底の取り替え行列
です。

表現行列とは何か

表現行列はある基底のもとでの座標を、別のある基底のもとでの座標に変換するような行列です。
 
\left(
\begin{array}{r}
b_{1} \\
b_{2} \\
b_{3} 
\end{array}
\right)_\beta = A
\left(
\begin{array}{r}
a_{1} \\
a_{2} \\
a_{3}
\end{array}
\right)_\alpha
上の数式で言うとA(大きさ3×3)が表現行列になります。
そもそも座標っていうのは基底によってとる値が異なります。下に\alpha, \betaってついてるのは、それぞれの座標が基底が\alpha\betaに関してのものだよってことを強調してます。標準基底によるものではないってことです。

基底の取り替え行列とは何か

基底を取り替えてくれる行列です。そのまんまです。
例えば基底を次のようにすると
\alpha=\{\vec{\alpha_1},\vec{\alpha_2},\vec{\alpha_3}\}
\beta=\{\vec{\beta_1},\vec{\beta_2},\vec{\beta_3}\}
基底の取り替え行列は
 
\left(
\begin{array}{r}
\vec{\beta_{1}} ,
\vec{\beta_{2}} ,
\vec{\beta_{3}} 
\end{array}
\right) = 
\left(
\begin{array}{r}
\vec{\alpha_{1}} ,
\vec{\alpha_{2}} ,
\vec{\alpha_{3}} 
\end{array}
\right)P
のP(大きさ3×3)です。

で、このPなんですが真の目的はこういうことをするためにあります。
 
\left(
\begin{array}{r}
x_{1}\\
x_{2}\\
x_{3} 
\end{array}
\right)_\alpha = P
\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)_\beta
つまり表現行列と化します。
こういう操作でこの式は出せます。
 x_1\vec{\alpha _1}+x_2\vec{\alpha _2}+x_3\vec{\alpha _3}=x'_1\vec{\beta _1}+x'_2\vec{\beta _2}+x'_3\vec{\beta _3}
 (\vec{\alpha _1},\vec{\alpha _2},\vec{\alpha _3})\left(
\begin{array}{r}
x_{1}\\
x_{2}\\
x_{3} 
\end{array}
\right)=
(\vec{\beta _1},\vec{\beta _2},\vec{\beta _3})\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)
 (\vec{\alpha _1},\vec{\alpha _2},\vec{\alpha _3})\left(
\begin{array}{r}
x_{1}\\
x_{2}\\
x_{3} 
\end{array}
\right)=
\left(
\begin{array}{r}
\vec{\alpha_{1}} ,
\vec{\alpha_{2}} ,
\vec{\alpha_{3}} 
\end{array}
\right)P\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)
 \left(
\begin{array}{r}
x_{1}\\
x_{2}\\
x_{3} 
\end{array}
\right)=
P\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)
そして、基底を意識するとこうなります。
 
\left(
\begin{array}{r}
x_{1}\\
x_{2}\\
x_{3} 
\end{array}
\right)_\alpha = P
\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)_\beta
この基底の取り替え行列は表現行列として使えば、\alphaの元での座標を\betaの元での座標に変えてくれるってことです。

P^{-1}APとは何か

再び表現行列を考えてみます。
 
\left(
\begin{array}{r}
y_{1} \\
y_{2} \\
y_{3} 
\end{array}
\right)_\alpha = A
\left(
\begin{array}{r}
x_{1} \\
x_{2} \\
x_{3}
\end{array}
\right)_\alpha
よく見ると、今回は左辺の座標ベクトルと右辺の座標ベクトルの基底はどっちも \alphaになっています。
P^{-1}APはそういう条件であらわれます。
ここで基底の取り替え行列
 
\left(
\begin{array}{r}
\vec{\beta_{1}} ,
\vec{\beta_{2}} ,
\vec{\beta_{3}} 
\end{array}
\right) = 
\left(
\begin{array}{r}
\vec{\alpha_{1}} ,
\vec{\alpha_{2}} ,
\vec{\alpha_{3}} 
\end{array}
\right)P
として、左辺と右辺の座標ベクトルを基底\betaの元での座標に書きなおしてみましょうか。
 
P\left(
\begin{array}{r}
y'_{1} \\
y'_{2} \\
y'_{3} 
\end{array}
\right)_\beta = AP
\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)_\beta
両辺からP^{-1}をかけると・・・
 
\left(
\begin{array}{r}
y'_{1} \\
y'_{2} \\
y'_{3} 
\end{array}
\right)_\beta = P^{-1}AP
\left(
\begin{array}{r}
x'_{1} \\
x'_{2} \\
x'_{3}
\end{array}
\right)_\beta
無事、P^{-1}APがでました。
つまり、P^{-1}APとは表現行列に別の基底の座標を入れて使いたくなったときに、P^{-1}APとすると、みごと別の基底の座標が出力されるようにしてくれるものです。


ちなみに、
 
\left(
\begin{array}{r}
y_{1} \\
y_{2} \\
y_{3} 
\end{array}
\right)_\beta = A
\left(
\begin{array}{r}
x_{1} \\
x_{2} \\
x_{3}
\end{array}
\right)_\alpha
みたいに左右の基底がことなる表現行列の場合、
 
\left(
\begin{array}{r}
y'_{1} \\
y'_{2} \\
y'_{3} 
\end{array}
\right)_\gamma = Q^{-1}AP
\left(
\begin{array}{r}
x_{1} \\
x_{2} \\
x_{3}
\end{array}
\right)_\xi
みたいな形になります。やってることは同じなので意味はわかると思います。