F..5 線形同次方程式の解の1次独立性, Wronskianによる判定

(F.5) の解空間の次元は$ n$ であることを証明することが 大事な目標であるが、 まず1次独立性(線形独立性)の定義を想い出そう。

線形空間 $ X$ の要素 $ \varphi_1$, $ \cdots$, $ \varphi_n$が1次独立であるとは

$\displaystyle (\forall c_1,\cdots,c_n\in\mathbb{R})\quad \left[ c_1\varphi_1+\cdots+c_n \varphi_n=0\THEN c_1=\cdots=c_n=0 \right]$ (F.6)

が成り立つことをいう。

$ \bm{\varphi}_1$, $ \cdots$, $ \bm{\varphi}_n$ が 線形同次微分方程式 $ \bm{x}'(t)=A(t)\bm{x}(t)$ ($ t\in I$) の解である場合は、

$\displaystyle c_1\bm{\varphi}_1+\cdots+c_n \bm{\varphi}_n=\bm{0}
$

$\displaystyle (\forall t\in I)\quad c_1\bm{\varphi}_1(t)+\cdots+c_n\bm{\varphi}_n(t)=0$ (F.7)

を意味する。このことは容易に理解できるが、 この条件 (無限個の $ t$ について等式が成り立つ)を確認するのは、 一見してそれほど簡単でないように思われるかもしれない。 実は、 この後紹介する定理 F.3 によると、 線形同次微分方程式 $ \bm{x}'(t)=A(t)\bm{x}(t)$$ n$ 個の解 $ \bm{\varphi}_1$, $ \cdots$, $ \bm{\varphi}_n$ に対しては、 任意に選んだ1つの$ t_0\in I$ に対して

  $\displaystyle c_1\bm{\varphi}_1(t_0)+\cdots+c_n\bm{\varphi}_n(t_0)=\bm{0} \THEN c_1=\cdots=c_n=0$    
  ( $ \bm{\varphi}_1$, $ \cdots$, $ \bm{\varphi}_1$ $ \mathbb{R}^n$のベクトルとして1次独立)    

が成り立つことを確認すれば良い。


\begin{jdefinition}[Wronskian]
$I$は $\mathbb{R}$の区間、$A\colon I\to\mat...
...ski} 行列式}あるいは %
\textbf{Wronskian} と呼ぶ。
\end{jdefinition}


\begin{jtheorem}[Wronskianの満たす微分方程式]
$I$は $\mathbb{R}$の...
...nolimits A(s)\;\D s\right)
\quad\text{($t\in I$)}.
\end{equation}\end{jtheorem}

証明. (F.9) を証明しよう。 行列 $ \Phi(t)$ の第 $ (i,j)$ 成分を $ \varphi_{ji}(t)$ と表すことにする ($ i$ 番目の解であるベクトル値関数 $ \bm{\varphi}_i$ の第$ j$成分である -- $ \varphi_{ji}'(t)=\dsp\sum_{k=1}^n a_{jk}\varphi_{ki}$ ( $ 1\le j\le n$) が成り立つことに注意する)。

$\displaystyle W'(t)$ $\displaystyle =\frac{\D}{\D t} \left\vert \begin{matrix}\varphi_{11} & \varphi_...
...\\ \varphi_{11} & \varphi_{12} & \cdots & \varphi_{1n} \end{matrix} \right\vert$    
  $\displaystyle = \left\vert \begin{matrix}\varphi_{11}' & \varphi_{12}' & \cdots...
...\varphi_{1n}' & \varphi_{1n}' & \cdots & \varphi_{nn}' \end{matrix} \right\vert$    
  $\displaystyle =\left\vert \begin{matrix}\dsp\sum_{k=1}^n a_{1k}\varphi_{k1} & \...
...\\ \varphi_{n1} & \varphi_{n2} & \cdots & \varphi_{nn} \end{matrix} \right\vert$    
  $\displaystyle \qquad\qquad+\cdots +\left\vert \begin{matrix}\varphi_{11} & \var...
...phi_{k2} & \cdots & \dsp\sum_{k=1}^na_{nk}\varphi_{kn} \end{matrix} \right\vert$    
  $\displaystyle =\left\vert \begin{matrix}a_{11}\varphi_{11}&a_{11}\varphi_{12}&\...
...\\ \varphi_{n1} & \varphi_{n2} & \cdots & \varphi_{nn} \end{matrix} \right\vert$    
  $\displaystyle \qquad\qquad+\cdots +\left\vert \begin{matrix}\varphi_{11} & \var...
...n1} & a_{nn}\varphi_{n2} & \cdots & a_{nn}\varphi_{nn} \end{matrix} \right\vert$    
  $\displaystyle =\left(a_{11}+a_{22}+\cdots+a_{nn}\right) \left\vert\begin{matrix...
...\\ \varphi_{n1} & \varphi_{n2} & \cdots & \varphi_{nn} \end{matrix} \right\vert$    
  $\displaystyle =\mathop{\mathrm{tr}}\nolimits A(t) \cdot W(t).$    

(F.9) を解けば (G.3) が得られる。 $ \qedsymbol$ $ \qedsymbol$

この定理から $ W(t)$ について、

(a)
任意の $ t$ に対して $ W(t)=0$ であるか
(b)
任意の$ t$ に対して $ W(t)\ne 0$ であるか
どちらか一方のみが成り立つが成り立つことが分かる。 ゆえに、ある $ t_0\in I$に対して、 $ \bm{\varphi}_1(t_0)$, $ \cdots$, $ \bm{\varphi}_n(t_0)$ $ \mathbb{R}^n$ の1次独立なベクトルならば、

$\displaystyle W(t_0)\ne 0.
$

(a) が成り立たないので、(b) が成り立つ。すなわち任意の $ t\in I$ に対して

$\displaystyle W(t)\ne 0.
$

これは $ \bm{\varphi}_1(t)$, $ \cdots$, $ \bm{\varphi}_n(t)$ $ \mathbb{R}^n$ の1次独立なベクトルであることを意味する。



Subsections
桂田 祐史