Diagonalization#

У диагональной матрицы \(\boldsymbol \Lambda = \mathrm{diag}\{\lambda_1, \ldots, \lambda_n\}\) всё просто с собственными числами и векторами. На главной диагонали у неё стоят собственные значения, а собственные векторы — это векторы из стандартного базиса в \(\mathbb R^n\):

\[ \boldsymbol \Lambda e_i = \lambda_i \boldsymbol e_i, \quad i = 1, \ldots, n. \]

Если матрицу \(\boldsymbol A \in\mathbb R^{n\times n}\) можно привести к диагональному виду преобразованием подобия, то она называется диагонализируемой. Диагонализация матрицы эквивалентна наличию базиса из собственных векторов.

Теорема. Если у матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\) есть \(n\) линейно независимых собственных векторов \(\boldsymbol x_1, \ldots, \boldsymbol x_n\), то матрица \(\boldsymbol X = [\boldsymbol x_1 \ldots \boldsymbol x_n]\) диагонализирует матрицу \(\boldsymbol A\):

(41)#\[ \boldsymbol X^{-1} \boldsymbol A \boldsymbol X = \boldsymbol\Lambda = \mathrm{diag} \{\lambda_1, \ldots, \lambda_n\}.\]

Матрица \(\boldsymbol A\) имеет простой спектр, если

\[ \mathrm{spec}(\boldsymbol A) = \{\lambda_1, \ldots, \lambda_n\}, \]

т.е. \(\mu_{\boldsymbol A}(\lambda) = 1\) для всех \(\lambda \in \mathrm{spec}(\boldsymbol A)\).

Диагонализируемость матрицы с простым спектром вытекает из следующего утверждения.

Лемма. Пусть \(\lambda_1, \ldots, \lambda_m\) — различные собственные значения матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\), и \(\boldsymbol A\boldsymbol x_k = \lambda_k\boldsymbol x_k\), \(k=1,\ldots, m\). Тогда собственные векторы \(\boldsymbol x_1, \ldots,\boldsymbol x_m\) линейно независимы.

Применяя лемму к матрице \(\boldsymbol A \in \mathbb R^{n\times n}\) с простым спектром, заключаем, что у неё есть \(n\) линейно независимых собственных векторов \(\boldsymbol x_1, \ldots,\boldsymbol x_n\), которые и образуют собственный базис. Следовательно, матрица \(\boldsymbol A\) диагонализируема.

Ну а что насчёт диагонализируемости, если спектр не простой? Бывает по-разному. Например, у единичной матрицы спектр отнюдь не простой (все \(\lambda = 1\)), однако, она уже диагональна. А вот у матрицы

(43)#\[\begin{split}\boldsymbol A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \\ \end{pmatrix}\end{split}\]

есть одно собственное значение \(\lambda = 1\) кратности \(2\), но у него можно найти только один линейно независимый собственный вектор \((1, 0)\). Собственного базиса не построишь, матрица не диагонализируема.

When diagonalization is impossible#

В общем случае собственный базис и диагонализируемость матрицы \(\boldsymbol A \in \mathbb R^{n\times n}\) могут отсутствовать по двум причинам:

  1. не хватает собственных значений:

    \[ \sum \limits_{ \lambda \in \mathrm{spec}(\boldsymbol A)}\mu_{\boldsymbol A}(\lambda) < n; \]
  2. не хватает собственных векторов:

    \[ \gamma_{\boldsymbol A}(\lambda) < \mu_{\boldsymbol A}(\lambda) \text{ для некоторого }\lambda \in \mathrm{spec}(\boldsymbol A). \]

Первая причина снова приводит нас к вопросу о поле скаляров \(F\) векторного пространства. Если \(F = \mathbb C\), то проблем нет: по основной теореме алгебры суммарная алгебраическая кратность собственных чисел всегда равна \(n\). А вот дефолтное поле \(F=\mathbb R\) не гарантирует наличие у матрицы полного набора собственных значений из этого поля. Ну а если не хватает собственных значений, то собственных векторов для построения собственного базиса и подавно не хватит.

Как видно из предыдущего примера, поле скаляров существенно влияет на принципиальную возможность диагонализации матрицы. По этой причине часто говорят о «диагонализации над полем \(F\)». По умолчанию подразумевается, что \(F = \mathbb R\), так что просто «диагонализация» — это диагонализация над \(\mathbb R\).

Но даже если собственных значений достаточно, возможно другое препятствие: для некоторого собственного значения не хватает линейно независимых собственных векторов. В таком случае собственного базиса также не получится. Простейший пример — матрица (43).

Criterion of diagonalizability#

Если же у матрицы нет проблем 1 и 2, то она диагонализируема.

Теорема. Матрица \(\boldsymbol A \in \mathbb R^{n\times n}\) диагонализируема, если

\[ \sum \limits_{ \lambda \in \mathrm{spec}(\boldsymbol A)}\mu_{\boldsymbol A}(\lambda) = n \]

и \(\gamma_{\boldsymbol A}(\lambda) = \mu_{\boldsymbol A}(\lambda)\) для всех \(\lambda \in \mathrm{spec}(\boldsymbol A)\).

Обратное утверждение тоже верно, поэтому данная теорема представляет собой критерий диагонализируемости матрицы.

Spectral theorem#

Если матрица симметричная, то все проблемы с комплексными собственными значениями улетучиваются.

Теорема. Если \(\boldsymbol A^\top = \boldsymbol A\) и \(\lambda\in\mathrm{spec}(\boldsymbol A)\), то \(\lambda \in \mathbb R\).

Итак, всякая симметричная матрица имеет \(n\) действительных собственных значений (с учётом кратности). Этим замечательные свойства собственных чисел и векторов таких матриц не исчерпываются. Оказывается, что любые два собственных вектора симметричной матрицы, отвечающие разным собственным значениям, ортогональны.

Теорема. Если \(\boldsymbol A^\top = \boldsymbol A\), \(\boldsymbol {Ax} = \lambda \boldsymbol x\), \(\boldsymbol {Ay} = \mu \boldsymbol y\), \(\lambda \ne \mu\), то \(\boldsymbol x^\top\boldsymbol y = 0\).

Как мы помним, матрица с простым спектром всегда может быть диагонализирована. Из предыдущей теоремы следует, что если матрица вдобавок ещё и симметрична, то у неё существует ортнонормированный собственный базис.

Theorem (spectral)

Если симметричная матрица \(\boldsymbol A\) имеет простой спектр

\[ \mathrm{spec}(\boldsymbol A) = \{\lambda_1, \ldots, \lambda_n\}, \]

то существует такая ортогональная матрица \(\boldsymbol Q\), что

\[ \boldsymbol Q^\top\boldsymbol{AQ} = \boldsymbol \Lambda = \mathrm{diag}\{\lambda_1, \ldots, \lambda_n\}. \]

Верна ли спектральная теорема для всех симметричных матриц, не обязательно с простым спектром? Оказывается, да! Один из способов это доказать — воспользоваться разложением Шура.

Теорема (разложение Шура). Всякая квадратная матрица \(\boldsymbol A\) может быть представлена в виде

(44)#\[ \boldsymbol A = \boldsymbol{QU}\boldsymbol Q^{-1},\]

где матрица \(\boldsymbol Q\) унитарная, а матрица \(\boldsymbol U\) — верхняя треугольная.

Если все собственные значения матрицы \(\boldsymbol A\) действительные, то все матрицы в разложении (44) можно выбрать вещественными, и тогда матрица \(\boldsymbol Q\) ортогональная.

Если \(\boldsymbol A = \boldsymbol A^\top\), то из раложения (44) получаем

\[ \boldsymbol U = \boldsymbol Q^\top \boldsymbol{AQ} \Rightarrow \boldsymbol U^\top = \boldsymbol{Q}^\top\boldsymbol {AQ} = \boldsymbol U^\top. \]

Таким образом, верхняя треугольная матрица \(\boldsymbol U\) симметрична и, стало быть, диагональна. Значит, разложение (44) и есть диагонализация симметричной матрицы \(\boldsymbol A\).