線型写像とは何か──定義・性質・行列表示・IT応用を深掘り

導入:線型写像(線形変換)とは

線型写像(線形変換、linear map / linear transformation)は、線形代数学の中心的な概念であり、数学だけでなくITの多くの分野で基礎的に使われます。ベクトル空間VからWへの写像f: V → Wが、ベクトルの和とスカラー倍に関して次を満たすとき線型写像と呼びます。

f(u+v)=f(u)+f(v)、および f(αu)=αf(u)(任意のベクトルu,vとスカラーαについて)。この性質により、線型写像はベクトル空間の構造を保つ「構造保存写像」と見なせます。

基本的な性質:核(カーネル)と像(イメージ)

線型写像f: V → Wに対して定義される重要な部分空間は次の2つです。

  • 核(kernel, Ker f): Ker f = {v ∈ V | f(v)=0}。線型写像によって0に写される全ての元の集合で、Vの部分空間です。
  • 像(image, Im f): Im f = {w ∈ W | あるv∈Vで f(v)=w}。写像が到達する値の集合で、Wの部分空間です。

これらは線型写像の構造を理解するための基本指標です。特に次の「ランク・ヌルリティの定理(rank–nullity theorem)」が基本です。

Vが有限次元であるとき、dim V = dim Ker f + dim Im f(次元はそれぞれヌルリティ(nullity)とランク(rank))。これは写像がどれだけ情報を失うか(Ker)とどれだけ出力空間に広がりを持つか(Im)を定量化します。

行列表示と基底の関係

有限次元ベクトル空間では、線型写像は行列で表現できます。Vの基底を(v1,…,vn)、Wの基底を(w1,…,wm)とすると、f(vj)をW基底で展開した係数を列に並べることでm×n行列Aが得られ、任意の入力ベクトルの座標ベクトルxに対して出力座標はAxになります。

注意点は基底依存性です。同じ線型写像でも基底を変えれば行列表示は変換されます。基底変換は類似変換(正確には適切な左・右乗)で表現され、同じ線型作用素の異なる表現が得られます。特にV=Wで同じ基底をとる自己作用素の場合、基底変換はA ↦ P^{-1}APの形になります。

可逆性・像と核の関係

線型写像f: V → Wが可逆(逆写像f^{-1}が存在)であるための条件は、fが全単射であること、つまり単射(Ker f = {0})かつ全射(Im f = W)であることです。有限次元でdim V = dim W のとき、単射であることは全射に同値で、よってKer f = {0} ⇔ fは可逆(行列では正則⇔det≠0)です。

固有値・固有ベクトル、対角化

自己作用素(V→V)について、スカラーλと非零ベクトルvで f(v)=λv を満たすものを固有値と固有ベクトルと言います。固有ベクトルは作用素の「固有の伸縮・向き」を示します。行列が各固有ベクトルからなる基底に対して対角行列に変わる場合、行列は対角化可能と言います。

対角化は解析と計算の両面で非常に有用ですが、必ずしも可能ではありません(代数的重複度と幾何的重複度の差やジョルダン標準形の存在が関連します)。そのため代替として特異値分解(SVD)やジョルダン分解が使われます。

特異値分解(SVD)と擬似逆(Moore–Penrose逆行列)

実数行列A(m×n)に対して、A=UΣV^Tという特異値分解が常に存在します(Uはm×m直交行列、Vはn×n直交行列、Σは対角に非負の特異値σ_iを並べたm×n行列)。SVDは行列のランク、範囲、核を明示的に示し、ノイズ耐性の高い低ランク近似(トランケーション)を可能にします。

またSVDを用いて定義されるMoore–Penrose擬似逆A^+は、過剰決定または不足決定系の最小二乗解や最小ノルム解を与えます。IT応用では回帰や推薦、次元削減で頻繁に用いられます。

線型写像の合成と行列積

2つの線型写像f: U → V, g: V → Wの合成g∘f: U → Wも線型写像です。この合成は対応する行列の積に対応します。合成の可換性は一般に成り立たず、順序が重要です(行列積は非可換)。

数値的観点:安定性・条件数

実装面では、浮動小数点誤差やアルゴリズムの安定性が問題になります。行列Aの条件数 cond(A)=σ_max/σ_min(2-ノルムに対する定義)は、線型系Ax=bの解の感度を示します。条件数が大きい場合、小さな入力の誤差が解に大きな誤差をもたらすので、数値解法では正則化や別のアルゴリズム(SVDベースなど)を検討します。

ITでの具体的応用例

  • コンピュータ・グラフィックス: 3D空間の回転、拡大縮小、平行移動(同次座標系で線形部分とアフィン変換)はすべて行列による線型写像で表されます。行列の合成で複雑な変換を一度に適用できます。
  • 機械学習とデータ解析: 線型回帰、線形分類器、ニューラルネットワークの線形層はすべて線型写像を基本単位とします。主成分分析(PCA)は共分散行列の固有ベクトルを用いる線型次元削減手法で、SVDによって効率的に実装されます。
  • 信号処理と特徴変換: フーリエ変換や離散コサイン変換は線型写像として扱えます。畳み込みやフィルタリングも線型演算(線形時不変系)に帰着します。
  • データベースと情報検索: 埋め込み(word2vecや他の線形埋め込み)や潜在意味解析(LSA。SVDベース)は文書や単語を低次元線型空間に写す手法です。
  • 符号理論・暗号: 線形符号(例:Hamming符号)は有限体上の線型部分空間を使います。線形代数はエラー検出・訂正の理論的基盤です(暗号でも線形近似攻撃など線形性に基づく分析が存在します)。

理論的発展と無限次元の場合

線型写像の理論は無限次元(関数空間、ヒルベルト空間、バナッハ空間)にも拡張され、作用素論という分野になります。ヒルベルト空間上の有界線型作用素はスペクトル分解や固有値理論を持ち、量子力学や信号処理の数学的基盤となります。ただし無限次元では可換性、スペクトルの性質、対角化の可否など有限次元とは異なる注意点が多数あります。

実装とアルゴリズム

  • 連立一次方程式の解法:ガウス消去法、LU分解、QR分解など。
  • 固有値問題:QR法、冪法(power method)、Lanczos法(疎行列向け)など。
  • SVD計算:完全分解は高コストだが、トランケートSVDやランダム化SVD(ランダム射影を用いる近似)は大規模データに有効。
  • 擬似逆と正則化:Tikhonov正則化(リッジ回帰)は条件数悪化に対する対策。

設計上の注意点とベストプラクティス

  • 問題分解:可能ならば線型部分を明示的に切り出すと解析・最適化が容易になる。
  • 数値安定性:直交化(QR分解)やSVDを使って悪条件を回避する。
  • 次元削減:PCAやランダム射影で高次元データの扱いを効率化する。
  • 基底選択:計算効率や解の解釈性に影響するため、適切な基底(例えば直交基底)を選ぶ。

まとめ

線型写像は数学的に単純でありながら、IT分野では非常に広範な応用を持つ基礎概念です。定義・核と像・行列表示・ランク・固有値・SVD・条件数などを理解することで、アルゴリズム設計や数値実装、機械学習モデルの解釈に強力な道具が手に入ります。実問題では数値安定性やスケールの問題が出るため、理論と実装の両面から適切なアルゴリズム選択が重要です。

参考文献