次元削減とは?PCA・t-SNE・UMAPほか主要手法の特徴と実務での選び方ガイド
次元削減とは — 概要
次元削減(じげんさくげん、Dimensionality Reduction)は、多次元データをより少ない次元の表現に変換する技術の総称です。高次元データ(特徴量が多数存在するデータ)は、計算コストや過学習、データの疎さ(curse of dimensionality)などの問題を引き起こします。次元削減は、情報の損失を最小限にしつつデータの本質的な構造やパターンを低次元に写すことを目的とします。
なぜ次元削減が重要か
- 可視化:2次元や3次元に投影することでデータのクラスタ構造や外れ値を直感的に把握できる。
- 計算効率の改善:モデル学習や検索の高速化、メモリ削減に寄与する。
- ノイズ除去・特徴抽出:冗長な特徴やノイズを除き、より堅牢な特徴表現を得る。
- 過学習対策:次元を減らすことでモデルの自由度を制限し、汎化性能を改善する場合がある。
- データ圧縮:情報を圧縮して保存・伝送する際に有効。
次元削減の大分類
次元削減手法は大きく分けて「線形手法」と「非線形手法(マンifold学習含む)」、および「特徴選択(feature selection)」と「特徴抽出(feature extraction)」に分けられます。特徴選択は元の特徴の一部を選ぶ手法、特徴抽出は新たな低次元空間へ写す手法です。
代表的な手法とその特徴
PCA(主成分分析)
線形手法の代表。共分散行列の固有ベクトル(または特異値分解:SVD)に基づき、データの分散を最大限に保つ直交基底に投影します。可解性が高く、計算も安定しているため前処理(標準化)後に最初に試すことが多いです。説明分散比(explained variance ratio)で削減後の情報量を評価できます。
線形判別分析(LDA)
教師ありの次元削減。クラス間分散を最大化し、クラス内分散を最小化するように射影します。分類タスクにおける識別性を高めるのに有効ですが、クラス数未満の次元しか得られない制約があります。
ランダム射影(Random Projection)
Johnson–Lindenstraussの補題に基づき、ランダム行列でデータを低次元に写す手法。計算が非常に軽く、距離を確率的に保存します。大規模データに向きますが、結果の解釈性は低いです。
カーネルPCA / Kernel PCA
非線形な構造を扱うためにカーネル法を用いる拡張。非線形特徴空間でPCAを行い、複雑な分離面の抽出が可能ですが、ハイパーパラメータ選択(カーネル種類、幅)と計算コストに注意。
MDS(多次元尺度構成法)
元のデータ間の距離(または類似度)をできるだけ保つように低次元に埋め込む手法。古典MDSは双中心化した距離行列に対する固有値分解でPCAと関係があります。
Isomap
近傍グラフ上の最短経路(測地距離)を計算して、それをMDSで埋め込むことで、曲がった多様体上のグローバル構造を保つことを目指す手法です。
LLE(局所線形埋め込み)
各点をその近傍点の線形結合で再構成する重みを求め、それらの重みを保持する低次元配置を見つける手法。局所構造の保存に重点を置きます。
t-SNE(t-Distributed Stochastic Neighbor Embedding)
高次元空間でのペアの類似度分布(ガウス)と低次元での類似度分布(学生のt分布)との間のKLダイバージェンスを最小化する手法。局所クラスタを美しく可視化しますが、計算コストが高く、グローバル構造(大域的距離)は必ずしも保存されません。パラメータ(perplexity、学習率)に敏感です。
UMAP(Uniform Manifold Approximation and Projection)
近年広く使われる手法。局所の近傍グラフからファジー集合を構築し、交差エントロピーに類似したコストを最適化して埋め込むことで、t-SNEより高速かつ大域構造を比較的よく保存するとされています。ハイパーパラメータは n_neighbors(局所性の尺度)と min_dist(クラスタの密度制御)などがあります。
オートエンコーダ(Autoencoder)
ニューラルネットワークを用いた非線形次元削減。エンコーダで低次元表現を得て、デコーダで再構成を行う自己符号化器です。深層ネットワークにより複雑な非線形写像が学習可能で、変分オートエンコーダ(VAE)は確率的生成モデルとしても利用されます。
手法選びの実務的ガイドライン
- 可視化目的(2D/3D):まずはt-SNEやUMAPを検討。UMAPは実行速度とスケール面で有利。t-SNEは局所クラスタを強調する。
- データ圧縮・前処理:PCAやランダム射影を優先。PCAは再構成誤差を評価しやすく解釈しやすい。
- 非線形構造の抽出:データが明らかに非線形な場合はKernel PCA、Isomap、LLE、オートエンコーダを検討。
- 大規模データ:IncrementalPCA、ランダム射影、スパース近似のUMAP、または近似t-SNE(Barnes-Hut、FFTベース)を検討。
- 教師あり問題:LDAや教師ありの変分オートエンコーダなどを利用すると良い。
実装上の注意点と前処理
- 標準化:PCAなど分散を基にする手法では標準化(平均0・分散1)が重要です。特徴のスケール差を放置すると偏った結果になります。
- 欠損値:欠損は前もって適切に扱う(補完や除外)してください。多くの手法は欠損を直接扱えません。
- カテゴリ変数:ワンホット化やエンベディングが必要。高次元のワンホットは次元増加の原因なので注意。
- ハイパーパラメータ:t-SNE(perplexity、learning_rate)、UMAP(n_neighbors、min_dist)、ランダム射影の射影行列の分布など、結果に大きく影響します。複数値で試すこと。
- 再現性:確率的手法は乱数シードを固定して再現性を確保しましょう。
評価指標
- 説明分散比(PCA):どれだけの分散が保持されるかを示す。
- 再構成誤差:オートエンコーダやPCAで元データからの再構成誤差(MSE等)を使う。
- 保存距離・近傍維持率:高次元での近傍関係や距離が低次元でどれだけ維持されているかを測る。
- KLダイバージェンスやコスト関数:t-SNEやUMAPが最適化する目的関数そのものを見る。
よくある誤解と注意点
- 次元削減後の距離が「元の距離をそのまま反映する」と盲信してはならない。特にt-SNEは局所構造は良く保つが大域構造の解釈には注意が必要。
- 次元削減は情報を必ず失う。可視化で見えるクラスタが実際のラベルに対応するとは限らない。
- 可視化結果の「見た目」に惑わされず、必ず定量評価(上記の評価指標)や下流タスクでの性能検証を行うこと。
- 高次元のスパースデータやカテゴリ変数が多いデータでは、単純なPCAがうまく機能しない場合がある。
実務でのベストプラクティス(簡潔)
- 目的(可視化、圧縮、ノイズ除去)を明確にする。
- まずPCAでデータの分散構造を把握(説明分散比の確認)。
- 非線形構造が疑われる場合はUMAPやオートエンコーダを試す。t-SNEは可視化向けに使うがハイパーパラメータ感度に注意。
- 複数手法・複数パラメータで比較し、再現性と下流タスクの性能で最終判断する。
- 大規模データは近似アルゴリズムや逐次処理(IncrementalPCA)を検討する。
用途と具体例
- 自然言語処理:単語埋め込み(word2vec等)の可視化にUMAPやt-SNEを利用。
- 画像解析:高次元な画像特徴(CNNの中間表現)をPCAやオートエンコーダで圧縮して検索やクラスタリングに利用。
- 異常検知:再構成誤差が大きいサンプルを異常として検出(オートエンコーダが多い)。
- 前処理:分類やクラスタリングの前段で次元削減を行い、学習を効率化。
まとめ
次元削減はデータ解析・機械学習の重要なツールであり、用途やデータ特性に応じて適切な手法を選ぶことが不可欠です。PCAのような線形手法は解釈性と計算効率に優れ、UMAPやt-SNE、オートエンコーダは非線形構造の可視化・抽出に強みがあります。評価は可視化だけに頼らず、数値的指標や下流タスクでの影響を必ず確認してください。
参考文献
- scikit-learn: Decomposition — PCA, KernelPCA, IncrementalPCA
- scikit-learn: Manifold Learning — MDS, Isomap, LLE, t-SNE
- Laurens van der Maaten — t-SNE (原論文・実装リソース)
- McInnes, Healy & Melville (2018) — UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction (arXiv)
- Johnson–Lindenstrauss lemma — Wikipedia(ランダム射影の理論的基礎)
- Hinton & Salakhutdinov (2006) — Reducing the Dimensionality of Data with Neural Networks (オートエンコーダの古典的論文)
- Curse of dimensionality — Wikipedia(高次元問題の概説)


