IT
K-mediansクラスタリング入門:L1ノルムと中央値で外れ値に強い手法の基礎とK-means・K-medoidsとの比較
K-medians とは — 概要と基本概念 K-medians(ケイ・メディアンズ)はクラスタリング手法の一つで、クラスタ中心(センター)を各クラスタ内の「中央値(median)」で定め、データ点と中心との距離和(L1 […]
K-medoids入門: 実データ点を代表点に選ぶクラスタリングの仕組みと主要アルゴリズムの比較
K-medoids とは — 概要 K-medoids(ケー・メドイド)は、クラスタリング手法の一つで、各クラスタの代表点(medoid:メドイド)を実データ点の中から選び、クラスタ内の点と代表点との距離(もしくは不相違 […]
k-means++とは何か?初期化の重要性と実務での利点を解説する完全ガイド
k-means++とは何か — 概要と背景 k-means++は、クラスタリング手法であるk-means(Lloyd法)の初期中心点(セントロイド)を賢く初期化するためのアルゴリズムです。従来のk-meansは初期中心の […]
K-meansクラスタリング徹底解説:基本原理・初期化・収束と実務のベストプラクティス
K-means法とは K-means法は、観測データをあらかじめ指定したクラスタ数 k に分割する代表的な非階層的クラスタリング手法です。各クラスタは重心(平均ベクトル、centroid)で代表され、アルゴリズムはデータ […]
特徴ベクトル入門:概念・表現・前処理・特徴選択まで機械学習の実践ガイド
特徴ベクトルとは――概要と直感 特徴ベクトル(feature vector)とは、ある対象(データ点、サンプル、観測値)を数値化して表現したベクトルのことです。数学的には x ∈ Rⁿ のように表され、各成分 x_i が […]
マニホールド学習入門ガイド:概要・代表手法・評価指標・実務のポイントを徹底解説
マニホールド学習とは — 概要と直感 マニホールド学習(manifold learning)は、高次元データが実は低次元の滑らかな多様体(マニホールド)上に近似的に存在すると仮定して、その「潜在的な低次元構造」を探索・可 […]
次元圧縮の基礎と実務:PCA・LDA・t-SNE・UMAP・オートエンコーダの手法解説と前処理・評価ガイド
次元圧縮とは何か — 概要と目的 次元圧縮(じげんあっしゅく、dimensionality reduction)は、多次元データ(特徴量が多数あるデータ)を、情報をできるだけ損なわずに低い次元の表現へ変換する技術群を指し […]
凸最適化の完全ガイド:概要・性質・標準形と実務応用まで徹底解説
凸最適化とは——概要と直感 凸最適化(convex optimization)は、目的関数が凸関数であり、制約集合が凸集合で表される最適化問題のクラスを指します。数学的には「グローバルな最小値が局所最小値でもある」性質を […]
ヒンジ損失とは何か?SVMのマージン最大化を支える凸損失関数の解説
ヒンジ損失とは ヒンジ損失(hinge loss)は、主にサポートベクターマシン(SVM)などの大マージン分類器で用いられる損失関数です。二値分類において、正しいクラスへ一定のマージン(余裕)を確保できていない予測に対し […]
サポートベクターとは?SVMの基礎からカーネル・マージン・実務まで徹底解説
サポートベクターとは — 概要と直感 「サポートベクター(support vector)」は、機械学習の分類手法であるサポートベクターマシン(SVM: Support Vector Machine)において重要な役割を果 […]

