わかりやすいパターン認識 ( 1-2章 )

第1章の内容

  • 用語の定義・目的の定義

  • 最も単純な”全数記憶法”について

  • 特徴量をベクトルで表した空間内で、超平面によって分類(グループ化すること)=パターン認識

  • 最もシンプルな学習法として、「最近傍探索法」( Nearest Neighbour : NN法

    • 分類するクラスごとの代表点:”プロトタイプ”を定義し、最近接するプロトタイプへと分類する.

第2章の内容

識別関数法について

  • 最近傍法は、 "識別関数法" の1種である.

  • 特徴量 x に対して、各クラス w_i ( i=1,...,c ) へ分ける. 各クラス毎に 関数 g_i(x) を最大化するクラスへ分類する → 識別関数法

  • そもそも分けれるのか? → 線形識別可能であることが重要.

  • 線形識別器 ( 単純パーセプトロン ) による分類.

    g_i(x) &= w_i^T x \ \ \ ( i=1,...,c ) \\
y &= \max _{i=1,...,c} \left[  g_i (x) \right]

学習と区分的線形識別について

  • 学習とはプロトタイプ点の移動.

    • 最近傍法でいうと、「どこからの距離を測るのが、最もよくデータを分割するのか?」 をデータの散らばりを見ながら決める.

  • 線形識別不可能な例に対しては、プロトタイプ点を増やして、 "区分的線形識別" すればよい.

    • ボロノイ図のように、各地区で最も有力なプロトタイプを用意してやり、区分的に分類することが可能.

    • 実際は、効率的な学習法がないので用いられてはいない.

    • 区分的線形識別は、線形識別の出力させ、空間ごとに最も有力な線形識別機をさらに選んで使用するという点で、ニューラルネットと構成が似ている