パターン認識

テスト前

教師付き学習⇒学習パターン+所属クラス名 教師無し学習⇒学習パターン+(何も無し) 教師無し学習 サブクラスの発見 ラベル付けの自動化 時間的変化への対応 サブクラスの発見 1つのクラスとして分類できるパターンをさらに複数の塊(クラスタ)に分けた方が…

第13回

また復習:ベイズ決定則 マハラノビス距離 (4・11)〜(4・13) マハラノビス汎距離(6・130) ベイズ誤り確率 離散ベイズ誤り確率: 連続ベイズ誤り確率 2クラスならば 試験内容 パーセプトロンによる計算 特徴抽出法の評価 2種類の特徴抽出法を…

第5章(2)

復習:ベイズ決定則 次のような判別関数が使えた 学習パターンによる判別関数の生成 パラメトリックな決定境界の導出 最尤法による推定 各コインの含有確率(p(ω))はわかっているが、各コインの表が出る確率(θ)はわからない。というケースを考える。 最尤法は…

第5章

ベイズ統計・推定・Error 例)三種類のコインがある。 w1=10% 表の出る確率θ1=0.8 w2=40% 表の出る確率θ2=0.6 w3=50% 表の出る確率θ3=0.3ある1個のコインを取り出してn回投げてx回表が出たとする。 コインがどのコインかを推定する方法は? ベイズの定理 計…

確率の復習

3囚人の問題 Ω(A)=Aが釈放されること X(B)=看守が「Bは処刑される」と答えること P(Ω(A))=P(Ω(B))=P(Ω(C))=1/3(1) Aが釈放される→BとCが処刑される。 (2) Bが釈放される→AとCが処刑される。 (3) Cが釈放される→AとBが処刑される。P(X(B)|Ω(A))=1/2,P(X(B)…

特徴空間の認識(3)

先週の ・基底ベクトルの正規直交性 より後ろあたりから。 両辺転置すると(Σは対象行列なので) 正規直交性があるので これより (…でなんだったんだっけ?) パラメトリックな学習とノンパラメトリックな学習 (教科書範囲外) ベイズ統計とか(テストに出す…

第6章 特徴空間の変換(2)

特徴空間の変換 正規化 次元の削減 より良い特徴量を選択 線形変換により次元を削減 識別に適した空間を作る⇒Fisherの方法 KL展開 KL展開は識別に適した空間を作っているわけではない。 KL展開により、元の空間をできるだけ保存したより次元の低い空間を作る…

第3章 誤差評価に基づく学習(4くらい)

(復習)ニューラルネットワークの誤差逆伝播法による学習 例)パリティ(偶奇性)判定 ニューラルネットワーク 最初に中間層をどれだけ取ればいいのかが不明である。 区分的線形識別関数と等価であるが、ニューラルネットワークほど効果的な学習方法がない ニ…

第3章

ニューラルネットワーク 入力層と出力層の間に、閾値論理ユニットが多数存在する。 誤差逆伝播法による学習 全額集パターンに対する2乗誤差を求める。(3.49) 最急降下法を用いて、Jの最小解を求めると (中略) シグモイド関数を用いると と表すことができる…

第2-3章

区分的線形識別関数 どのような複雑な決定境界も任意の精度で近似できる パーセプトロンの学習法が適用できない 多層ニューラルネットワークと極限において等価である 誤差評価に基づく学習 線形分離不可能な場合(線形関数で完全に識別することができない場…

第4回

アンケート実施結果(ノートとる意味ないけど) 「想定の範囲内です」らしい。 以下省略P65- 特徴空間の次元数とパターン数 パターンが少なければ、線形分離が簡単にできてしまうが、正しくクラスを識別できない可能性がある。 特徴相互に強い相関がある場合…