社会人博士の深層学習ブログ

深層学習を使った環境音認識研究で、働きながら博士号を取得しました

【データサイエンス】非深層学習手法におけるT検定を用いた特徴量の分析 〜データが少ない場合や判定根拠が必要な場合の分類タスク〜

本記事では、深層学習以外の手法を想定した、特徴量の分析方法について述べます。

深層学習を用いることで、圧倒的に高い性能を達成できる可能性がありますが、データ収集コストやブラックボックス性、計算量の増加といった欠点も存在します。

深層学習でなければ解けない問題が多くある一方、従来の機械学習手法で十分である場合も多くあります。

本記事では、盲目的に深層学習を検討する前に、従来の機械学習手法で解くことのできる問題かどうかを検討するための一例を紹介します。

 

機械学習を用いた一般的な分類タスク

f:id:ys0510:20210616213828p:plain

 

はじめに、機械学習を用いた一般的な分類タスクの概要を説明します。

上図は機械学習を用いた一般的な分類タスクを示しています。ここでは、ある音声データを入力し、正常クラスと異常クラスの2クラスに分類するタスクを考えます。

※通常、異常検知タスクは正常データのみを使った教師なし学習に分類されますが、ここでは、正常/異常両方のデータを使った教師あり学習を想定します。

 

機械学習を用いた分類タスクは、以下の2つの部分に分けられます。

① 特徴抽出部

機械学習モデルにとって、分類のしやすい特徴量を抽出します。

例えば、音声データの場合、生の1次元波形では所望の信号が埋もれてしまうため、判定が難しくなってしまいます。フーリエ変換等の信号処理を用いて、異常クラスの特徴が現れやすい形に変換します。

 

② 機械学習モデル部 

抽出された特徴量を機械学習モデルに入力すると、正常/異常の分類結果が出力されます。学習の過程では、モデルの出力結果に対し、正解データとの誤差を算出することで、より誤差が少なくなるようモデルが更新されます。

 

深層学習手法と従来機械学習手法との違い

 上の分類タスクにおいて、従来の機械学習手法と深層学習手法の違いを説明します。

 

① 特徴抽出部

従来の機械学習手法:あらかじめ人手で設計された低次元の軽量な特徴量

どの特徴量が分類精度の向上に寄与するのか、あらかじめ技術者が分析します。性能向上と計算量削減のため、分類に不要な特徴量は機械学習モデルに入力しません。

 

深層学習手法:人手での設計が行われていない高次元な特徴量

完全に人手での設計が不要というわけではありませんが、ほとんど人手で特徴量の設計を行う必要がありません。高次元の特徴量を後段の機械学習モデルに入力し、学習の中で最適な処理が行われることを期待します。

 

② 機械学習モデル部 

従来の機械学習手法:計算量の軽い比較的シンプルなアルゴリズム

比較的シンプルなアルゴリズムが使用されていますので、計算量が軽く、学習データも比較的少なく済みます。

その反面、複雑な特徴量を入力すると分類精度が悪化することがあります。また、特徴量を人手で設計する際、必要な情報が失われてしまうことがあり、性能のボトルネックとなります。

 

深層学習手法:計算量の大きく表現力の豊かなアルゴリズム

計算量や必要なメモリ使用量は大きいですが、難易度の高いタスクにおいても高い性能を実現することができます。最適な特徴抽出もモデル内部で行われるため、人手での特徴抽出によるボトルネックも存在しません。

しかし、大量の学習データが必要になることや深層学習モデルの判断根拠がブラックボックスになってしまうといったデメリットが存在します。

 

大雑把に言うと、深層学習手法と従来の機械学習手法はトレードオフの関係になっています。深層学習を使うまでもないシンプルな問題に対しては、従来の機械学習を使った方が、コストや判定根拠の面で有利であるということが言えます。

産業用途では、コストや品質保証の観点から、深層学習ではなく従来の機械学習手法を使ったほうが好ましい場合も数多く存在します。

 

WelchのT検定を用いた特徴量分析

f:id:ys0510:20210616213949p:plain


従来の機械学習手法を選択した場合、人手による特徴量の設計が必要になりますが、特徴量が性能のボトルネックとならないよう適切な設計が必要となります。

本節では、WelchのT検定という統計手法を用いた、特徴量の分析方法をご紹介します。

詳細は省略しますが、T検定とは、データごとの差が偶然によるものなのか、有意なものであるのかを検証するための方法です。

ある正常データと異常データの差を見たときに、それがただのばらつきによるものなのか、異常データ特有の有意な差であるのかを定量的に評価する際に使用します。

例えば、音声データに対しては、フーリエ変換やMFCC、ケプストラムなど、様々な特徴抽出方法があります。フーリエ変換では正常/異常は見られないが、MFCCでは大きな差が見られるという場合であれば、フーリエ変換ではなくMFCCをもとに正常/異常分類を行うべきです。

 

WelchのT検定を用いた特徴量分析の結果

f:id:ys0510:20210616214019p:plain上の図は、ある分類タスクにおける、WelchのT検定の結果を示しています。

縦軸にp値、横軸は特徴量のインデックスを示しています。例えば分解能10Hzで0Hzから8000Hzまでの成分を持つFFTの場合、800個のインデックスを持つことになります。

p値が小さいということは、正常データと異常データの差が有意であるということを意味するので、その値をもとに正常/異常の判定がしやすいことを意味します。

この分類タスクに追いては、MFCCとメルスペクトログラムのp値が低いことがわかりました。したがって、このケースにおいては、MFCCもしくはメルスペクトログラムを用いた方が、分類性能には有利であるということが定量的にわかりました。

 

まとめ

本記事では、非深層学習を想定し、T検定を用いた特徴量の分析方法をご紹介しました。

 

盲目的に深層学習だけを採用されていたという方がいらっしゃいましたら、こういった伝統的な特徴抽出手法も参考にしていただければと思います。