Soledad Galli (著), 松田晃一 (翻訳)
Pythonによる機械学習モデル構築のための特徴量 抽出・作成実践レシピ
機械学習においてはモデルを作成しデータを与えて学習させますが、その前に生データをモデルが理解できるような形式に変換する「特徴量エンジニアリング」と呼ばる重要なステップがあります。 本書は特徴量エンジニアリングの実践的なガイドであり、機械学習のための特徴量を作成するための効果的なテクニックとベストプラクティスを学ぶことができます。 欠損データの補完、カテゴリエンコーディング、変数変換、離散化、スケーリング、外れ値の取り扱いなど表形式データに対する特徴量エンジニアリングのほぼすべてのトピックをカバー。 1章 欠損値を補完する |
まさに実践レシピです。
下記は目次ですが、これ自体が特徴量テクニックのリストになっているというなんとも優れものです。
- 欠損値を補完する
- 欠損値のあるデータを除去する
- 平均値または中央値で補完する
- カテゴリ変数を補完する
- 欠損値をに似の数値で置き換える
- 補完用に分布の端の値を求める
- 補完された値に印をつける
- 連鎖方程式で多変量補完を行う
- 最近棒を用いて欠損値を推定する
- カテゴリ変数をエンコードする
- ワンホットエンコーディングする
- 頻出カテゴリをワンホットエンコーディングする
- カテゴリをデータの個数や頻度で置き換える
- カテゴリを序数で置き換える
- 目的変数に基づいた序数エンコーディングを行う
- ターゲットエンコーディングを実装する
- WoEを用いてエンコーディングする(WoE:Weight of Evidence)
- 稀なカテゴリ、頻度の低いカテゴリをグループ化する
- 2値エンコーディングを行う
- 数値変数を変換する
- 対数関数で変数を変換する
- 逆数関数で変数を変換する
- 平方根で変数を変換する
- べき乗変換を行う
- Box-Cox変換を行う
- Yeo-Johnson変換を行う
- 変数を離散化する
- 等区間離散化を行う
- 等頻度離散化を行う
- 変数を任意の区間に離散化する
- k-meansで離散化する
- 特徴量の2値化を実装する
- 離散化に決定木を元居る
- 外れ値を扱う
- 箱ひげ図で外れ値を可視化する
- 平均と標準偏差を用いて外れ値を見つける
- 四分位範囲近接則を用いて外れ値を見つける
- 外れ値を除去する
- 外れ値にキャップをかける
- 分位数を使って外れ値にキャップをかける
- 日付と時刻の変数から特徴量を抽出する
- pandasで日付から特徴量を抽出する
- pandasで時刻から特徴量を抽出する
- 日時変数から経過時間を計算する
- 異なるタイムゾーンの時間を扱う
- Feature-engineで特徴量の抽出を自動化する
- 特徴量をスケーリングする
- 特徴量を標準化する
- 最大値と最小値でスケーリングする
- 中央値と分位数でスケーリングする
- 平均正規化を実行する
- 最大絶対値スケーリングを実装する
- ベクトル単位長にスケーリングする
- 新しい特徴量を作成する
- 特徴量を数学関数で組み合わせる
- 特徴量と参照変数を比べる
- 多項式展開を行う
- 特徴量と決定木を組み合わせる
- 周期変数から周期的な特徴量を作成する
- スプライン特徴量を作成する
- Featuretoolsを使ってリレーショナルデータから特徴量を抽出する
- エンティティセットを作成し特徴量を自動で生成する
- 一般操作と累積操作で特徴量を作成する
- 数値特徴量を組み合わせる
- 日付と時刻から特徴量を抽出する
- テキストから特徴量を抽出する
- 集約プリミティブで特徴量を作成する
- tsfreshを使って時系列データから特徴量を作成する
- 時系列データから自動的に特徴量を抽出する
- 時系列データ用の特徴量を作成し選択する
- 異なる時系列データに合わせて特徴量を作成する
- あらかじめ選択された特徴量を作成する
- 特徴量作成をscikit-learnパイプラインに組み込む
- テキスト変数から特徴量を抽出する
- 文字数、単語数、語彙数を数える
- 文字を数えてテクストの複雑さを推定する
- Bag-of-Wordsとn-gramを用いて特徴量を作成する
- TF-IDFを実装する
- テキスト変数をクリーニングしステミングする
テキスト変数のところは、生成AIの登場によって様相は変わってきた感はありますが、温故知新ではないですがこういった基礎技術(といっても応用だと思いますが)を理解した上だと、生成AIもよりよく活用できると思います。