「機械学習」の版間の差分
ナビゲーションに移動
検索に移動
(→インストール) |
|||
80行目: | 80行目: | ||
<pre> | <pre> | ||
$ pip install scikit-learn | $ pip install scikit-learn | ||
+ | </pre> | ||
+ | *Irisデータセットは、scikit-learnに組み込まれている | ||
+ | <pre> | ||
+ | >>> from sklearn import datasets | ||
+ | >>> import numpy as np | ||
+ | >>> iris = datasets.load_iris() | ||
+ | >>> X = iris.data[:, [2,3]] | ||
+ | >>> y = iris.target | ||
+ | >>> print('Class labels:', np.unique(y)) | ||
+ | Class labels: [0 1 2] | ||
</pre> | </pre> | ||
2021年6月19日 (土) 14:49時点における版
| TensorFlow | Docker | Ubuntu | 数学 | 統計 | ベイズ統計 | データ解析 | R | Python NumPy |
目次
機械学習
3種類の機械学習
1.教師あり学習(supervised learning)
- ラベル付された'訓練データ'(training data)からモデルを学習し、未知のデータを予測できるようにする
- 離散値のクラスラベルを持つ教師あり学習は'分類'(classification)とも呼ばれる
- 教師あり学習の回帰(regression)サブフィールドの場合、出力信号は連続値となる
クラスラベルの予測(分類)
- 分類は新しいインスタンスを対象としてクラスラベルを予測することが目標
- インスタンスの所属関係(group membership)として解釈できる
- メールスパムフィルタは、二値分類(binary classification)の典型例
- ’陰性クラス(negative class)と陽性クラス(positive class)を区別する決定境界(decision boundary)を学習すれば分類できる
- 多クラス分類(multiclass classification)の典型例として手書き文字認識が挙げられる
連続値を予測(回帰)
- 連続値を予測する回帰分析(regression analysis)では、複数の予測変数(predictor variable)と連続値の応答変数(response variable)が与えられれ結果を予測できるようにそれらの関係を探る
- 予測に使われる変数は説明変数(explanatory variable)、予測したい変数は成果指標(outcome)
- 機械学習では予測変数は一般的に特徴量(feature)と呼び、応答変数を目的変数(target variable)と呼ぶ
2.強化学習(reinforcement learning)
- 強化学習の目的は環境とのやり取りに基づいて性能を改善するシステムを構築することで、そうしたシステムはエージェント(agent)
- 環境の現在状態情報には、いわゆる報酬(reward)信号が含まれるため、教師あり学習に関連する分野とみなされる
- チェスチェンジの例では、環境(チェス番)の状況に応じコマの動きを決定し、ゲームの勝ち負けが報酬tなる
3.教師なし学習
- 教師なし学習では、エージェントの特定の行動に対して、正解ではなく、報酬(reward)の度合いを定義する
- ラベル付されていないデータや構造が不明なデータを扱うことになる
- 目的変数や報酬関数がなくても、データの構造を調べて意味のある構造を取り出すことができる
クラスタリング(clustering)
- 大量の情報を意味のあるグループ(クラスタ)として構造化できる探索的データ解析手法
- 教師なし分類(unsupervised classification)とも呼ぼれる
- 例として、マーケティング担当者が顧客の関心に基づいて顧客集団を発見できる
データ圧縮のための次元削減
- 次元削減(dimensionally reduction / dimension resuction)というサブフィールド
- 教師なし次元削減は特徴量の前処理においてよく使用されるアプローチの一つ
機械学習システム構築
1.前処理:データ整形
- 生データが機械学習アルゴリズム性能最適化に適した形で提供されることはまずないため、データ前処理((preprocessing)が最も重要な処理の一つとなる
2.予測モデルの訓練と選択
- 交差検証(cross-validation)では、モデルの汎化性能(generalization performance)を想定するために、データセットを訓練用と検証用に分割する
- ハイパーパラメータ最適化(hypeparameter optimization)はデータから学習されるものではなく、モデルの「ツマミ」を回すのに相当し、回すことでモデルの性能を向上させることができる
3.モデルの評価と未知のインスタンスの予測
- 訓練データセットにうまく適合するモデルを選択した後は、いわゆる汎化誤差(学習時に使わなかったデータに対する予測値と正解の差)を評価できる
- 性能に納得がいけば、このモデルを使って将来データを予測できる
分類問題
- 散布図
線形分類器
- 特徴の線形結合の値に基づいて分類を行う確率的分類器である。機械学習において、分類は項目群を特徴値に基づいてグループに分類することを目的とする
パーセプトロン
パーセプトロンモデルは、脳内の1つのニューロンの働き、発火するかしないか、を模倣
- 重みを0または値の小さな乱数で初期化
- 訓練データごとに次の手順を実行
- 出力値を計算
- 重みを更新
ADALINE
- パーセプトロンアルゴリズムの改良と見なすことができる。違いは重みの更新方法にある。
- パーセプトロンのような単位ステップ関数ではなく、線形活性化関数に基づいて重みを更新する
scikit-learn
インストール
$ pip install scikit-learn
- Irisデータセットは、scikit-learnに組み込まれている
>>> from sklearn import datasets >>> import numpy as np >>> iris = datasets.load_iris() >>> X = iris.data[:, [2,3]] >>> y = iris.target >>> print('Class labels:', np.unique(y)) Class labels: [0 1 2]
・・・・・・・・・・・・・・・・・
基礎
- 未定義の値はパラメータ、説明はモデル
- 典型的には、学習と推論の2段階でアルゴリズムを調べる
- 学習段階での目的は、特徴モデルと呼ばれるデータを記述し、モデルに要約すること
- 特徴ベクトルは、実際のデータを単純化したもの、学習・推論のステップはデータそのものではなく、特徴ベクトルに依存
- 測定する値とどの測定値を比較すべきかの設計は、特徴量設計と呼ばれる
- 調べる特徴の数が多すぎるとパフォーマンスが低下する可能性(次元の呪い)
- 同一性は構成されている特徴に分解される
学習アプローチ
- 訓練データ
- 特徴ベクトル
- 学習アルゴリズム
- モデル
推論アプローチ
- テストデータ
- 特徴ベクトル
- モデル
- 予測
距離の測定
学習のタイプ
教師あり学習
- モデルと呼ばれるラベル付きデータを必要とする
- 訓練データセットと呼ばれる例の集まりを使用する
教師なし学習
強化学習
- 環境が行動によりどう反応するかを観察することで収集される情報を訓練する
- どのような行動の組み合わせが最も有利な結果をもたらすかを知るため
アルゴリズム
アルゴリズム | 用途 | 備考 |
---|---|---|
線形回帰 | トレンドの予測 | |
ロジスティクス回帰 | データを2つのカテゴリに分類し、データセットを分割する最善の方法を見つける | |
多クラスタロジスティクス回帰 | データを複数のカテゴリに分類する | |
隠れマルコフモデル(ビタビ) | 最も可能性の高い隠れた理由を見出す | |
k平均法 | 固定数のカテゴリにクラスタリングし、自動的に分割 | |
自己組織化マップ | 任意のカテゴリにクラスタリングし、高次元データを2次元平面上へ非線形写像する | |
オートエンコーダ | 入力されたデータを一度圧縮し、重要な特徴量だけを残した後、再度もとの次元に復元 | |
Qポリシーニューラルネットワーク | ニューラルネットワークを用いた環境での強化学習 | |
パーセプトロン | 教師ありニューラルネットワークを用いたデータの分類 | |
畳み込みニューラルネットワーク | 教師ありニューラルネットワークを用いた次世界画像の分類 | |
リカレントニューラルネットワーク | ニューラルネットワークを使用して観測に一致するパターンを生成 | |
シーエンス変換(Seq2seq)モデル | 自然言語の問い合わせに対する自然言語応答の予測 | |
順位付け | 効用の学習によって項目を順位付けするための学習 |
線形回帰
バリアンスとバイアス
- バイアスとバリアンス(偏りと分散)のトレードオフ(Bias-Variance Tradeoff)とは?
- バイアス(偏り:Bias)とは、予測値と真の値(=正解値)とのズレ(つまり「偏り誤差:Bias error」)を指す
- バイアス(偏り誤差)が大きすぎる場合、そのモデルは入力と出力の関係性を正確に表現できていない(=訓練データでさえも正確に予測できない)といえる。いわゆる「学習不足(=過少適合:under-fitting)」の状態
- バリアンス(分散:Variance)とは、予測値の広がり(つまり「ばらつき誤差:Variance error」)を指す。この予測誤差は、訓練データの揺らぎから生じる
- バリアンス(ばらつき誤差)が大きすぎる場合、そのモデルは訓練データのノイズまで学習してしまっている(=テストデータなど未知のデータでは正確に予測できない)。いわゆる「過学習(=過剰適合:over-fitting)」の状態
import matplotlib matplotlib.use("WebAgg") import numpy as np import matplotlib.pyplot as plt x_train = np.linspace(-1, 1, 101) y_train = 2 * x_train + np.random.randn(*x_train.shape) * 0.33 plt.scatter(x_train, y_train) plt.show()
TensorFlow
Irisデータセット
import pandas as pd import numpy as np import matplotlib.pyplot as plt url = 'https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data' df = pd.read_csv(url, header=None, encoding='utf-8') result = df.tail() print(result) y = df.iloc[0:100, 4].values y = np.where(y == 'Iris-secosa', -1, 1) X = df.iloc[0:100, [0, 2]].values plt.scatter(X[:50,0], X[:50,1], color='red', marker='o', label='setosa') plt.scatter(X[50:100,0], X[50:100, 1], color='blue', marker='x', label='versicolor') plt.xlabel('sepal length[cm]') plt.ylabel('petal length[cm]') plt.legend(loc='upper left') plt.savefig('03.sample.png') # 画像を保存 plt.show()
© 2006 矢木浩人