ミニバッチ
ディープラーニングの学習は、順伝播(フォワードプロパゲーション)と誤差逆伝搬(バックプロパゲーション)を繰り返し行い、モデルを更新していきます。このとき、全データを一度に処理するのではなく、ミニバッチと呼ばれる小さなデータのまとまりごとに学習を行う手法を「ミニバッチ学習」といいます。
バッチサイズ
ミニバッチのサイズ(バッチサイズ)は、一般に 2 のべき乗(32, 64, 128 など)が選ばれることが多いですが、用途に応じて実験を繰り返したりしながら調整されます。
バッチサイズの特殊な例:
- バッチサイズ = 1 → オンライン学習(Stochastic Gradient Descent, SGD)
- バッチサイズ = 訓練データ全体 → フルバッチ学習(Full-Batch Gradient Descent)
通常はその中間の「ミニバッチ学習」が一般的に使われます。
直観的な理解:3次関数のフィッティング
よりイメージと本質を掴むために、3次関数のフィッティングを考えてみます。以下の関数にノイズを加えたデータを160個用意し、バッチサイズ8で学習を進めてみます。
学習に使うモデルは、以下のような 3 次関数です。
- 初期状態: すべての係数 \(a,b,c,d\) を0から開始 (\(y = 0\))
- 学習方法: 重複なくランダムに20ミニバッチに分ける(バッチサイズ8)

図を見ると、Batch1では初期条件 y = 0 を少しだけデータ点に近づけたような形をしています。全データを使い終わる Batch20になると、モデルがデータの傾向をよく捉えていることがわかります。しかしモデルはまだ完全にフィットされていません。ここで必要なのがエポック (epoch) です。
エポック (epoch)とは?
1エポックとは、全訓練データを1回すべて学習し終えることを指します。
例えば、データが160個あり、バッチサイズが8の場合、1エポックでは160 ÷ 8 = 20 回の更新 を行うことになります。
学習が十分に進んでいなければ、さらにエポックを繰り返し、モデルを改良していきます。3次関数の例でも、追加で9エポック(合計10エポック)学習したところ、データをよりよく説明できるようになりました。

ミニバッチの性質とメリット
1. メモリの節約
全データを一度に処理するフルバッチ学習は、メモリ使用量が膨大になり、実装が困難になります。ミニバッチを使えば、一度に処理するデータ量を抑えることができ、計算の効率が向上します。
2. 学習の安定化
データを 1 つずつ学習する オンライン学習では、データのばらつきにより学習が不安定になります。ミニバッチ学習は、ある程度のデータをまとめることでノイズがキャンセルするため、適度に学習を安定化できます。
3. 並列計算が可能になる
ミニバッチを用いることで、GPU の並列計算を活用し、学習速度を大幅に向上 させることができます(ミニバッチでまとめたデータの勾配を並列に計算できます)。
全体の学習フロー

エポックとミニバッチを組み合わせた学習の流れは次のようになります。
データを3つに分割
- 訓練データ(Training Data): モデルを学習
- 検証データ(Validation Data): モデルの損失をモニタリング(過学習防止)
- テストデータ(Test Data): 最終評価
ミニバッチごとに学習を行う
- 訓練データを小さなミニバッチに分ける
- 1ミニバッチごとに誤差を計算し、モデルのパラメータを更新
1エポック終了後、検証データでモデルを評価
- 検証データを用いて、学習が適切に進んでいるか確認
- 過学習が進んでいれば Early Stopping(早期停止)を検討
エポックを繰り返す
- 損失(Loss)が十分に減少したら学習を終了
まとめ
ミニバッチ(mini-batch)とは?
- 全データを一度に処理せず、小さなまとまりごとに学習する手法
- メモリ節約、学習の安定化、並列計算による高速化のメリットがある
エポック(epoch)とは?
- 訓練データをすべて1回学習し終えること
- 通常、複数エポックを繰り返し学習させる
実際の学習プロセス
- 訓練データ → ミニバッチで学習
- 1エポックごとに検証データで精度チェック
- 損失が十分に減少したら学習終了おすすめカテゴリー
おすすめカテゴリー


コメント