正則化(Regularization)
正則化(Regularization)とは、機械学習モデルが訓練データに過剰に適合してしまう「過学習(オーバーフィッティング)」を防ぎ、未知のデータに対する予測性能(汎化性能)を高めるための手法です。
具体的には、モデルの「複雑さ」に対してペナルティを課します。学習時に最小化すべき誤差関数(コスト関数)に、重みの大きさに応じた「罰則項(正則化項)」を追加することで、モデルのパラメータが極端に大きな値になるのを抑制します。
-
L1正則化(Lasso回帰): 重みの絶対値の和をペナルティとします。不要な特徴量の重みを完全に「0」にする性質があり、特徴量選択の効果があります。
-
L2正則化(Ridge回帰): 重みの2乗和をペナルティとします。重みを全体的に小さく滑らかにする性質があり、モデルの安定性を高めます。
-
Elastic Net: L1とL2を組み合わせた手法です。
関連用語
正則化(Regularization)に関連する単語は以下の通りです。
正則化(Regularization)やさしい解説
正則化(Regularization)を一言でいうと「テスト勉強で『過去問の丸暗記』をやめさせるルール」です。
AIの学習は、テスト勉強によく似ています。
- 過学習: 過去問を完璧に暗記して100点を取ったけれど、本番で少し問題の数値が変わっただけで手も足も出なくなる状態。
- 正則化: 「答えをそのまま覚えるのは禁止! できるだけシンプルな解き方で解きなさい」というルールを追加すること。
AIに自由に学習させると、データの一つ一つの点(ノイズ)を通ろうとして、グラフの線が「グニャグニャ」に複雑になります。 正則化というブレーキをかけることで、線が「なだらか」になり、本質的な傾向だけを捉えることができるようになります。
AI関連の用語集【まとめ】
AI関連の用語集が気になる方のために、用語集一覧を作成しました。AIに関する学びを深めたいとお考えの方はぜひご覧ください。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/

