目次
交差検証(Cross-Validation)
交差検証(Cross-Validation)は、モデルの性能をより正確に評価するための方法のひとつです。
基本の仕組み
-
データを「複数の分割(フォールド)」に分けて1つをテスト用、残りを学習用に使う。
-
これを分割の回数だけ繰り返して、すべてのデータが1度はテストされるようにする。
-
最後に、それらのテスト結果を平均して評価を出す。
これにより、たまたま良かった/悪かったという偏りを防ぎ、モデルの「本当の実力(汎化性能)」を安定的に評価できます。
代表的な手法
-
K-分割交差検証(K-Fold Cross-Validation)
→ データをK個に分けて、K回繰り返す -
Leave-One-Out(LOO)
→ 1つのデータを除いて学習、残り1つでテスト。これを全データで繰り返す(計算コストが高い)
交差検証(Cross-Validation)関連用語
交差検証(Cross-Validation)に関連する単語は以下の通りです。
- トレーニングセット(Training set)
- テストセット(Test set)
- 汎化性能(Generalization)
交差検証(Cross-Validation)やさしい解説
交差検証(Cross-Validation)は、「AIにいろんなパターンでテストを受けさせて、公平に実力を見る方法」です。
例えば、模擬試験を5回やって平均点をとるイメージです。
1回だけのテストだと「まぐれ合格」や「苦手分野に当たって失敗」もありえますよね。
交差検証はそれを防いで、「このAIはだいたいこのくらいの力だな」と判断できる仕組みです。
AI関連の用語集【まとめ】
AI関連の用語集が気になる方のために、用語集一覧を作成しました。AIに関する学びを深めたいとお考えの方はぜひご覧ください。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/