目次
k近傍法(k-Nearest Neighbors:k-NN)
k近傍法(k-Nearest Neighbors: k-NN)とは、データの分類や回帰に用いられるシンプルな機械学習アルゴリズムの一つです。k-NN(k-Nearest Neighbors:k-NN)は、新しいデータポイントが与えられたとき、そのデータポイントに最も近い「k個」の既知のデータ(近傍)を参照し、どのクラスに属するか、またはどの値を持つかを決定します。このアルゴリズムは、教師あり学習の一種であり、モデルを構築するためのトレーニングフェーズではなく、予測する際に実際の計算を行う「遅延学習」(Lazy Learning)型です。
<k-NN(k-Nearest Neighbors:k-NN)の仕組み>
- データの距離を計算:新しいデータポイントとトレーニングデータの各データポイントとの距離(一般的にはユークリッド距離)を計算します。
- k個の近傍を選択:距離が最も近いk個のデータポイントを選びます。kの値は任意に決定されます。
- 分類または回帰の予測:
- 分類:k個の近傍の中で、最も多いクラス(例えば、ラベルAかラベルB)を新しいデータポイントに割り当てます。例えば、k=3であれば、3つの近傍のクラスを数え、最も多いクラスに分類します。
- 回帰:近傍のデータポイントの値の平均を新しいデータポイントの予測値とします。
k-NN(k-Nearest Neighbors:k-NN)はそのシンプルさゆえに、少量のデータや分類タスクで広く使われていますが、大規模データセットに対しては計算コストが高くなるという欠点があります。
k近傍法(k-Nearest Neighbors:k-NN)関連用語
k近傍法(k-Nearest Neighbors:k-NN)に関連する単語は以下の通りです。
- 分類(Classification)
- 回帰(Regression)
- ユークリッド距離(Euclidean Distance)
k近傍法(k-Nearest Neighbors:k-NN)やさしい解説
k近傍法(k-Nearest Neighbors: k-NN)とは、データを分類したり予測したりするためのシンプルな方法です。新しいデータが与えられたとき、そのデータの「近くにある」データをいくつか選んで、そのデータの「近いデータ」がどんなものかを参考にして、分類や予測を行います。
- 距離を測る:新しいデータと、過去のデータとの距離を測ります。距離が近いほど似ていると考えます。
- k個のデータを選ぶ:近いデータの中から、k個(たとえば3つや5つなど)を選びます。
- 判断する:
- 分類:選んだk個のデータの中で一番多いグループに新しいデータを分類します。例えば、3つのデータが「犬」「犬」「猫」なら、新しいデータは「犬」と判断されます。
- 回帰:選んだデータの値の平均を新しいデータの予測値とします。
例えば、果物を分類する場合、新しい果物がリンゴかオレンジか分からないとき、その果物に似た他の果物を探して、それがどちらに近いかで決めます。もし、近くにある果物がリンゴばかりなら、新しい果物もリンゴだと判断します。
k-NN(k-Nearest Neighbors:k-NN)は、画像認識やおすすめシステムなど、いろいろな場面で使われていますが、たくさんのデータを使うと計算に時間がかかることがあります。
AI関連の用語集【まとめ】
AI関連の用語集が気になる方のために、用語集一覧を作成しました。AIに関する学びを深めたいとお考えの方はぜひご覧ください。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/