線形回帰(Linear Regression)
線形回帰(Linear Regression) は、入力(特徴量)と出力(目的変数)の関係を直線でモデル化する手法です。
例えば、「広告費」と「売上」のようにある数値の増減が別の数値にどのように影響するかを知りたいときに使います。
【モデルの基本式】
y=ax+b
-
:予測したい値(例:売上)
-
x:説明変数・特徴量(例:広告費)
-
a:傾き(係数)=影響の強さ
-
b:切片(バイアス)=初期値
特徴は下記の通りです。
-
関係が「直線的」だと仮定する
-
説明力が高く、理解しやすい
-
小規模データや関係性の分析にぴったり
【主な用途】
-
価格や需要の予測
-
売上・天気・経済などのトレンド分析
-
因果関係の理解(何が影響を与えているか)
線形回帰(Linear Regression)関連用語
線形回帰(Linear Regression)に関連する単語は以下の通りです。
- 回帰(Regression)
- 説明変数(x)
- 目的変数(y)
- 決定係数(R²)
線形回帰(Linear Regression)やさしい解説
線形回帰は、「点の集まりにまっすぐな線を引く」ことで未来を予測する方法です。
例えば、
「広告費が増えたら、どのくらい売上が伸びそうか?」を知りたいとき、過去の「広告費と売上」のデータをもとにそれらの点を通る「いい感じの直線」を引きます。
そして、将来の広告費に対して、この線を使って売上を予測します。
AI関連の用語集【まとめ】
AI関連の用語集が気になる方のために、用語集一覧を作成しました。AIに関する学びを深めたいとお考えの方はぜひご覧ください。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/