LogoMark.png

LinearRegression

線形回帰

Linear Regression

概要

線形回帰とは、説明変数 X と目的変数 y との関係、つまり \(y = f ( X )\) となる関数 \(f\) を求める代表的な手法です(教師あり学習|回帰)。
 線形とは、文字通り説明変数と目的変数の関係を表すグラフが直線(2変数の場合は平面・・)になるもので、関係式は以下のような一次式の結合(線形結合)で表現されるます。複数のデータセットから、最適なパラメータ wi を求めることで、あらゆる状況下での y を予測できるようになります。

 y = w0 + w1・x1 + w2・x2・・・ + wn・xn

計算は、上記の式が表す多次元の「直線」と実際のデータとの二乗誤差(距離)が最小になるように wi を求めます。最小二乗法といいます。


用語解説


参考解説


単回帰分析のプログラム例

以下に、単回帰分析のサンプルを掲載しています。
ipynb(JupyterNotebook)形式で、GitHubに置いていますが、レンダリングがタイムアウトする場合は、下の nbviewer 経由でご覧下さい。

付記:単回帰の問題で、2次元的に散布図が描き出せるのであれば、グラフ上に定規で直線を引いて「傾き」と「切片」を見出すかたちでも実用上はほとんど問題ありません。コンピュータに頼らなくても答えは出せる・・という柔軟な感覚も必要です。


重回帰分析のプログラム例

以下に、重回帰分析のサンプルを掲載しています。
ipynb(JupyterNotebook)形式で、GitHubに置いていますが、レンダリングがタイムアウトする場合は、下の nbviewer 経由でご覧下さい。


付記:X(大文字)と y(小文字)について

一般に目的変数(出力)に対して説明変数(入力)の方が数(次元)が多いので、プログラムでは y は小文字、X は大文字で書いたりします。




PAGES

GUIDE

DATA

Last-modified: 2021-08-06 (金) 10:39:38