LogoMark.png

LinearRegression

線形回帰

Linear Regression

概要

線形回帰とは、説明変数 X と目的変数 y との間にある関係を求める、つまり y = f ( X ) となる関数 f を求める代表的な手法です(教師あり学習|回帰)。
 線形とは、文字通り説明変数と目的変数の関係を表すグラフが直線(2変数の場合は平面)になるもので、関係式は以下のような一次式の結合(線形結合)で表現されるます。複数のデータセットから、最適なパラメータ wi を求めることで、あらゆる状況下での y を予測できるようになります。

 y = w0 + w1・x1 + w2・x2・・・ + wn・xn

計算は、上記の式が表す直線(多次元)と実際のデータとの二乗誤差(距離)が最小になるように wi を求めます。最小二乗法といいます。


用語解説


参考解説


単回帰分析のプログラム例

以下に、単回帰分析のサンプルを掲載しています。
ipynb(JupyterNotebook)形式で、GitHubに置いていますが、レンダリングがタイムアウトする場合は、下の nbviewer 経由でご覧下さい。


重回帰分析のプログラム例

以下に、重回帰分析のサンプルを掲載しています。
ipynb(JupyterNotebook)形式で、GitHubに置いていますが、レンダリングがタイムアウトする場合は、下の nbviewer 経由でご覧下さい。


付記:X(大文字)と y(小文字)について

一般に目的変数(出力)に対して説明変数(入力)の方が数(次元)が多いので、プログラムでは y は小文字、X は大文字で書いたりします。




PAGES

GUIDE

DATA

Last-modified: 2020-07-08 (水) 13:18:05