#002 回帰問題(回帰分析)とは

前回の「#001 機械学習とは」の続き。

回帰問題(回帰分析)とは

教師あり学習のうち、出力が数字で出るモデルを抽出する。

 

例: 年に1回のイベントの入場者数を、気温を元に予想する。

 

予想したい結果(今年の入場者数)を、目的変数

結果に作用する要素(気温)を、説明変数 といいます。

 

回帰問題の基本概念を理解する際に、最初に重要なのがグラフでの理解です。

基礎を入れるために、説明変数が1つの場合から考えてみましょう。

f:id:pioneer-star:20181006195429g:plain

上のグラフは、例ですが、縦軸を入場者予想、

横軸は気温とします(すごい数ですがここでは、5-20度と脳内変換して下さい)

過去のデータ(入場者数と気温)を元に、グラフに点を打っていきます。

その点のすべてのが通るような直線は現実的に引けないので、

できるだけすべての点を通るような直線を求めると上のグラフの直線になります。

この直線のことを「回帰直線」といいます。

 

回帰直線を、関数で表現すると、

 Y = w1・x + w0

になります。

y: 入場者数(目的変数)

x: 気温(説明変数)

w1: 回帰直線の傾き:

w0: 回帰直線と、縦軸と交わる点

 

線によって分析するので、これを線形回帰とも言います。

回帰分析の中では、非線形回帰というものあります。

 

説明変数が一つの場合は、単回帰

説明変数がふたつ以上の場合は、重回帰といいます。

 

線形回帰による分析の肝は、データにできるだけ差がない線を引くことですが、その線を引くために使うのが最小二乗法というものらしいです。最小二乗法は、線形回帰分析をする際に、最も基本的なツールということなので、次回からは、最小二乗法の理解を進めていこうと思うます。