英語のビジネスメールでよく使われる書き方 <アポイントを取る>
- 段落
- 画像(はてなフォトライフ)
- 脚注
- 続きを読む
- 罫線
- h1見出し
- h2見出し
- h3見出し
- h4見出し
- h5見出し
- h6見出し
- h5見出し
- h4見出し
- h3見出し
- asin
- 引用
- リスト(ul,ol,dl)
- テーブル
- コードブロック
- h2見出し
段落
あのイーハトヴォのすきとおった風、夏でも底に冷たさをもつ青いそら、うつくしい森で飾られたモーリオ市、郊外のぎらぎら光る草の波。
あのイーハトヴォのすきとおった風、夏でも底に冷たさをもつ青いそら、うつくしい森で飾られたモーリオ市、郊外のぎらぎら光る草の波。
画像(はてなフォトライフ)
あのイーハトヴォのすきとおった風、夏でも底に冷たさをもつ青いそら、うつくしい森で飾られたモーリオ市、郊外のぎらぎら光る草の波。
脚注
あのイーハトヴォのすきとおった風、夏でも底に冷たさをもつ青いそら、うつくしい森で飾られたモーリオ市、郊外のぎらぎら光る草の波。*1
続きを読む
※トップページでのみ表示されます。記事ページでは表示されません。
*1:ここに脚注を書きます
#002 回帰問題(回帰分析)とは
前回の「#001 機械学習とは」の続き。
回帰問題(回帰分析)とは
教師あり学習のうち、出力が数字で出るモデルを抽出する。
例: 年に1回のイベントの入場者数を、気温を元に予想する。
予想したい結果(今年の入場者数)を、目的変数
結果に作用する要素(気温)を、説明変数 といいます。
回帰問題の基本概念を理解する際に、最初に重要なのがグラフでの理解です。
基礎を入れるために、説明変数が1つの場合から考えてみましょう。
上のグラフは、例ですが、縦軸を入場者予想、
横軸は気温とします(すごい数ですがここでは、5-20度と脳内変換して下さい)
過去のデータ(入場者数と気温)を元に、グラフに点を打っていきます。
その点のすべてのが通るような直線は現実的に引けないので、
できるだけすべての点を通るような直線を求めると上のグラフの直線になります。
この直線のことを「回帰直線」といいます。
回帰直線を、関数で表現すると、
Y = w1・x + w0
になります。
y: 入場者数(目的変数)
x: 気温(説明変数)
w1: 回帰直線の傾き:
w0: 回帰直線と、縦軸と交わる点
線によって分析するので、これを線形回帰とも言います。
回帰分析の中では、非線形回帰というものあります。
説明変数が一つの場合は、単回帰
説明変数がふたつ以上の場合は、重回帰といいます。
線形回帰による分析の肝は、データにできるだけ差がない線を引くことですが、その線を引くために使うのが最小二乗法というものらしいです。最小二乗法は、線形回帰分析をする際に、最も基本的なツールということなので、次回からは、最小二乗法の理解を進めていこうと思うます。
#001 機械学習とは
機械学習を始めようとお思う。
最初はなにをやってよいかわからん。
ので、「マンガでわかる機械学習」から始めようと思う。
困った時に頼りになるマンガでわかるシリーズだ!
一通り読んだ。ざっと機械学習がどんなものかは理解できた。
が!とにかく単語の意味がさっぱりわからないので、しっかりとした理解はできない。ので!とりあえず単語の理解から始めることにする。
機械学習とは、
大量のデータを元にして予想や判断を行うモデルを抽出すること
だそうだ。
例を出すと、イベント当日の気温から、予想入場者数を予想するなど、かな。
気温データ → 抽出したモデル → 予想入場者数 という流れかなと。
機械学習の種類はざっと下記の3種類あるそうだ。
教師あり学習は、問題と正解のペアが大量に与えられて、その解き方を見つけるという学習のこと。過去のデータを分析して予想や判断を行うモデルを抽出する。
教師なし学習は、個々のデータだけがあり、正解のデータがない。その中で、大量の個々のデータから役に立つ知見を見つけ出す学習のこと。ECサイトのレコメンドエンジンなどに活用されているらしい。
中間的学習は、
出力が数字の場合、回帰問題といい、
出力がカテゴリ(例: YES or NO)の場合、識別問題という。
これらの問題に対し、正解付きのデータを元にモデルを仮定し、出力が望ましい値となるようにモデルのパラメータを調整する作業が、学習にあたるらしいです。
機械学習の基本中の基本が「教師あり学習」の「回帰問題」であることを把握したので、次回からは「回帰問題(回帰分析)とは」の理解をしていこうと思う。