継続力

IT系サラリーマンが、書籍や講座から学んだこと、効果があった勉強方法を紹介します。

【Coursera】「Machine Learning(機械学習) Week 1」〜機械学習の種類を学びたい〜

機械学習という言葉は聞いたことはあるけど、具体的に何をするものだろう?
教師あり学習教師なし学習という言葉は聞いたことはあるけど、違いは何だろう?

 

と思い、「Coursera(コーセラ)」で「Machine Learning(機械学習)」を受講することにしました。

「Coursera」はオンライン講義サービス(MOOC: Massive Open Online Course)の一つであり、かの有名な「スタンフォード大学」が提供しています。
修了証を貰う場合は有料ですが、 講義動画の視聴だけであれば、無料で受講できます。

 

講師

アンドリュー・エン(Andrew Ng)氏です。
人工知能研究の第一人者であり、Google Brainの共同設立者、 Baiduの元副社長兼チーフサイエンティスト、スタンフォード大学の教授という凄い経歴の持ち主です。 

 

講義の概要

「Week 1」では、以下の内容が、約6時間程度で学べます。

機械学習の分類
教師あり学習教師なし学習の違いと具体例
・単回帰分析のアルゴリズム
・基本的な行列計算の方法

ja.coursera.org


講義の内訳

講義の内訳は以下の通りです。

機械学習の分類>
■Welcome

  • 機械学習が使用される具体例として、データベースマイニングや自動操縦のヘリコプター等を紹介。

 

■What is Machine Learning?

  • 機械学習の2つの定義(Arthur Samuel、Tom Mitchell)を紹介。

 

教師あり学習教師なし学習の違いと具体例>
■Supervised Learning

  • 教師あり学習の問題は、回帰と分類に分けられる。
  • 回帰では、教師データの傾向を分析し、問題として与えられた条件における結果を予測する。
  • 分類では、問題として与えられたデータが、教師データとして定義した分類のどれに属するかを判定する。


■Unsupervised Learning


<単回帰分析のアルゴリズム
■Model Representation

  • 住宅価格を予測するために、回帰分析するケースを例に、仮定関数 (Hypothesis function)の表現方法を説明。


■Cost Function

  • データに対して関数を定義し、その関数の最小または最大を求める問題を最適化問題という。
  • その関数を目的関数(Cost Function)といい、目的関数の一つ「Squared error function(Mean squared error)」の数式について説明。


■Cost Function - Intuition I

  • 具体的な値を用いて、Squared error function(Mean squared error)の計算例を説明。


■Cost Function - Intuition II

  • contour plot(等高線図)を使って、コストが最小になるパラメータを見つける方法を説明。


■Gradient Descent

  • 最急降下法(Gradient descent)による、コストが最小となるパラメータの計算方法を説明。


■Gradient Descent Intuition

  • 最急降下法(Gradient descent)が局所最小値(local minimum)に収束するまでの流れを説明。


■Gradient Descent For Linear Regression

  • 最急降下法(Gradient descent)を使って、目的関数(Cost Function)の最小値を求める方法を説明。


<基本的な行列計算の方法>
■Matrices and Vectors

  • マトリクスとベクトルの定義を説明。
  • ベクトルは1列のマトリクス。


■Addition and Scalar Multiplication

  • 行列の足し算とスカラー乗法について説明。


■Matrix Vector Multiplication

  • 行列とベクトルの掛け算について説明。
  • m x nの行列と n x 1のベクトルの掛け算は、m x 1のベクトルになる。


■Matrix Matrix Multiplication

  • 行列同士の掛け算について説明。
  • m x nの行列と n x oの行列の掛け算は、m x oのベクトルになる。


■Matrix Multiplication Properties

  • 行列同士の掲載では、行列の順番が異なると算出結果は異なる。
    A x B とB x Aは異なる結果になる。
    ただし、Bが単位行列I(identity matrix)の場合は、A x I = I x Aが成り立つ。


■Inverse and Transpose

  • 逆行列と転置行列について説明。

 

どういう人におすすめか

機械学習教師あり学習??教師なし学習???」と疑問を抱えている人に対して、「まずはざっくりとした言葉の定義」を教えてくれる良い授業だと思います。
「Andrew Ng」氏の説明はとても分かりやすいため、是非動画を見てみてください。

ja.coursera.org