継続力

IT系サラリーマンが、書籍や講座から学んだこと、効果があった勉強方法を紹介します。

【Coursera】「Machine Learning(機械学習) Week 10」〜ビッグデータを使った機械学習を学びたい〜

前回までは、トレーニングデータを全て使った最適化アルゴリズムを学んできました。

一方、ビッグデータを使う場合、全トレーニングデータを使うと時間が掛かりすぎてしまいます。
では、どうすれば良いか?というのが、今回のテーマです。

<過去の記事>

【Coursera】「Machine Learning(機械学習) Week 1」〜機械学習の種類を学びたい〜 - 継続力 
【Coursera】「Machine Learning(機械学習) Week 2」〜複雑なケースでの回帰分析を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 3」〜分類の具体的なアルゴリズムを学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 4」〜ニューラルネットワークの概要を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 5」〜ニューラルネットワークの実装方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 6」〜機械学習アルゴリズムの評価方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 7」〜サポートベクターマシン(SVM)を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 8」〜教師なし学習を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 9」〜レコメンデーションシステムを学びたい〜 - 継続力


講師

アンドリュー・エン(Andrew Ng)氏です。
人工知能研究の第一人者であり、Google Brainの共同設立者、 Baiduの元副社長兼チーフサイエンティスト、スタンフォード大学の教授という凄い経歴の持ち主です。 

 

講義の概要

「Week 10」では、以下の内容が、約1時間程度で学べます。

ja.coursera.org


講義の内訳

講義の内訳は以下の通りです。

 

ビッグデータを使った機械学習
■Learning With Large Datasets


■Stochastic Gradient Descent

  • Batch gradient descentだと時間が掛かりすぎる時に使う最適化アルゴリズムとしてStochastic gradient descent(確率的勾配降下法)を説明。
  • 確率的勾配降下法では、Batch gradient descentとは違い、常に収束に向かうわけではなく、発散と収束を繰り返してグローバルミニマムに収束していく。


■Mini-Batch Gradient Descent

  • Batch gradient descentでは各ループ毎に全てのデータセットを使う。
  • Stochastic gradient descent(確率的勾配降下法)では各ループ毎に1つのデータセットを使う。
  • Mini-batch gradient descentでは各ループ毎にb個(10個程度)のデータセットを使う。


■Stochastic Gradient Descent Convergence

  • 収束の確認方法と学習率の選び方について説明。

 

<オンライン学習とMap Reduce>
■Online Learning

  • オンラインサービスでの機械学習として、配送サービスの配送料金の最適化の例、商品検索結果の最適化の例を紹介。


■Map Reduce and Data Parallelism

  • 機械学習においてデータ量が多すぎると、1台のPCで捌ききれないという問題点がある。
  • この問題を解決する方法として、Map-reduceを紹介。
  • Map-reduceでは、トレーニングデータを分割して複数のPCで処理した後に、結果を取りまとめる。
    これにより並列処理が可能になる。

 

どういう人におすすめか

実務で機械学習を使う場合、大抵はビッグデータを使うことになるはずです。
そうした時に、どうすれば実用に耐えうるスピードが出せるかを知ることができる良い授業だと思います。
「Andrew Ng」氏の説明はとても分かりやすいため、是非動画を見てみてください。

ja.coursera.org

【Coursera】「Machine Learning(機械学習) Week 9」〜レコメンデーションシステムを学びたい〜

前回までに、教師あり学習教師なし学習アルゴリズムについて学んできました。

今回は毛色が変わり、エンジン不具合の検知等に使われる異常検知アルゴリズムや、映画のレコメンデーションシステムについて学びます。
かなり実用的な内容です。

<過去の記事>

【Coursera】「Machine Learning(機械学習) Week 1」〜機械学習の種類を学びたい〜 - 継続力 
【Coursera】「Machine Learning(機械学習) Week 2」〜複雑なケースでの回帰分析を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 3」〜分類の具体的なアルゴリズムを学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 4」〜ニューラルネットワークの概要を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 5」〜ニューラルネットワークの実装方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 6」〜機械学習アルゴリズムの評価方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 7」〜サポートベクターマシン(SVM)を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 8」〜教師なし学習を学びたい〜 - 継続力


講師

アンドリュー・エン(Andrew Ng)氏です。
人工知能研究の第一人者であり、Google Brainの共同設立者、 Baiduの元副社長兼チーフサイエンティスト、スタンフォード大学の教授という凄い経歴の持ち主です。 

 

講義の概要

「Week 9」では、以下の内容が、約6時間程度で学べます。

ja.coursera.org


講義の内訳

講義の内訳は以下の通りです。

 

<異常検知アルゴリズム

■Problem Motivation

  • Anomaly detection(異常検出)の例として、飛行機エンジンの異常検出やデータセンターのコンピュータのモニタリングの例を紹介。

 

■Gaussian Distribution

  • 異常検知にはガウシアン分布を使う。
  • ガウシアン分布の中心点μ、標準偏差σの求め方を説明。

 

■Algorithm

  • 異常検知のアルゴリズムを説明。
  • 異常検知に使えそうな説明変数を選ぶ
    →ガウシアン分布の中心点、標準偏差を求める
    →新しいデータxのガウシアン分布上の値を求める
    閾値より小さければ異常と見なす

 

■Developing and Evaluating an Anomaly Detection System

  • 異常検知アルゴリズムの評価で使うデータは、異常データが少ない偏りのあるデータであることが多いので、正答率ではなく、F値により評価する。

 

■Anomaly Detection vs. Supervised Learning

  • 異常検知アルゴリズム教師あり学習アルゴリズムを比較。
  • 異常検知は、異常データが少ない場合や、異常データに共通的な特徴がない場合に有効。
    不正利用検知、製造業、データセンターの機械のモニタリング等に使われる。
  • 教師あり学習は、異常データ数と正常データ数が共に多い場合、データの傾向を学ぶのに十分なデータがある場合に有効。
    スパムフィルタ、天気予報、癌の予測等に使われる。

 

■Choosing What Features to Use

  • 異常検知アルゴリズムへの入力データが非ガウシアン分布の場合は、ガウシアン分布になるように変換する。
  • 正常データと異常データで異常検知アルゴリズムの算出結果に大きな差異が見られない場合は、説明変数を増やすべき。

 

■Multivariate Gaussian Distribution

  • 多変量ガウシアン分布について説明。

 

■Anomaly Detection using the Multivariate Gaussian Distribution

  • 多変量ガウシアン分布を使った異常検知アルゴリズムについて説明。
  • 元のガウシアン分布を使った場合は、異常を検出するための説明変数は手動で作る必要がある。
    ただし、計算量は少なく済み、トレーニングデータも少なくて良い。
  • 多変量ガウシアン分布を使う場合は、自動で説明変数間の相関関係を検出する。
    ただし、計算量が多い。また、トレーニングデータが説明変数よりも多い必要がある。

 

<レコメンデーションシステムのアルゴリズム

■Problem Formulation

  • レコメンデーションシステムの例として、映画の評価予測を説明。
  • 映画の評価データでは、全てのユーザが全ての映画を見ているわけではないため、見ていない映画の評価は?として表現する。

 

■Content Based Recommendations

  • レコメンデーションシステムの目的関数と最急降下法による最適化について説明。


■Collaborative Filtering

  • 協調フィルタリングアルゴリズムについて説明。
  • 映画の種類毎のパラメータxと、映画の評価予測モデルのパラメータθを定義。
  • xからθを予測
    →θからxを予測
    →再度xからθを予測
    と繰り返す。

 

■Collaborative Filtering Algorithm

  • 協調フィルタリングの目的関数について説明。
  • x,θを小さなランダム値で初期化
    →目的関数を最急降下法等で最適化する
    →最適化後のパラメータを使用して映画の評価を予測する。

 

■Vectorization: Low Rank Matrix Factorization

 

■Implementational Detail: Mean Normalization

  • 平均正規化を使ったレコメンデーションシステムアルゴリズムを説明。

 

どういう人におすすめか

アマゾンプライム等の動画サービスのおすすめ動画はどうやって選んでいるんだろう」と疑問を抱えた人が、具体的なアルゴリズムを知ることができる良い授業だと思います。
「Andrew Ng」氏の説明はとても分かりやすいため、是非動画を見てみてください。

ja.coursera.org

【書評】日経コンピュータ 2020年6月11日号 〜勘定系の新常態 さらば重厚長大〜

表紙は、「勘定系の新常態 さらば重厚長大」です。

表紙の通り、これからの勘定系システム開発で標準となる技術、開発手法等が紹介されていました。
本書を読むと、「最新のトレンドを勉強しないとまずい。。。」と感じると思います。 


数ある記事の中から、私が印象に残ったテーマを紹介します。

 

 

印象に残ったテーマ① 既存システムの効率化により、攻めのIT投資の元手を確保

佐川急便を含むSGホールディングスが、年数百億円を費やしていたITの維持管理コストを4割ほど圧縮し、浮いたお金を攻めのIT投資に回している記事が紹介されていました。
また、メガバンクにおいては年間のITコストが1000億にも達し、その7~8割を守りのIT領域に費やしているために、攻めのIT投資が十分に出来ていないという記事が紹介されていました。

これらの記事から、複数の業態において、攻めのITを重視する傾向が強まっており、守りのITコストを如何に早く下げられるかが重要な局面になってきていることが分かります。

そのためには、従来の密結合のアーキテクチャをマイクロサービスにより疎結合にするスキル、クラウド移行するスキルが求められます。
これからの世の中でトレンドとなるスキルを身につける重要性を感じました。

 

印象に残ったテーマ② 内製化によるデジタル変革への対応

SGホールディングス三菱UFJフィナンシャルグループが、ベンダーに任せきりになっていたシステム開発を、自分たちの手に戻すために、IT部門社員にコーディングを習得させようとしているという記事が紹介されていました。
ITに詳しくないとデジタル技術を最大限活用したビジネスの推進は難しいと思うため、非常に良い取り組みだと感じました。

一方、システムベンダーからすると、自分たちの担当範囲が減ってしまうため、やり辛くなるリスクがあるかと思います。
こうした情勢の変化をうまく捉えて、システムベンダー側の収益力を落とさないための施策が求められていると感じました。

 

印象に残ったテーマ③ 銀行勘定系開発へのニューノーマルの適用

勘定系システムのこれからのニューノーマルな姿として、「マイクロサービス」、「パブリッククラウド」、「アジャイル」、「内製化」、「顧客情報のリアルタイム分析」が紹介されていました。
どれも、今までの常識とはかけ離れています。

特にアジャイル開発は銀行勘定系のような大規模システムには向かないと思っていましたが、システムのマイクロサービス化により、システムを疎結合にすることでアジャイルが適用しやすくなるのでしょう。
何にせよ、IT技術者に求められるスキルが大きく変わろうとしているので、取り残されないように勉強が必要だと感じました。
 

まとめ

コロナによりあらゆる業界の常識が変わりつつある世の中ですが、本書を通じてIT業界はとりわけ変化のスピードが速いと感じました。
他にも、非常に勉強になることが書いてあるので、ぜひ読んでみてください。

【Coursera】「Machine Learning(機械学習) Week 8」〜教師なし学習を学びたい〜

前回までは、教師あり学習アルゴリズムについて学んできました。

今回はついに、教師なし学習アルゴリズムについて学びます。
また、データ圧縮の仕組みについても学べます。

<過去の記事>

【Coursera】「Machine Learning(機械学習) Week 1」〜機械学習の種類を学びたい〜 - 継続力 
【Coursera】「Machine Learning(機械学習) Week 2」〜複雑なケースでの回帰分析を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 3」〜分類の具体的なアルゴリズムを学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 4」〜ニューラルネットワークの概要を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 5」〜ニューラルネットワークの実装方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 6」〜機械学習アルゴリズムの評価方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 7」〜サポートベクターマシン(SVM)を学びたい〜 - 継続力


講師

アンドリュー・エン(Andrew Ng)氏です。
人工知能研究の第一人者であり、Google Brainの共同設立者、 Baiduの元副社長兼チーフサイエンティスト、スタンフォード大学の教授という凄い経歴の持ち主です。 

 

講義の概要

「Week 8」では、以下の内容が、約5時間程度で学べます。

ja.coursera.org


講義の内訳

講義の内訳は以下の通りです。

 

<K-Means法によるクラスタリング
■Unsupervised Learning: Introduction


■K-Means Algorithm


■Optimization Objective

  • K-means法の目的関数を説明。

 

■Random Initialization

  • K-means法のクラスター重心点の初期化方法を説明。
  • ローカルミニマムへの収束を回避する方法を説明。


■Choosing the Number of Clusters

  • クラスター数Kの選び方を説明
  • クラスター数Kを決めるための、Elbow methodについて説明。
  • クラスター数Kを増やせば、目的関数はどんどん小さくなるはずだが、ローカルミニマムに陥っていると、クラスター数Kを増やした場合に目的関数が大きくなることがある。
    この場合は、再度クラスターの重心点を初期化し、再計算すべき。

 

<PCA(Principal Component Analysis)アルゴリズムによる次元削除>
■Motivation I: Data Compression

  • データ圧縮の手法として、次元削除の方法を説明。


■Motivation II: Visualization

  • 高次元のデータを低次元(二次元、三次元)のデータに変換し、視覚化する方法を説明。


■Principal Component Analysis Problem Formulation

  • PCA(Principal Component Analysis)でできること、アルゴリズムを説明。
  • PCAでは、すべてのデータセットに対する距離の合計が最小になるようなベクトルを算出する。


■Principal Component Analysis Algorithm

  • 共分散行列を算出→共分散行列の固有ベクトルを算出→k次元に削減したい場合、元のデータセットに「固有ベクトルの先頭からk個のベクトルを抽出した行列」を掛けて、次元削減を行う。


■Reconstruction from Compressed Representation

  • 圧縮データから元のデータを復元する方法を説明。


■Choosing the Number of Principal Components

  • データを何次元まで圧縮していいかの目安を説明。
    圧縮したことによるデータの欠損率が1%(=99%の情報が残っている)を目安とする。
  • svd関数のアウトプット(S:正方行列)を使うと、欠損率を簡単に計算できる。


■Advice for Applying PCA

  • 教師あり学習のインプットデータの次元数をPCAで削減することで、教師あり学習をスピードアップできる。
  • PCAで次元削減することで、データ圧縮によりデータ量を減らしたり、機械学習をスピードアップできる。
    また、高次元データの視覚化ができる。
  • PCAを使うべきではない例を紹介。

 

どういう人におすすめか

教師なし学習はどうやってやるのだろうか?」、「データ圧縮ってどうやってるのだろうか?」という疑問を抱えた人が、具体的なアルゴリズムを学べる良い授業だと思います。
「Andrew Ng」氏の説明はとても分かりやすいため、是非動画を見てみてください。

ja.coursera.org

【書評】日経コンピュータ 2020年5月28日号 〜ゼロトラストネットワーク〜

表紙は、「ゼロトラストネットワーク VPN不要、全社員テレワークの切り札」です。

VPNの次世代のセキュリティ確保施策として、「ゼロトラストネットワーク」が紹介されていました。
ゼロトラストの他にも、IT技術の進歩はめまぐるしいものがあると感じさせられる記事が多く紹介されていました。

数ある記事の中から、私が印象に残ったテーマを紹介します。

 

 

印象に残ったテーマ① VPNシンクライアント端末はもう古い!これからはゼロトラストネットワークの時代

コロナによるテレワーク利用率の急増で、VPNの利用負荷が問題になっているという記事が紹介されていました。
この対策として、従来のVPNシンクライアント端末によるセキュリティ確保ではなく、ゼロトラストネットワークの考え方に基づいたセキュリティ確保が注目を集めているようです。

この記事を読むまでは、VPNでセキュリティを確保するのが最強だと思っていたのですが、昨今の標的型メールによる従業員アカウントの乗っ取り等により、もはやVPNもセキュリティ面で盤石とは言えない状況となっているようです。

このため、全てを信頼しない(ゼロトラスト)の考え方に基づき、VPNも含めたすべてのネットワークからのアクセスを信頼せずに、サービス利用の都度、ユーザの属性や端末の情報等をチェックするようなセキュリティ対策が今後は主流になるようです。

一昔前は万能と思っていたサービスが、いつのまにか万能ではなくなってしまっていることに衝撃を受けました。
最新トレンドにアンテナを張る必要性を改めて痛感しました。

 

印象に残ったテーマ② サッポロホールディングスのDX

サッポロホールディングスが従来担当者ごとにExcelを使って行っていた商品供給の計画を、システム化するという記事が紹介されていました。
「業務・システムの標準化」を行った後に、更なる「機械化、自動化」を目指し、サプライチェーンの最適化を実現していくようです。

この記事を通じて、こういった最適化の取り組みは5年以上もかかる取り組みであるため、如何に早期に着手できるかが鍵になると思いました。
現時点で次世代に向けた仕込みを開始していない企業は、早期に手を打たないと、競合他社との差が開く一方になってしまいそうです。 

印象に残ったテーマ③ コロナによるパラダイムシフト

前号に引き続き、コロナ関連の記事がいくつか紹介されていました。
特に、感染拡大防止を目的とした、「料理の非対面受け渡しサービス」や、日本経済団体連合会経団連)の中西宏明会長の「コロナ後に、いい知恵を出せた企業にはチャンスがある」という発言が印象的でした。

前号に引き続き、アフターコロナのパラダイムを予測し、様々なチャレンジを行うことが求められていると感じました。

 

まとめ

セキュリティ分野を始め、IT技術は日進月歩だと感じさせられました。
他にも、非常に勉強になることが書いてあるので、ぜひ読んでみてください。

【書評】國貞克則「ストーリーでわかる財務3表超入門」 〜財務3表の成り立ちから学ぶ方法を紹介〜

財務3表と聞くと、難しいイメージが無いでしょうか?

本書は、新人経営者あかねが苦労しながら店を切り盛りしていく中で、財務知識の必要性を痛感し、学んでいく、というストーリー仕立てになっています。
お小遣い帳のような単純な収支計算書から始まり、徐々にレベルアップし、財務3表の勉強へとステップアップしていきます。
話のスピード感がちょうど良く、きっと財務3表が理解できると思います。

また、本書には財務3表だけでなく、「法人とは?」、「資本主義とは?」、「会社は誰のもの?」等の、財務以外の知識もふんだんに盛り込まれています。
財務以外の面でも勉強になること間違い無しです。

 

本の紹介

ストーリーでわかる財務3表超入門―お金の流れで会計の仕組みが見えてくる

ストーリーでわかる財務3表超入門―お金の流れで会計の仕組みが見えてくる

  • 作者:國貞 克則
  • 発売日: 2011/02/18
  • メディア: 単行本(ソフトカバー)
 

著者「國貞克則」氏は、東北大学工学部卒業後、神戸製鋼所入社。海外プラント輸出、人事部などを経て、米国クレアモント大学ピーター・ドラッカー経営大学院でMBA取得されている方です。
中小企業の経営指導や大手企業の管理職教育にあたる経営コンサルタントです。
本書は、財務3表の成り立ちから学ぶことができ、非常に分かりやすい内容に仕上がっています。
ストーリー仕立てになっているので、堅い文章は苦手という方にもオススメです。

 

印象的なポイント① BSとPLをつくるために会社のすべての伝票は複式簿記によって整理されている

複式簿記の基本はすべての取引を2つの視点(複式)から眺めて、それを『資産』『負債』『純資産』『費用』『収益(売上)』の5つに分類して帳簿に記帳していく。その集大成されたものが試算表で、その試算表を2つに分けるとBSとPLになる。複式簿記の基本はそれだけだ。逆に言えば、BSとPLをつくるために会社のすべての伝票は複式簿記によって整理されているんだ

いままで関連性が分からなかったPLとBSですが、実は複式簿記で記帳された試算表を2つに分けただけ」であると考えると繋がりが見えてスッキリしますね。

すべての取引を2つの視点で眺めて分類する「複式簿記」の考え方は普通は難しいと感じると思いますが、本書では複式簿記が必要になった背景から説明されており、非常に分かりやすいです。
お小遣い帳のような収支計算書から、段階を追って、BS、PLの成り立ちが説明されており、会計の全体感が分かる本でした。

会計の細かい知識の勉強を始める前に、まずは本書で全体感を学んでから、詳細な部分を勉強することをお勧めします。

 

印象的なポイント② 経営者は決して会社を潰してはならない

会社の存続という意味では赤字か黒字かは問題では無い。会社はキャッシュ(現金)が続かなくなったら終わりなのだ。
倒産したら多くの関係者に迷惑をかける。資本を出してくれている出資者やお金を貸してくれている債権者の期待を裏切り、彼らのお金をドブに捨てたような形にしてしまう。従業員とその家族を路頭に迷わせることにもなる。取引先にもお客様にも迷惑がかかる。経営者は決して会社を潰してはならない。 

経営者の責任の重さを感じさせられる文章ですね。
このぐらいの覚悟が経営者には必要なんだと痛感されました。
やはり、一社員と経営者では背負っているもののレベルが違いすぎました。

こういう覚悟が経営者には求められているんだということを知るためにも、経営者を目指している人には是非本書を読んでもらいたいです。
また、経営者になるつもりがなくても、様々な名言が本書には飛び出しますので、一般社員の方々にもオススメです。

 

印象的なポイント③ 自分の会社の利益しか考えていない会社は品格がない

我々一人ひとりの人間は社会の一員だ。会社も法律で定められた人、つまり社会の一員だ。我々は社会から大きな恩恵を受けてこの社会に存在している。だから、社会の一員である我々は社会に貢献する義務がある。それは会社も同じだ。お金を稼ぐことしか考えていない人ってさもしいよな。会社も同じだ。自分の会社の利益しか考えていない会社って品格がないよな。つまらない会社だよな

非常に熱い文章でした。
経営を成功させ、生み出した利益をどう使うかで会社の真価が問われます。
自分のことだけを考えるような会社には勤めたくないですよね。

また、社員一人一人も社会貢献を意識して、一段高い視座で日々の仕事を行う必要があるのでしょう。
このことが意識できていると、きっと仕事が今よりも楽しくなると思います。

 

まとめ

主人公あかねの成長する姿が気になって、あっという間に読み終わりました。
普通に働いていても気にしない「法人とは?」、「掛売りとは?」等、財務以外の面でも非常に勉強になりました。
他にもためになることがいっぱい書いてあるので、ぜひ読んでみてください。

ストーリーでわかる財務3表超入門―お金の流れで会計の仕組みが見えてくる

ストーリーでわかる財務3表超入門―お金の流れで会計の仕組みが見えてくる

  • 作者:國貞 克則
  • 発売日: 2011/02/18
  • メディア: 単行本(ソフトカバー)
 

【Coursera】「Machine Learning(機械学習) Week 7」〜サポートベクターマシン(SVM)を学びたい〜

前回までに、ニューラルネットワークによる分類アルゴリズムについて学んできました。

ニューラルネットワークには、局所最適解(ローカルミニマム)に収束してしまう場合があるという課題がありました。
今回は、局所最適解(ローカルミニマム)に収束してしまう課題が無い分類アルゴリズムである、サポートベクターマシンSVM)を学びます。

<過去の記事>

【Coursera】「Machine Learning(機械学習) Week 1」〜機械学習の種類を学びたい〜 - 継続力 
【Coursera】「Machine Learning(機械学習) Week 2」〜複雑なケースでの回帰分析を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 3」〜分類の具体的なアルゴリズムを学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 4」〜ニューラルネットワークの概要を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 5」〜ニューラルネットワークの実装方法を学びたい〜 - 継続力
【Coursera】「Machine Learning(機械学習) Week 6」〜機械学習アルゴリズムの評価方法を学びたい〜 - 継続力


講師

アンドリュー・エン(Andrew Ng)氏です。
人工知能研究の第一人者であり、Google Brainの共同設立者、 Baiduの元副社長兼チーフサイエンティスト、スタンフォード大学の教授という凄い経歴の持ち主です。 

 

講義の概要

「Week 7」では、以下の内容が、約5時間程度で学べます。

ja.coursera.org


講義の内訳

講義の内訳は以下の通りです。

 

サポートベクターマシンSVM)の概念>
■Optimization Objective


■Large Margin Intuition


■Mathematics Behind Large Margin Classification

 

SVMへのカーネル法の適用方法>
■Kernels I


■Kernels II

  • カーネル法では、元の非線形なデータxをカーネル空間に投影し、新しい説明変数fを定義する。
  • その説明変数fと元のデータxの類似性(similarity)を関数で定義する。
  • 類似性を求める関数を使って目的関数を定義し、最適化を行う。
  • サポードベクターマシンのパラメータCは正則化パラメータ(1/λ)と同じ役割。
    Cが大きいとオーバフィットし、小さいとアンダーフィットする傾向がある。
  • 「σの二乗」が大きいとアンダーフィットし、小さいとオーバフィットする傾向がある。


■Using An SVM

 

どういう人におすすめか

サポートベクターマシンSVM)という名前は聞いたことあるけど、実際のところ何しているの?」という課題を抱えた人が、「サポートベクターマシンの処理イメージ」を学べる良い授業だと思います。
「Andrew Ng」氏の説明はとても分かりやすいため、是非動画を見てみてください。

ja.coursera.org