機械学習コース(理研・早大連携)

受講者の声:Machine Learning for Advanced Integrated Intelligence α(領域別コース:機械学習コース(理研・早大連携))詳細はこちら

第8回
Fundamentals of Machine Learning

■講義実施日

2018年5月12日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

朝日 透、戸川 望、丸山 祐丞、カーン ムハンマド エムティアス

■講義内容

本講義ではテストを行った。テスト内容としては授業が進行したまでの内容を扱った。
テストはいくつかのセクションに分かれており、授業の内容が包括的に理解できているかどうかを問われるものであった。〇×等を使って回答をするセクションでは、なぜ〇/×で答えたかを書く欄が用意されており、受講者の理解度を確かめるようなものであった。
テストの内容としては、計算を行う問題から、機械学習を行う上で気を付けるべき点を書く問題など、総合的に扱った。

第7回
Mixture Model and Factor Model

■講義実施日

2018年5月12日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Emtiyaz Khan、Yusuke Maruyama

■講義内容

 今回の講義では、分類について取り扱った。二項分類と多クラス分類についての説明をした後、具体的なデータを用いた分類の用例についての説明があった。例えば、病気に関するデータにおいて、喫煙や肥満などの危険要素を並べ、心臓病におけるリスクの分類を説明した。
 また、分類を行う際に決定する分類指標について、線形と非線形のそれぞれについての説明を行った。非線形の境界について、k近傍法について説明があり、k=1の時は、機械学習でいうところの過学習と同じような境界が決定されてしまうが、逆にkの値が大きすぎるとunderfittingとなってしまうため、ちょうどいい値を決定する必要があることが説明された。
 さらに、「次元の呪い」についての説明もされた。これは、データの次元数を増やしていくとDNNを用いた学習が困難になっていく現象を示していることを説明された。

第6回
Fundamentals of Machine Learning

■講義実施日

2018年4月28日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

朝日 透、戸川 望、丸山 祐丞、カーン ムハンマド エムティアス

■講義内容

本講義ではGeneralization errorについて扱った。機械学習では「学習(training)」させたプログラムが未知データに対してどの程度の精度を発揮するかを「試験(test)」を通して推定する。Testの際に生じる誤差(error)をgeneralization errorと称し、この誤差をゼロにすることが究極的な目標である。
本講義では学習に用いたモデルの複雑さが誤差とどのような相関を持っているかを扱った。単純モデル、複雑モデルをそれぞれ線形モデル、ニューラルネットワークモデルとして、入力データを増やしたときにそれぞれの誤差がどのように変化するかをシミュレーションした。このような実例を介して、機械学習の問題点を提示された。

第5回
Classification and Logistic Regression

■講義実施日

2018年4月28日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Emtiyaz Khan、Yusuke Maruyama

■講義内容

 今回の講義では、まず前回行ったoverfittingとunderfittingについての振り返りから始まった。その後、今回の講義の本題であるregularization(正規化)についての講義が始まった。
 正規化を表す式には自由に代入できるλというスカラーが存在するが、λの値が高くなるほど得られるモデルがよりシンプルになり、低くなるほど複雑になる。与えられたデータセットに対して適切なλを代入することで、そのデータから予想される(値)データの誤差を最小限にすることが機械学習における目的の一つである。
 そのためにも、学習するデータを適切に取り扱わなくてはならない。有効にデータを用いる方法として、交差検証(cross-validation)と呼ばれる方法が存在する。データセットを複数に分割し、そのうちの一つをテストし、それ以外を学習用に用いる。これを繰り返すことで予想されるデータに対する凡化誤差(generalization error)が求められる。

第4回
Fundamentals of Machine Learning

■講義実施日

2018年4月21日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

朝日 透、戸川 望、丸山 祐丞、カーン ムハンマド エムティアス

■講義内容

本講義ではインプットデータに対して、それがどのような非線形モデルに従っているか、実際に近似曲線を書く際にどのような問題が生じうるかを計算面から学んだ。
具体的には近似曲線に用いるパラメータ数を増やすほど、誤差は小さくなる一方、Overfitting(過剰適合)という間違った推定をしてしまう問題について扱った。講義では1つのインプットデータから2つの近似曲線のどちらが正しいかについての議論を行い、overfittingしたモデルの危険性について考えた。そこから現段階での人工知能の算出する答も十分に間違える可能性があること、万能ではないということを学んだ。

第3回
Overfitting and Ridge Regression

■講義実施日

2018年4月21日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Emtiyaz Khan、Yusuke Maruyama

■講義内容

 今回の講義では、前回の続きとして勾配法の概要と実際の計算原理についてであった。
 勾配法には大きく分けて2種類存在し、Batch Gradient DescentとStochastic Gradient Descentがある。勾配法はそもそも関数f(x)における最小点を求める方法で、普通であればbatch gradient descent法を用いるのが一般的となっている。しかし、データ数が多い場合、stochastic gradient descentを用いるほうがより少ない回数の計算で最小点を求めることが出来る。すべての試行をstochastic gradient descentで行わないのは、batchのほうがより正確に最小点を求めることが出来るためである。

 講義は一通り先生が概要についての説明をした後に生徒たちにその計算についての質問をしていく形で進められた。

第2回
Fundamentals of Machine Learning

■講義実施日

2018年4月14日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

朝日 透、戸川 望、丸山 祐丞、カーン ムハンマド エムティアスa

■講義内容

 機械学習の基本原理を学んだ。機械学習ではinputデータとoutputデータを関連付けできる回帰分析が重要であるため、講義では回帰分析の意味とその例を中心に扱った。
 講義では回帰分析を用いることで2つの推定をできるということを学んだ。Predictionではinputデータに対して、outputデータを具体的な数値として得られる。それに対して、Interpretationではinputデータとoutputデータが数学的・統計学的に関連付けできるものかを結果として得られる。講義では実際の機械学習がどちらの例に属するかなどの演習を行った。
 講義の後半では線形回帰について扱った。線形回帰では、inputデータに対してコンピューターがどのような基準で線形回帰を行っているかを学んだ。誤差を最小化するMean Square Errorを用いて、演習を行った。

第1回
Introduction to Machine Learning

■講義実施日

2018年4月14日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Emtiyaz Khan、Yusuke Maruyama、Toru Asahi、Nozomu Togawa

■講義内容

講義の初回ということで、機械学習についての大まかな概要についてから始まった。
コンピュータがどのように発展してきたかという説明から、機械学習がどのような方法で学習していくのかを先生の娘がギターに興味を持って行く過程を例にして話をされた。
また、現在実際に機械学習がどのような場面で活用されているのかを話し、その成功例と失敗例、改善点などを講義された。 さらに、機械学習が人工知能(AI)、統計、データマイニングと何が違うのか、どのような点でつながっているのかを生徒同士のディスカッションを促しながら解説していった。

この講義が今後どのようなスケジュールで行われていくかの解説もあり、この講義を終わるころにはどのようなスキルや知識が身についているかを明確に説明された。