機械学習コース(理研・早大連携)

受講者の声:Machine Learning for Advanced Integrated Intelligence β(領域別コース:機械学習コース(理研・早大連携))詳細はこちら

第8回
Examination

■講義実施日

2018年6月9日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

Qibin Zhao、Yusuke Maruyama、Toru Asahi、Nozomu Togawa

■講義内容

 この時間は試験であったため、今回の講義内容ではこの授業の総括を記す。
 このMachine Learning for Advanced Integrated Intelligence βでは前回までのαの講義よりも数学的、アプリケーション寄りの講義であった。特に行列の知識があると仮定したうえでの講義となっていた。そのためか、受講生の中では授業についてこられていない生徒、特に文系、が見受けられた。したがって、この講義を受ける際にはある程度の数学の知識を必要とすることを強く周知させておくことが必要に思われた。
 また、前回のαの授業では、生徒が多くの質問をしたため当初予定していたカリキュラム通りに授業が進まなかったが、今回のβにおける田部井先生とQibin先生の講義ではきっちりとカリキュラム通りに進んだ。

第7回
Fundamentals of Machine Learning

■講義実施日

2018年6月9日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Toru Asahi、Nozomu Togawa、Yusuke Maruyama、Qibin Zhao

■講義内容

 本講義ではテンソルネットワークを用いた多次元データの削減方法について扱った。機械学習ではしばしば多次元構造のデータ(スピーチやビデオ等)を学習データとして用いるが、「次元の呪い(Curse of dimensionality)」と称されるほど多次元データ量は膨大で複雑な構造を持っている。
 従って講義内で扱う次元削減法の目的は機械学習による予測の精度を下げずにデータ量を削減すること、また、そのために有用かつ意味のあるデータを抽出することにある。講義内では多次元データの数的構造や適応する削減式等の説明を行い、テンソルネットワーク法の基本的な考え方を扱った。

第6回
Tensor Networks

■講義実施日

2018年6月2日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

Qibin Zhao、Yusuke Maruyama

■講義内容

 前回の講義に引き続き、今回の講義では、テンソルを用いたテンソルネットワークについての講義を行った。テンソルネットワークとは、高次のテンソルを低次のテンソルに分解する手法で、その中でもいくつかの手法が存在する。テンソルネットワークでは、その手法はグラフィカルに表現することができ、これにより複雑な数式でもより直観的にその計算手法を理解することが可能となる。
 講義では、そのテンソルネットワークがどのような計算手法によって動いているのかを説明した。基本的な考え方は行列分解と同じような考え方だが、実際はかなり複雑な計算手法によって成り立っている。

第5回
Multi linear Algebra and Tensor Decompositions

■講義実施日

2018年6月2日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Qibin Zhao、Yusuke Maruyama

■講義内容

 今回の講義では、まずQibin先生の自己紹介から始まり、全体としてはmachine learningを扱う為に必要な基礎的な数学についての講義が行われた。
 初めに、機械学習における行列の分解とは何を行うことを意味しているのかの説明があり、その流れのまま主成分分析についての概要的な説明があった。
 次にテンソルについての概要的な説明とテンソル積がどのような計算により行われているのかの講義が行われた。また、テンソルを用いることで行うことが出来るタッカー分解と特異値分解についての説明も行われた。さらには、非負値行列因子分解についての概要の説明が行われた。

第4回
Fundamentals of Machine Learning

■講義実施日

2018年5月26日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

Toru Asahi、Nozomu Togawa、Yusuke Maruyama、Yasuo Tabei、Qibin Zhao

■講義内容

 本講義ではデータ圧縮法がどのように機械学習に応用できるかについて扱った。機械学習では教師からtraining dataをもらい、そのデータ内での傾向や特徴を学習することで未知のデータの解析を予測することができる。学習の際にデータ量が膨大になることが多く、データ圧縮法によって学習効率を高められることがわかった。
 データ圧縮の過程において、必要とされる要素は4つほど提唱されており、拡張性、圧縮率、圧縮によるデータの損失、圧縮データの読み取りアルゴリズムとされている。ゲノム情報など、巨大な情報に対して解析が求められる時代にデータ圧縮法はその効率性に直接関与する大事な手法であることを学んだ。

第3回
Machine learning on compressed data representations3

■講義実施日

2018年5月26日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Yasuo Tabei、Yusuke Maruyama

■講義内容

 今回の講義では、前回の続きであるsuccinct treeについての説明から始まった。Succinct treeを用いることで従来の方法より3倍速く情報を検索することができ、さらに20%ほどデータを圧縮することが可能となる。
 また、wavelet treeについての講義も行われた。Wavelet treeとは整数型の配列のための簡潔データ構造で、2003年に開発された。Wavelet treeの最大の特徴は、計算にかかる時間が整数型の配列の長さ(距離)に依存しないところにあることをその詳しい仕組みとともに説明された。

第2回
Fundamentals of Machine Learning

■講義実施日

2018年5月19日(土)

■時間

16時00分 ~ 17時30分

■会場(教室)

日本橋キャンパス

■担当講師

Toru Asahi、Nozomu Togawa、Yusuke Maruyama、Yasuo Tabei、Qibin Zhao

■講義内容

 本講義ではデータの圧縮方法について学んだ。大量のデータを圧縮するうえで様々な方法がある中、今回はsuccinct tree法について扱った。Succinct treeでは生物の系統樹のように節や葉を利用して、データ同士の位置関係をアルゴリズムによって整理できる。圧縮の効率の例としては、通常は二分木で100万の節に相当するようなデータを格納しようとすると、2.4GBのビット数が必要となるが、succinct treeではわずか0.3MBのメモリさえあれば同等量のデータを格納することができる。

第1回
Machine learning on compressed data representations1

■講義実施日

2018年5月19日(土)

■時間

14時00分 ~ 15時30分

■会場(教室)

日本橋キャンパス

■担当講師

Yasuo Tabei、Yusuke Maruyama、Toru Asahi、Nozomu Togawa

■講義内容

 今回の講義では、コンピュータにおける記憶階層についての話から始まり、ビックデータを扱うにあたって何が重要ということについての説明があった。
 ビックデータを扱うためのコンピュータにおける重要な要素の一つとして「簡潔データ構造」と呼ばれるものが存在する。簡潔データ構造とはその名の通り、データをより扱いやすくするためのデータ構造の総称で、いくつかの種類が存在する。
 また今回の講義では、簡潔データ構造を理解するために必要な基礎的な知識、rankとselect、樹形図についての説明が行われた。