人工知能とその応用(β:エージェント)

受講者の声:人工知能とその応用(β:エージェント)詳細はこちら

第1回 / 第2回 / 第3回 / 第4回 / 第5回 / 第6回 / 第7回 / 第8回

第8回
Examination.

■講義実施日

2018年7月14日(土)

■時間

10時40分 ~ 12時10分

■会場(教室)

日本橋キャンパス ホール

■担当講師

江原 遥、丸山 祐丞

■講義内容

 Examinationとのことであったが、教室を解放したうえで、レポート作成の時間となった。
 先生も質問等に答えてくださっていた。

第7回
NLP Applications.

■講義実施日

2018年7月14日(土)

■時間

9時00分 ~ 10時30分

■会場(教室)

日本橋キャンパス ホール

■担当講師

丸山 祐丞、江原 遥、朝日 透

■講義内容

 NLPのアプロケーションについての講義。様々な言語の単語を表現するにはNLPを使って、単語の特徴を捉えた学習をしている。これをword representationといい、自然言語処理における単語表現はベクトルで表される。単語の意味は周りの文脈によって決まっており、構文的意味的な情報をベクトルに埋め込む。またテキスト処理として、Word2Vecと呼ばれるニューラルネットワークを使う。テキストを入力すると、単語のfeature vectorが出力され、パターン識別に適用している。CBOWモデルとその特化版のSkip-gramモデルが存在している。このモデルは深層学習の言語モデルの基礎になっている。この場合、2層のNeutral Network (NN) により学習していることがキモである。

第4回
Sytactic parsing.

■講義実施日

2018年6月30日(土)

■時間

10時40分 ~ 12時10分

■会場(教室)

日本橋キャンパス ホール

■担当講師

ジョーンズ ベーベン キーリ

■講義内容

 今回は自然言語処理の中で、センテンスがどのように分解され、フィックスされ、定義かし構造が一般化されるのかについて講義された。例文では日本語の文が用いられ、樹形図的に関連づけられて、N,S,VP,PP等々で分類されているのがわかった。構造を作る手法として、CKY法、PCFG(確率文脈自由法)が紹介された。
 日本語の言語処理、構文解析の方法の中では一つ一つをタグ付けしトレーニングする教師あり学習とインプットに対してルールを構築していく教師なし学習の解説があった。PCFGにも関わるアルゴリズムにはinside-outsideアルゴリズムがある。
 こうした構文解析によって曖昧だったものに対してもグラマーを構築、処理することが可能になっている。

第3回
POS taggin, NER.

■講義実施日

2018年6月30日(土)

■時間

9時00分 ~ 10時30分

■会場(教室)

日本橋キャンパス ホール

■担当講師

丸山 祐丞、江原 遥、朝日 透

■講義内容

 形態素解析の歴史は「Juman」精度が低いために2002年に「MeCab」が誕生した。基本的に系列ラベリングというタスクを解く方法で、テキスト解析をする。現在はConditional Random Field (CRF)という方式をとっている。CRFは、もともとある情報から特徴量をとる方法である。識別モデルであるので、関数モデルで学習可能である。式内のパラメーターwを調整する学習すること相当し、動的計画法を行う。現在は膨大な特徴量を考えて解析する教師ありの従来の方法から、深層学習を使って設計したほうがいいという教師なし学習に変わってきている。BiLSTM-CRFという方法で、Long Short Term Memory(LSTM)によりそこまでのべクトル(何かフレーズの意味を示している)をCRFの特徴量として埋め込めんで、人間の深層学習によりテキスト解析をしている。この時、変えたほうがいいところと変えないでいいところを考慮する必要性がある(行列が1以下になると小さすぎないようにするなど)。

第2回
Language models.

■講義実施日

2018年6月23日(土)

■時間

10時40分 ~ 12時10分

■会場(教室)

29号館 302号室

■担当講師

ジョーンズ ベーベン キーリ

■講義内容

 人はどのように学ぶのか、またプログラムはどのように学ぶのかという視点で言語の一般化について講義された。人は言語について母の言葉を真似るといったところから始まるが、PCは確率で分析し適切化していく必要がある。
 一つ目の例として、翻訳の適化がある。文脈から判断し、さらに論文やその他の文などジャンル分けがされる。
 二つ目の例として、タイピングの予測変換があげられる。特に予測変換を適切に行うに当たって、確率論が使われる。AI等が行う言語モデルは、指数関数的なデータ処理、ジップの処理、ベイズの理論、ディリクレ分布などに基づいておりひとつひとつ式やグラフを用いて解説された。

第1回
Orientation.

■講義実施日

2018年6月23日(土)

■時間

9時00分 ~ 10時30分

■会場(教室)

29号館−302教室

■担当講師

丸山 祐丞、ジョーンズ ベーベン キーリ、朝日 透

■講義内容

 まず、朝日先生が授業の趣旨・評価方法・注意点について説明した。また、D-data(インターンシップ・シンポジウム)についての詳細情報に加え、今後の授業やシンポジウムの紹介をした。
 その後、丸山先生による自己紹介と自身の研究の紹介、画像認識の基本知識についての講義が続いた。画像認識は、対象物の特徴を掴み識別することであり、人工知能のディープランニング技術を使う。特にCNNによる画像認識について触れ、今ホットなAI研究分野の説明をした。
 最後に早稲田キャンパスと北九州キャンパスの受講者たちがそれぞれ、自己紹介と授業への意気込みを発表し、授業が締めくくられた。