Submit Search
nlpaper.challenge2 nlp1
Mar 7, 2019
Download as pptx, pdf
0 likes
299 views
K
Kense Todo
nlpaper.challenge 第2回NLP/CV交流勉強会で発表したものです。内容は「言語処理における深層学習の基礎」となり、pp43~pp72を担当しました。
Read more
1 of 36
Download now
Downloaded 10 times
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
Ad
Recommended
Py conkyushu2018
Py conkyushu2018
ssuseraac758
初心者向け、Pythonで始める人工知能入門の資料です。 人工知能の説明と、ニューラルネットワーク の解説、簡単な画像識別装置を Google の Colab と Keras を使った実装の仕方を紹介しています。
DeepLearning 中心に見る最近の論文事情
DeepLearning 中心に見る最近の論文事情
Yuta Yamashita
DeepLearning を中心にNLP・CV・RLでどのような進歩をしているかざっくりまとめました。
ツイートの取得と解析の間
ツイートの取得と解析の間
nemupm
「大阪Pythonユーザの集まり」でTwitterの解析を Pythonの話を少し絡めて発表させていただいたので、 アップロードさせていただきます。
自然言語処理概要
自然言語処理概要
ratchiratchi
自然言語処理とは何か簡単にまとめたもの
質問応答システム
質問応答システム
エンジニア勉強会 エスキュービズム
質問応答システム
高橋_全脳アーキテクチャ若手の会 トーク資料(抜粋)
高橋_全脳アーキテクチャ若手の会 トーク資料(抜粋)
HideyukiTakahashi8
下記のイベントで話した内容のうち、具体的な研究の話(まだあまりネットにあげたくない)を省いたバージョンです!! 何もしないロボットについて!!
自分以外の心は存在するのか, 高橋英之
自分以外の心は存在するのか, 高橋英之
KIT Cognitive Interaction Design
他人の心を思いやる,他人の心に配慮する,このように他者の心を意識した振る舞いをすることは,社会で生きていくために必須な能力であると考えられている.その一方で,”他者の心”という概念は曖昧であり,科学が発展した現在におても心とは何なのか,その統一された理解はなされているとはいいがたい.今回の発表では,一人称的心(自分に心があるという意識)と三人称的心(他者に心があるという意識)をそれぞれ明らかにするために行われてきた研究(主にロボットを用いた実験)について紹介することで,心を科学する上で今後超えるべき壁について参加者で議論を深めたい.
平成29年度 日本大学文理学部オープンキャンパス 「人工知能ってどんな仕組み?」
平成29年度 日本大学文理学部オープンキャンパス 「人工知能ってどんな仕組み?」
kthrlab
2017年のオープンキャンパスの模擬授業で使用したスライドです。
自然言語処理
自然言語処理
naoto moriyama
入門向けに自然言語処理の歴史を超ざっとまとめました
Gakusei lt
Gakusei lt
TomoyukiHirose2
8/11/2018の懇親会LTのスライドです
読書感想文をかこう!
読書感想文をかこう!
Takahiro Yaota
Code for KOSEN 勉強会 #2
論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン
T2C_
英論文: Building Watson:An Overview of theDeepQA Project を全くAIについての素養が無い方々向けに紹介したスライドです。
パターン認識にとっかかる
パターン認識にとっかかる
Jun Saeki
AITCの2015年1月度クラウドテクノロジー活用部会で使ったもの
Lab visit research
Lab visit research
Junta Mizuno
Lab visit intro
Lab visit intro
Junta Mizuno
次元の呪い
次元の呪い
Kosuke Tsujino
またはいかにしてN次元超球内部から一様に点をサンプリングするか
おとなのテキストマイニング
おとなのテキストマイニング
Munenori Sugimura
ようやく動くものが出来たよ!というお話。
合宿の成果
合宿の成果
Ryoga Yamada
ハッカーズチャンプルーの開発合宿の成果発表LTの資料
日中Ocr
日中Ocr
Terashi Seinosuke
オープンソースを利用した日本語、中国語(簡体字)のiPhone用OCRソリューションの案内
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
Hiro H.
人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる
Yuji Shimada
ニューラルネットワークについて哲学の観点も交えて解説してみました。
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Tadahiro Taniguchi
2015/05/31開催 JSAI2015(日本人工知能学会全国大会)におけるオーガナイズドセッション「記号創発ロボティクス」の趣旨説明のスライドです. 後半で,なんとなく,記号創発ロボティクスのバックグラウンドを時間軸でまとめてみました.
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
Yuya Soneoka
2017/12/15 Deep Learning JP: http://deeplearning.jp/seminar-2/
2016tf study5
2016tf study5
Shin Asakawa
TensorFlow勉強会第5回発表資料
「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド
Masatake Hori
2016年8月28日に渋谷で行われた「夏の知的生産とブログ祭り」のスライドです。まずい画像は消してあります(笑)
高大連携授業20140730
高大連携授業20140730
義広 河野
東京情報大学 高大連携授業 2014年7月30日(水) テーマ『高校生ための情報リテラシー』 第2部「高校生のためのソーシャルメディア活用術」
2016tensorflow ja001
2016tensorflow ja001
Shin Asakawa
第一回 TensorFlowと機械学習に 必要な数学を基礎から学ぶ会資料
Homo Deus 読書会話題提供
Homo Deus 読書会話題提供
Professional University of Information and Management for Innovation (情報経営イノベーション専門職大学)
Homo Deus 読書会話題提供
教員免許状更新講習20170804
教員免許状更新講習20170804
義広 河野
教員免許状更新講習2017 タイトル『ソーシャルメディアリテラシー教育~情報モラルとソーシャルメディア活用~』
Sakai 20111015
Sakai 20111015
nextedujimu
More Related Content
What's hot
(15)
自然言語処理
自然言語処理
naoto moriyama
入門向けに自然言語処理の歴史を超ざっとまとめました
Gakusei lt
Gakusei lt
TomoyukiHirose2
8/11/2018の懇親会LTのスライドです
読書感想文をかこう!
読書感想文をかこう!
Takahiro Yaota
Code for KOSEN 勉強会 #2
論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン
T2C_
英論文: Building Watson:An Overview of theDeepQA Project を全くAIについての素養が無い方々向けに紹介したスライドです。
パターン認識にとっかかる
パターン認識にとっかかる
Jun Saeki
AITCの2015年1月度クラウドテクノロジー活用部会で使ったもの
Lab visit research
Lab visit research
Junta Mizuno
Lab visit intro
Lab visit intro
Junta Mizuno
次元の呪い
次元の呪い
Kosuke Tsujino
またはいかにしてN次元超球内部から一様に点をサンプリングするか
おとなのテキストマイニング
おとなのテキストマイニング
Munenori Sugimura
ようやく動くものが出来たよ!というお話。
合宿の成果
合宿の成果
Ryoga Yamada
ハッカーズチャンプルーの開発合宿の成果発表LTの資料
日中Ocr
日中Ocr
Terashi Seinosuke
オープンソースを利用した日本語、中国語(簡体字)のiPhone用OCRソリューションの案内
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
Hiro H.
人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる
Yuji Shimada
ニューラルネットワークについて哲学の観点も交えて解説してみました。
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Tadahiro Taniguchi
2015/05/31開催 JSAI2015(日本人工知能学会全国大会)におけるオーガナイズドセッション「記号創発ロボティクス」の趣旨説明のスライドです. 後半で,なんとなく,記号創発ロボティクスのバックグラウンドを時間軸でまとめてみました.
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
Yuya Soneoka
2017/12/15 Deep Learning JP: http://deeplearning.jp/seminar-2/
自然言語処理
自然言語処理
naoto moriyama
Gakusei lt
Gakusei lt
TomoyukiHirose2
読書感想文をかこう!
読書感想文をかこう!
Takahiro Yaota
論文読解:クイズ王ワトソン
論文読解:クイズ王ワトソン
T2C_
パターン認識にとっかかる
パターン認識にとっかかる
Jun Saeki
Lab visit research
Lab visit research
Junta Mizuno
Lab visit intro
Lab visit intro
Junta Mizuno
次元の呪い
次元の呪い
Kosuke Tsujino
おとなのテキストマイニング
おとなのテキストマイニング
Munenori Sugimura
合宿の成果
合宿の成果
Ryoga Yamada
日中Ocr
日中Ocr
Terashi Seinosuke
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
札幌Ruby会議02 ライトニングトーク「RubyとTwitterと私」
Hiro H.
人工知能が理解できると人間が理解できる
人工知能が理解できると人間が理解できる
Yuji Shimada
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Os 12 記号創発ロボティクス / OS趣旨説明@JSAI2015
Tadahiro Taniguchi
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
[DL輪読会] Using millions of emoji occurrences to learn any-domain representatio...
Yuya Soneoka
Similar to nlpaper.challenge2 nlp1
(17)
2016tf study5
2016tf study5
Shin Asakawa
TensorFlow勉強会第5回発表資料
「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド
Masatake Hori
2016年8月28日に渋谷で行われた「夏の知的生産とブログ祭り」のスライドです。まずい画像は消してあります(笑)
高大連携授業20140730
高大連携授業20140730
義広 河野
東京情報大学 高大連携授業 2014年7月30日(水) テーマ『高校生ための情報リテラシー』 第2部「高校生のためのソーシャルメディア活用術」
2016tensorflow ja001
2016tensorflow ja001
Shin Asakawa
第一回 TensorFlowと機械学習に 必要な数学を基礎から学ぶ会資料
Homo Deus 読書会話題提供
Homo Deus 読書会話題提供
Professional University of Information and Management for Innovation (情報経営イノベーション専門職大学)
Homo Deus 読書会話題提供
教員免許状更新講習20170804
教員免許状更新講習20170804
義広 河野
教員免許状更新講習2017 タイトル『ソーシャルメディアリテラシー教育~情報モラルとソーシャルメディア活用~』
Sakai 20111015
Sakai 20111015
nextedujimu
アクティブラーニングの要素
アクティブラーニングの要素
Makoto Kageto
how to enhance active Learning
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
2016/03/17にPFIセミナーで話したスライドです。子供の言語獲得に関する非常に基本的な話と、関係しそうな機械学習の技術を紹介しました。素人なりのまとめなので、間違いなどご指摘いただけると助かります。
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
Koki Nakamura
人工知能研究のための視覚情報処理
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
Seiichi Uchida
今後ありうる文字画像研究(文字だからできる研究,文字だからやりやすい研究)について,私的なアイディアをまとめたプレゼンです.(2019年10月,パターン認識・メディア理解研究会)
情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介
y_kasugai
神奈川県情報部会での発表スライドです。(20141226)
Wikibana20100612
Wikibana20100612
masayoshi takahashi
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
Youichiro Miyake
明治大学「ゲーム研究の新時代に向けて」 http://sauvage.jp/archives/3795 講演資料(前篇)です。
教員免許状更新講習20140807
教員免許状更新講習20140807
義広 河野
教員免許状更新講習2014 タイトル『ソーシャルメディア活用術とパーソナルブランディング』
研究の呪い
研究の呪い
Hitoshi Nishikawa
私たちはなぜ研究をするのでしょうか。なぜかこの世にもたらされ、いずれ世を去る我々はなぜ研究をするのでしょうか。
「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」
munyon74
2017/8/11「関西ハッカソンが活かす宇宙〜誰でも宇宙に関われる??宇宙ビジネスの幕開け〜」@グランフロント大阪 トークセッション用資料
2016tf study5
2016tf study5
Shin Asakawa
「夏の知的生産とブログ祭り」スライド
「夏の知的生産とブログ祭り」スライド
Masatake Hori
高大連携授業20140730
高大連携授業20140730
義広 河野
2016tensorflow ja001
2016tensorflow ja001
Shin Asakawa
Homo Deus 読書会話題提供
Homo Deus 読書会話題提供
Professional University of Information and Management for Innovation (情報経営イノベーション専門職大学)
教員免許状更新講習20170804
教員免許状更新講習20170804
義広 河野
Sakai 20111015
Sakai 20111015
nextedujimu
アクティブラーニングの要素
アクティブラーニングの要素
Makoto Kageto
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
Koki Nakamura
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
「あなたがいま読んでいるものは文字です」~画像情報学から見た文字研究のこれから
Seiichi Uchida
情報の科学的な理解に関する授業実践の紹介
情報の科学的な理解に関する授業実践の紹介
y_kasugai
Wikibana20100612
Wikibana20100612
masayoshi takahashi
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
Youichiro Miyake
教員免許状更新講習20140807
教員免許状更新講習20140807
義広 河野
研究の呪い
研究の呪い
Hitoshi Nishikawa
「自由研究の本気、ハッカソン」
「自由研究の本気、ハッカソン」
munyon74
Ad
nlpaper.challenge2 nlp1
1.
深層学習による 自然言語処理 言語処理における深層学習の基礎 藤堂 健世 東京工業大学 博士2年 @yousui_t_ken
2.
自己紹介 東京工業大学情報理工学院博士2年 ①知能とはなにか?みたいな厨二的な感覚で人工 知能の研究を始める(学部教育学) ②1つのアイデアとして、感情(Emotion)と性格 (Personality)を組み込んだエージェントを作りた いと思い研究を進めていた ③次の研究どうしよう→機械による言語・概念創 発っておもしろそうじゃない?機械独自のコミュニ ケーションってどういう体型なんだろう?生命現象 としても面白いんじゃないか? ④研究室教授とバトル中(そろそろデータをまと めないと行けないシーズン) 全然更新していないけどブログ もやっています 「やわやわ人工知能考察」 技術論ではなく、そもそも「人 工知能ってなんやねん」という ものを今のSOTA的技術を使っ て説明しようとかする無理ゲー コンセプト 次回 ・ボンガルド問題 ・パターンの外側に何がある?
3.
http://www.foundalis.com/res/bps/bpidx.htm BP#10. Designer: M.
M. Bongard みんなで解こうボンガルド
4.
ニューラル翻訳で消えてしまった モンティ・パイソン小ネタシリーズ
5.
目次 「深層学習による自然言語処理」の Chapter3「言語処理における深層学習基礎」 pp43~pp72 サブタイトルは以下の通りです 3.1.準備:記号の世界とベクトルの世界の橋渡し 3.2.言語モデル 3.3.分散表現 このスライドで重要なのは 現実世界の離散情報をどのようにすればニューラルネット で記述で扱えるようになるのだろうか?
6.
3.1.準備:記号の世界とベクトルの世界の橋渡し ■画像認識・音声認識と自然言語処理で利用する情報の違い 画像認識・音声認識 数値 連続値 自然言語処理
文字・単語・記号 離散値 ニューラルネットで「記号」を処理するためには 記号の世界から、「実数値連続領域の世界」に変換する必要がある ぼく、連続値しか利用できないよ
7.
3.1.準備:記号の世界とベクトルの世界の橋渡し 橋渡しの1つの方法→「One-Hotベクトル表記*」 *論文によっては、1-of-Kベクトルと呼ぶ場合もある。K次元ベクトルの中の1つの要素だけ、1(残りはすべて0)のベクトルという意 味になるため One-Hotはベクトルの世界の橋渡しの入り口である。 実際の計算では埋め込み行列を使って分散表現化して利用する。
8.
3.1.準備:記号の世界とベクトルの世界の橋渡し ニューラルネットワークによって 処理された「何らかの記号」は、 そのままの状態では離散値の情報で あり、使い勝手が悪い →ベクトルから記号の世界へ 戻す必要がある。 ■Softmax関数を利用することで可能になる この数式はoのすべての要素の中で、最も大きい値を取る要素番号の値が1に なり、それ以外が0になるベクトルを返すことになる。 →One-hotへの変換が可能
9.
3.1.準備:記号の世界とベクトルの世界の橋渡し 記号の世界 One-Hot ベクトル
連続値の世界 分散表現化 ソフトマックス関数 One-Hotベクトル列を実際を 入出力として利用する
10.
どっちが自然な「言語」だろうか? どうすれば、自然言語ぽさを計測できるか? →言語モデル(確率的言語モデル)をたてる 文や文章が生成される確率をモデル化したもの 言語モデルを利用することで ●文章の自然言語らしさを推定する ●確率分布から単語をサンプリングし、文章を生成する 3.2. 言語モデル(Language model;LM) 「天気良い今日はにゅ。に ゃにゃにゃ」 「今日は良い天気ですね」
11.
3.2. 言語モデル(Language model;LM) ■言語モデルの表し方の前に… 長さTの単語列をY=(y1,y2,y3,...,yT)とする*。 このとき単語列Yを生成する確率をP(Y)と表すことができる。 ただ、このままでは「文」として完成していることが明示的でない。 なので、文頭と文末を能わす仮想単語「BOS」と「EOS」を利用する。 BOSとEOSを導入すると、Yは新しい単語列Y'として表される。 また、このときの確率もP(Y’)として表される *Yの中身であるytは厳密には、単語に対応するOne-hotベクトルである。
12.
3.2. 言語モデル(Language model;LM) P(BOS今日は良い天気ですねEOS) P(BOS天気良い今日はにゅ。にゃにゃにゃEOS) このP(・)を正しく推定してくれるモデルを構築したい。 この言語モデルをどのようにして構築するか・・・? ●Nグラム言語モデル ●ニューラル言語モデル(neural
language model) 「天気良い今日はにゅ。に ゃにゃにゃ」 「今日は良い天気ですね」
13.
3.2. 言語モデル(Language model;LM) ■実際の言語モデル構築を考える T個の単語からなる文に、 文頭と文末の仮想単語を含めた文を Y=(y0,y1,y2,y3,...,yT,yT+1) と定義する 言語モデルとして、この文Yの生成確率をP(Y)を モデル化することを考える →ただし直接P(Y)を直接モデル化することは困難* である。 *「困難」…文の種類はそれこそ無限に考えられるため、無限の種類のデータ に対して十分な量の訓練データを揃えることは困難。またデータを揃えたとし ても、効率的にモデルを学習することはやっぱり困難… P(Y)? 無理無理?
14.
3.2. 言語モデル(Language model;LM) ■言語モデルは次の戦略を利用する 言語モデルは、直前に出現したいくつかの単語 を文脈*として次の単語の出現確率をモデル化す る。 *言語モデルにおいて、ある単語の出現確率を計 算するときに用いる周辺の単語を文脈(context) と呼ぶ 確率的言語モデルは以下の式で表される (3.5) (3.8)(t-a)単語だけ使うとこの式になる 今日
僕は 彼女と ご飯を 〇〇 このへんの 単語を利用して この単語の出現 確率をモデル化 する ■この言語モデルが、NNモデルの基本的の形になる
15.
3.2. 言語モデル(Language model;LM) 3.2.3.順伝播型ニューラルネットワーク基本モデル(FFNN言語モデル) ニューラル言語モデルのサブカテゴリとして、順伝播型ニューラルネットを用い た言語モデルを総称して順伝播型ニューラル言語と呼ぶ (3.9)
16.
3.2. 言語モデル(Language model;LM) 例えば3層のニューラルネットワークでt番目の単語の生成確率Pを求めたい (3.11)
17.
私の話、 自然言語の 確率 小さすぎ!?
18.
3.2. 言語モデル(Language model;LM) 3.2.4.再帰ニューラル言語モデル(RNN言語モデル) 順伝播型ニューラルと異なり、文脈帳を固定することなく可変長入力に対応でき る。系列データのモデル化に適している。 ニューラル言語モデルのサブカテゴリとして再帰ニューラルネットワークを用い た言語モデルを再帰ニューラル言語モデル(RNN
language model)よぶ。 (3.12)
19.
3.2. 言語モデル(Language model;LM) 例えば,1層の再帰ニューラルネットワークではこの様に表現する
20.
3.2. 言語モデル(Language model;LM) 3.2.5.言語モデル評価・・・パープレキシティ(PPL)が利用される 式を見ると後半の部分は負の対数尤度として見ることができる PPLは単語を予測する確率分布に どれだけばらつきがあるか評価し ている。 →PPLが小さいほど、評価データ の確率分布と言語モデルが似てい ることになる。
21.
3.2. 言語モデル(Language model;LM) 3.2.6.言語モデルからの文生成 言語モデルは単語の生成確率をモデル化したもの →生成確率に基づいてサンプリングすると 「それっぽい」文が作れるのではないか? (3.15) 文頭から順番に次の単語を予測する処理と解釈す ることもできる 何らかの分布を持 っている 言語モデル文頭から順番に単語 を入れていく 次の単語をサンプリ ングする 今日
僕は 彼女と ご飯を 〇〇 このへんの 単語を利用して この単語の出現 確率をモデル化 する この単語を予測 できないか?
22.
3.2. 言語モデル(Language model;LM) 3.2.6.言語モデルからの文生成 言語モデルは、ある文章が自然言語かどうかを判断する評価機である。(基準と なる文章が存在する) それを「生成モデル」として利用するためには、単語を逐次サンプリングする必 要がある。(自分で自分の予測した結果を再利用する形になる) →数式的には以下のような違いになっている (3.16) ・(すなおな)言語モデルでは、文脈に対応するある単語の確率を出力する ・生成モデルでは、予測対象となる単語を出力している(事前には知らない)
23.
3.2. 言語モデル(Language model;LM) 3.2.7.
文字単位の言語モデル ■単語より短い文字単位の言語モデルを考えることができる →単語ベースだと訓練データに現れていない単語に対応することができない →単語境界を事前に特定の問題 ■課題もある →単語や句などの人間が認識している大きな単位(長い依存関係)の学習が難し い →Tが必然的に長くなるわけだから、計算量や領域コストが掛かってしまう。
24.
3.3. 分散表現 ■記号を計算機上で賢く扱うための方法論→1つの研究領域として考えられる 記号の世界 One-Hot
ベクトル 連続値の世界 ソフトマックス関数 分散表現化
25.
3.3. 分散表現 離散 オブジェクト One-Hot ベクトル
連続値の世界 分散表現化 僕たちが話す 言葉は 離散オブジェクト
26.
3.3. 分散表現 離散オブジェクト ベクトル空間で表された分散表現 単語に着目した分散表現を」「単語分散表現(単語埋め込み)」と呼ぶ 類似度の定義が難しい ベクトル空間上で 表現されているので 類似度や関係性を数値として 表現することができる
27.
3.3.2.歴史的背景 3.3. 分散表現 自然言語処理の文脈で利用した分布仮説のアイデアが ニューラルネット研究とうまく融合できた ニューラルネット研究からの視点 自然言語処理研究からの視点 1980年代のHintonらの研究から、 脳のモデル化する方法として生ま れた。 その後、ニューラルネットワーク で単語分散表現に成功することが できた(2000年) 単語の分布仮説 …周囲の文脈によって単語の意味 が決まる これにより、単語間に何かしらの 類似度を与えることができる
28.
3.3. 分散表現 3.3.3 分散表現の獲得方法 よい分散表現とはなにか? 意味の似ている離散オブジェクトは近く、反対の意味の離散オブジェクトは遠く なれば、よい分散表現として考えることができる
29.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (1)ニューラル言語モデルを用いる (3.11)の式の一番上のみ ↑より、一般的なニューラル言語モデルを学習することで、同時に分散表現も獲 得できたことになる (図3.4.) 変換行列が分散表現として利用できる 入力の際の変換行列が似ていれば、出力も類似する→良い性質となる Ex)「おはよう」と「こんにちは」の変換行列、出力が類似すれば・・・?
30.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (2)対数双線形モデルに基づく分散表現の獲得 →ニューラル言語モデルの派生 ニューラル言語モデルだと大規模データ用いると性能上がるけど、計算量的に困 難じゃん・・・? →なら、最も簡単なニューラル言語モデルを作ればいいんじゃない? 実際にはSkip-gramモデルとCBoWモデルを総称・包括したツール わしら、2つの内 積ベクトルで構成 されていてめっち ゃ早いねん
31.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (2)対数双線形モデルに基づく分散表現の獲得 周りの単語からある単語を予測するモデル
1つの単語から周囲の単語を予測する CBoWモデル Skip-gramモデル
32.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (2)対数双線形モデルに基づく分散表現の獲得 =■学習方法 訓練データをD
・・・ として 目的関数を符の対数尤度として取ると (3.21) となり、実際の計算式である(3.17) を代入すると となる ほら、2つの内積で構成されてい るからこんな簡単なニューラルネ ットになるんだよ
33.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (3)負例サンプリングによる高速化 詳細な説明は4.3.4節に譲ります・・・ ←実際にWord2Vecで利用されている計算方法 訓練データを生成する 確率分布 ノイズデータ (間違ったデータ)を 生成する確率分布 クラス分類のタスクとして判断する
34.
3.3. 分散表現 3.3.3 分散表現の獲得方法 (3)負例サンプリングによる高速化 訓練データを生成する確率分布を表現する確率モデル ノイズデータの確率モデルはこのPD’=(1−P)となる この目的関数は次のようになる データを考慮すると次になる
35.
3.3. 分散表現 ■よい分散表現は様々な自然言語処理の応用タスクで利用されている ■Word2Vecが今の所性能が良いとされているが、単語だけでなく、句・文・文 章を含んだ分散処理が期待されている
36.
ご清聴ありがとうございました
Download