SlideShare a Scribd company logo
© 2015 Metaps Inc. All Rights Reserved.
Facebookの人工知能アルゴリズム
「Memory Networks」について
調べてみた
株式会社メタップス
研究推進担当  
礼王懐成
© 2015 Metaps Inc. All Rights Reserved.
調査・資料作成	
礼王 懐成	
Keo Darawong	
•  株式会社メタップス(研究開発部門)所属	
•  東京大学大学院 工学系研究科 卒業	
•  人工生命研究所(役員)、東京大学先端科学技術研究セ
ンター特任助手、独立やベンチャーを経てメタップスへ	
•  大学院学生時代は大脳基底核と前頭葉ループにおける運動系列強化学習を研究。 
問題解決法に興味を持ち人工知能の研究開発を行なっているベンチャー会社へ。  
機械学習を用いた自然言語解析や画像認識や知識推論の研究開発(接地問題に
挑戦)。 金融工学や検索エンジン(マップ検索も含む)も経験。 画像認識機能を持つ
自然言語対話システムのための要素技術の研究開発。 トピックモデルなど自然言語
解析を用いたマーケティングの研究開発。
© 2015 Metaps Inc. All Rights Reserved.3
出典:http://qz.com/370089/everything-facebook-announced-today-at-f8/
© 2015 Metaps Inc. All Rights Reserved.
•  FaceBook AI リサーチが開発した文章理解
を行う人工知能アルゴリズムである。	
•  Memory Networksは文章を読み込み、誰
が何を持っているか、あるいはどこに物が
置いてあるかなどを回答する。	
Memory Networks とは?
© 2015 Metaps Inc. All Rights Reserved.
•  例えば、指輪物語の内容を数行にまとめたコンテ
ンツをAIが理解している様子が見て取れる。
•  AIはこのファンタジー小説の予備知識やキャラ
クターについては知らない。
•  AIはFacebookのこの機能のおかげで、ストーリ
ーの内容についての質問に答えることができる。	
Memory Networks とは?
© 2015 Metaps Inc. All Rights Reserved.
•  長期メモリを活用して、論理的な推論を
必要とする質問に対しても回答ができる。
•  テキストを明示的に論理式に変換するこ
となく、embedding model をいくつか組
み合わせたネットワークを用いて論理推
論の機能を持つ質問応答を行う。
Memory Networksの特徴
© 2015 Metaps Inc. All Rights Reserved.
以下の2点のように従来の知識ベースア
プローチが作業を行わない。
	
1)  知識データベースの構築のための情報
抽出の原理を作る。	
2)  構築されたデータベースを用いて推論を
行う。	
つまり?
© 2015 Metaps Inc. All Rights Reserved.
従来の論理推論(日本語)
形態素解析	
係受け解析	
項構造解析  or  意味役割解析	
一階述語論理に変換	
論理推論
© 2015 Metaps Inc. All Rights Reserved.
形態素解析をしたものをembeddingしてメモリに保存して推
論をするため、大規模な長期記憶も理論的には推論できる。
Memory networksの場合	
形態素解析	
メモリに保存	
推論
© 2015 Metaps Inc. All Rights Reserved.
メリットと課題	
l 従来の方法だと論理知識が増えるとメンテ
ナンスと推論が大変だったが、この方法は
拡張性と効率性に優れている。	
	
l 汎用性に関しては疑問視されている。複雑
な構文には対処できず、簡単な文章しか解
析できないのが課題。
© 2015 Metaps Inc. All Rights Reserved.
I: ( input feature map ) - 入力データを内部素性表現に変換する。	
	
G: ( generalization ) - 新たな入力をもとに古いメモリを更新する。	
	
O:( output feature map ) - 素性表現空間に新しい出力の生成。	
	
R( response ) - 出力を求められた形式に出力をする。	
処理の概要	
	
1、xを内部素性に変化する。	
	
2、新しい入力xに対して、メモリm_i をアップデートする。	
	
3、出力feature oを与えられたメモリ  	
	
4、最終的なfeature o最終的な応答とする。 	
Memory Networks の構成	
 [Weston, J., 2015a]
© 2015 Metaps Inc. All Rights Reserved.
(1) 式のH(x) xに対してスロットを選択する関数である。	
入力xに対して,N個のメモリmiから関数を最大なものを選択する。	
一回目の得られた最適なメモリと入力と残りのメモリ選択する。	
一回目の得られた最適なメモリと入力と残りのメモリ選択する。Wは辞書	
詳細な処理ステップ
© 2015 Metaps Inc. All Rights Reserved.
行列Uは,n×Dの行列Φx, ΦyはテキストデータをD次元にマップする。
もっとも簡単な実装法はBOWである。
単語の辞書をWとした時に、D =3|W|とする。Wにあるすべての単語は3
つの異なる表現をする。
Φyが1つ、Φxが2つで入力なのかメモリからなのかで分類される。
	
コア関数の詳細
© 2015 Metaps Inc. All Rights Reserved.
k=2に対して SoやSrの重みであるUoやUrを確率的勾配降下法(SGD)を用いて最適化
する。
教師データとしては、質問x、最終回答であるr、回答を得るために参照する事項
(supporting facts)f1,f2を用いる。
マージンをγ= 0.01~0.1
学習関数
© 2015 Metaps Inc. All Rights Reserved.
文章の切れ目が確認できない入力に対して、(9)の式で切り分ける。
時間順序を関数に導入する。
未知の単語に対して、周辺情報の単語を参考に計算を行う。
その他拡張の機能関数
© 2015 Metaps Inc. All Rights Reserved.
メモリに記入した時間順序を考慮した学習関数で、これを最適するように重みUo
を計算する。
時間順序を考慮した学習関数
© 2015 Metaps Inc. All Rights Reserved.
もっとも簡単なタスクで、回答が含まれる文が一つの場合の質問タスク。
	
例えば、以下のように人物がどこにいるかを質問する場合。	
John is in the playground. Bob is in the office.
Where is John? A: playground
アンダーラインは、回答を得る過程で参照される事項(supporting facts
)で、教師データとして使用される。
タスク(1) Factoid QA : シングル Supporting Fact
("Where is actor")
© 2015 Metaps Inc. All Rights Reserved.
少し複雑な問題で、回答が二つの文に含まれる場合の質問タスク。	
John is in the playground.
Bob is in the office.
John picked up the football.
Bob went to the kitchen.
Where is the football?  A: playground
アンダーラインは、回答を得る過程で参照される事項(supporting facts
)で、教師データとして使用される。
タスク(2) Factoid QA: Two Supporting Fact
("Where is actor + object")
© 2015 Metaps Inc. All Rights Reserved.
John is in the playground.
Bob is in the office.
John picked up the football.
Bob went to the kitchen.
Where was Bob before the kitchen?  A: office
アンダーラインは、回答を得る過程で参照される事項(supporting facts)で、教
師データとして使用される。
	
タスク(2) Factoid QA: Two Supporting Fact
("Where is actor + object")
© 2015 Metaps Inc. All Rights Reserved.
q: 質問、t:回答を教師データとして学習を行う。
つまり、回答を得る過程で参照される事項(supporting facts)の数kが1つ(t:
回答のみ)である。	
実験1 LARGE-SCALE QA
© 2015 Metaps Inc. All Rights Reserved.
実験1 LARGE-SCALE QAの結果
© 2015 Metaps Inc. All Rights Reserved.
文章だけ記述される仮想世界でのシミュレーションに対して質問を行って、答
えを得る。
今回のタスクでは、人物と物のロケーションに対してだけ質問を限定している。
また、手動で行動の制約条件のルールを記述している。
例えば、持っていない物を置くことができないなど。
	
実験2 SIMULATED WORLD QA
© 2015 Metaps Inc. All Rights Reserved.
Test accuracy on the simulation QA task	
実験2 SIMULATED WORLD QAの結果
© 2015 Metaps Inc. All Rights Reserved.
•    bag  of  wordsでは、主語と目的語の2項関係や3項関
係を扱うことができない。
	
•  回答を得る過程で参照される事項(supporting  facts)の
数kが2つまでしかなく、それ以上を必要とする質問には対
応できない。
•  応答部がRNN(Recurrent  Neural  Networks)ではな
いと、リスト挙げなど複数回答を必要とする質問に対応で
きない。	
初代Memory Networksの問題点
© 2015 Metaps Inc. All Rights Reserved.
•  初代Memory  Networksの制約をなくすために以下の機
能を追加して拡張を行った。
–  Adaptive  Memoriesの導入:これを用いることで、回答を得る
過程で参照される事項(supporting  facts)数を2の制約から無限
とした。
–  応答部にRNNやLSTMの導入:これを用いることで複数の回答を
行うが可能となる。
–  非線形関数の導入:bag-‐‑‒of-‐‑‒N-‐‑‒grams,  Multilinear  Map,  
Nonlinear  Mapを導入することで、より複雑な論理推論が可能に
なる。
[Weston, J., 2015b]	
Towards AI-Complete Question Answering:

Memory Networksの拡張
© 2015 Metaps Inc. All Rights Reserved.
Towards AI-Complete Question Answering:

Memory Networksの拡張	
•  Adaptive  Memories(and  Responses)
    
オリジナルのMemory Networksでは、回答を得る過程
で参照される事項(supporting facts)の数kが2つまでだ
ったが、拡張モデルでは、これを無限とした。
© 2015 Metaps Inc. All Rights Reserved.
Towards AI-Complete Question Answering:
Memory Networksの拡張	
•  Nonlinear  Sentence  Modeling
    
      
	
1)、N-gramsの導入
bag-of-wordsの代わりにbag-of-N-gramsを用いる。N=1~3	
2)、Multilinear Map
3)、Nonlinear Map
lは文長、iは文の中の位置
© 2015 Metaps Inc. All Rights Reserved.
Toy Tasksの例(演繹推論)	
<入力文>  →
Sheep  are  afraid  of  wolves.    Cats  are  afraid  of  dogs.
Mice  are  afraid  of  cats.    Gertrude  is  a  sheep.
<一階述語論理表現> →
be_̲afraid_̲of(sheep,  wolves)  ^  be_̲afraid_̲of(cats,  
dogs)^be_̲afraid_̲of(mice,  cats)^
be_̲afraid_̲of(Gertrude,  sheep)
<質問と回答>
What  is  Gertrude  afraid  of?  A:wolves
© 2015 Metaps Inc. All Rights Reserved.
Toy Tasksの例(帰納推論)	
<入力文>  →
Lily  is  a  swan.  Lily  is  white. Greg  is  a  swan.
<一階述語論理表現> →
be  (  Lily,  swan)  ^  color  (Lily,  white)  ^  be(Greg,  
swan)
<質問と回答>
What  color  is  Greg?  A:white
© 2015 Metaps Inc. All Rights Reserved.
Toy Tasksの例(Agent’s Motivationsの推論)	
<入力文>  →
John  goes  to  the  kitchen. John  eats  the  apple.
Daniel  is  hungry.
<一階述語論理表現> →
be(John,  hungry)(t1)  ^  go(John,  kitchen)(t2)  ^  eat  
(John,  apple)  (t3)^(t1<t2<t3)
    *  t1,t2,t3は時間順序
<質問と回答>
Where  does  Daniel  go?  A:kitchen
Why  did  John  go  to  the  kitchen?  A:hungry
© 2015 Metaps Inc. All Rights Reserved.
Results
© 2015 Metaps Inc. All Rights Reserved.
•  長いテキスト文をembeddingしてメモリに長期保
存し、コンテキスト依存的な質問にも回答するよう
な仕組み。	
•  テキストをデータベースの構築や明示的に述語
論理に変換することなく論理的な推論をすること
ができる点で新しい。 	
•  体系的な知識を扱う汎用的な推論や複雑な構文
には対処できないのが課題or未知数である。	
Memory Networks まとめ
© 2015 Metaps Inc. All Rights Reserved.
参考論文	
•  Weston,  J.,  Chopra,  S.,  and  Bordes,  A.  Memory  
networks.  In  International  Conference  on  Learning  
Representations  (ICLR),  2015a.
•  Weston,  J.,  Bordes,  A.,  Chopra,  S.,  and  Mikolov,  T.  
Towards  AI-‐‑‒complete  question  answering:  A  
set  of  prerequisite  toy  tasks.  arXiv  preprint:  
1502.05698,  2015b.

More Related Content

PDF
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
 
PPTX
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
PDF
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
Deep Learning JP
 
PDF
研究効率化Tips Ver.2
cvpaper. challenge
 
PPTX
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
 
PDF
MIRU2020長尾賞受賞論文解説:Attention Branch Networkの展開
Hironobu Fujiyoshi
 
PPTX
ICML2018読み会: Overview of NLP / Adversarial Attacks
Motoki Sato
 
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
 
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
 
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
Deep Learning JP
 
研究効率化Tips Ver.2
cvpaper. challenge
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
 
MIRU2020長尾賞受賞論文解説:Attention Branch Networkの展開
Hironobu Fujiyoshi
 
ICML2018読み会: Overview of NLP / Adversarial Attacks
Motoki Sato
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
 

What's hot (20)

PDF
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm
 
PDF
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
PDF
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
Yamato OKAMOTO
 
PDF
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
PDF
(文献紹介)Depth Completionの最新動向
Morpho, Inc.
 
PPTX
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
PDF
全力解説!Transformer
Arithmer Inc.
 
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
PDF
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
 
PPTX
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
Deep Learning JP
 
PPTX
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
 
PPTX
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
 
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
 
PPTX
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
Deep Learning JP
 
PDF
Data-Centric AIの紹介
Kazuyuki Miyazawa
 
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
PDF
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
 
PDF
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
 
PDF
【メタサーベイ】Video Transformer
cvpaper. challenge
 
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
ICLR2019 読み会in京都 ICLRから読み取るFeature Disentangleの研究動向
Yamato OKAMOTO
 
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
(文献紹介)Depth Completionの最新動向
Morpho, Inc.
 
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
全力解説!Transformer
Arithmer Inc.
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
 
[DL輪読会]StyleGAN-NADA: CLIP-Guided Domain Adaptation of Image Generators
Deep Learning JP
 
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
ARISE analytics
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
 
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
Deep Learning JP
 
Data-Centric AIの紹介
Kazuyuki Miyazawa
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
Deep Learning JP
 
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
 
【メタサーベイ】Video Transformer
cvpaper. challenge
 
Ad

Viewers also liked (15)

PDF
20151218【VIDEO TECH】IPタイトルはリリースから平均1か月でTVCMを実施している事が明らかに!
株式会社メタップスホールディングス
 
PPTX
Video marketing seminar 2015 〜Marketing Automation & Video Promotion〜
株式会社メタップスホールディングス
 
PDF
月商10億円を超えるメガヒットアプリを目指すのに必要な戦略まとめ《データ✕TVCM✕アプリ》
株式会社メタップスホールディングス
 
PPTX
ゲーム産業講義2015年1月
Shibaura Institute of Technology
 
PDF
Cedec2015 お客様に驚きを提供する運営 消滅都市の事例から-
gree_tech
 
PDF
8,000億円のスマホゲーム大国 〜中華圏モバイルゲーム市場の分析と打ち手〜
株式会社メタップスホールディングス
 
PDF
Chainer v2 alpha
Seiya Tokui
 
PDF
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
 
PDF
Dropout Distillation
Shotaro Sano
 
PPTX
Icml読み会 deep speech2
Jiro Nishitoba
 
PDF
Estimating structured vector autoregressive models
Akira Tanimoto
 
PDF
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
 
PDF
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
PPTX
ICML2016読み会 概要紹介
Kohei Hayashi
 
PDF
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
 
20151218【VIDEO TECH】IPタイトルはリリースから平均1か月でTVCMを実施している事が明らかに!
株式会社メタップスホールディングス
 
Video marketing seminar 2015 〜Marketing Automation & Video Promotion〜
株式会社メタップスホールディングス
 
月商10億円を超えるメガヒットアプリを目指すのに必要な戦略まとめ《データ✕TVCM✕アプリ》
株式会社メタップスホールディングス
 
ゲーム産業講義2015年1月
Shibaura Institute of Technology
 
Cedec2015 お客様に驚きを提供する運営 消滅都市の事例から-
gree_tech
 
8,000億円のスマホゲーム大国 〜中華圏モバイルゲーム市場の分析と打ち手〜
株式会社メタップスホールディングス
 
Chainer v2 alpha
Seiya Tokui
 
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
 
Dropout Distillation
Shotaro Sano
 
Icml読み会 deep speech2
Jiro Nishitoba
 
Estimating structured vector autoregressive models
Akira Tanimoto
 
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
 
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
ICML2016読み会 概要紹介
Kohei Hayashi
 
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
 
Ad

Similar to Facebookの人工知能アルゴリズム「memory networks」について調べてみた (20)

PDF
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Masayoshi Kondo
 
PDF
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
 
PDF
ニューラルネットワークを用いた自然言語処理
Sho Takase
 
PDF
大規模言語モデルとChatGPT
nlab_utokyo
 
PDF
An efficient framework for learning sentence representations
Yuya Soneoka
 
PPTX
Ordered neurons integrating tree structures into recurrent neural networks
Kazuki Fujikawa
 
PDF
子どもの言語獲得のモデル化とNN Language ModelsNN
Chiba Institute of Technology
 
PDF
言語と画像の表現学習
Yuki Noguchi
 
PPTX
深層学習を用いた文生成モデルの歴史と研究動向
Shunta Ito
 
PDF
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
 
PDF
[DL Hacks]Pretraining-Based Natural Language Generation for Text Summarizatio...
Deep Learning JP
 
PDF
大規模データに基づく自然言語処理
JunSuzuki21
 
PDF
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
PDF
BERTに関して
Saitama Uni
 
PPTX
Interop2017
tak9029
 
PDF
4thNLPDL
Sho Takase
 
PDF
Non-autoregressive text generation
nlab_utokyo
 
PDF
論文紹介:PaperRobot: Incremental Draft Generation of Scientific Idea
HirokiKurashige
 
PDF
TensorFlow math ja 05 word2vec
Shin Asakawa
 
PDF
Deep Learningと自然言語処理
Preferred Networks
 
Linguistic Knowledge as Memory for Recurrent Neural Networks_論文紹介
Masayoshi Kondo
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
 
ニューラルネットワークを用いた自然言語処理
Sho Takase
 
大規模言語モデルとChatGPT
nlab_utokyo
 
An efficient framework for learning sentence representations
Yuya Soneoka
 
Ordered neurons integrating tree structures into recurrent neural networks
Kazuki Fujikawa
 
子どもの言語獲得のモデル化とNN Language ModelsNN
Chiba Institute of Technology
 
言語と画像の表現学習
Yuki Noguchi
 
深層学習を用いた文生成モデルの歴史と研究動向
Shunta Ito
 
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
 
[DL Hacks]Pretraining-Based Natural Language Generation for Text Summarizatio...
Deep Learning JP
 
大規模データに基づく自然言語処理
JunSuzuki21
 
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
BERTに関して
Saitama Uni
 
Interop2017
tak9029
 
4thNLPDL
Sho Takase
 
Non-autoregressive text generation
nlab_utokyo
 
論文紹介:PaperRobot: Incremental Draft Generation of Scientific Idea
HirokiKurashige
 
TensorFlow math ja 05 word2vec
Shin Asakawa
 
Deep Learningと自然言語処理
Preferred Networks
 

More from 株式会社メタップスホールディングス (18)

PDF
「SaaS爆発」時代の裏に潜む課題を徹底調査
株式会社メタップスホールディングス
 
PDF
「SaaS爆発」時代の裏に潜む課題を徹底調査
株式会社メタップスホールディングス
 
PDF
今、地方創生に必要なものとは? -デジタル活用とアプリ-
株式会社メタップスホールディングス
 
PDF
ウィズコロナにおける 飲食店舗事業の顧客ファン化戦略
株式会社メタップスホールディングス
 
PDF
アフターコロナの恋愛を科学する ~今後より需要が高まるマッチングアプリとその成功法則~
株式会社メタップスホールディングス
 
PDF
ゲーミフィケーションと3Pの連動
株式会社メタップスホールディングス
 
PDF
アフターコロナでより重宝される アプリカテゴリとその成功法則
株式会社メタップスホールディングス
 
PDF
アプリ市場傾向から見る スマートフォンECのこれから
株式会社メタップスホールディングス
 
PDF
中国本土での スマホゲームビジネス の展開について
株式会社メタップスホールディングス
 
PDF
「データドリブン」 アプリマーケティング - 2015年のアプリマーケティング -
株式会社メタップスホールディングス
 
PDF
アプリ市場 最新マーケティング戦略について
株式会社メタップスホールディングス
 
PDF
中国アプリ市場に進出する際に必ず知っておきたい情報まとめ<2014年最新版>
株式会社メタップスホールディングス
 
PDF
市場予測から見るアプリマーケティングの未来
株式会社メタップスホールディングス
 
PDF
コミック系アプリの分析とマーケティング戦略について
株式会社メタップスホールディングス
 
PDF
「少数精鋭で勝つ」Androidアプリ世界展開のポイント~アプリ収益化編~
株式会社メタップスホールディングス
 
PDF
「少数精鋭で勝つ!」Androidアプリ世界展開のポイント~アプリ開発編~
株式会社メタップスホールディングス
 
PPTX
メタップスでの少人数 グローバルプラットフォーム開発について
株式会社メタップスホールディングス
 
「SaaS爆発」時代の裏に潜む課題を徹底調査
株式会社メタップスホールディングス
 
「SaaS爆発」時代の裏に潜む課題を徹底調査
株式会社メタップスホールディングス
 
今、地方創生に必要なものとは? -デジタル活用とアプリ-
株式会社メタップスホールディングス
 
ウィズコロナにおける 飲食店舗事業の顧客ファン化戦略
株式会社メタップスホールディングス
 
アフターコロナの恋愛を科学する ~今後より需要が高まるマッチングアプリとその成功法則~
株式会社メタップスホールディングス
 
ゲーミフィケーションと3Pの連動
株式会社メタップスホールディングス
 
アフターコロナでより重宝される アプリカテゴリとその成功法則
株式会社メタップスホールディングス
 
アプリ市場傾向から見る スマートフォンECのこれから
株式会社メタップスホールディングス
 
中国本土での スマホゲームビジネス の展開について
株式会社メタップスホールディングス
 
「データドリブン」 アプリマーケティング - 2015年のアプリマーケティング -
株式会社メタップスホールディングス
 
アプリ市場 最新マーケティング戦略について
株式会社メタップスホールディングス
 
中国アプリ市場に進出する際に必ず知っておきたい情報まとめ<2014年最新版>
株式会社メタップスホールディングス
 
市場予測から見るアプリマーケティングの未来
株式会社メタップスホールディングス
 
コミック系アプリの分析とマーケティング戦略について
株式会社メタップスホールディングス
 
「少数精鋭で勝つ」Androidアプリ世界展開のポイント~アプリ収益化編~
株式会社メタップスホールディングス
 
「少数精鋭で勝つ!」Androidアプリ世界展開のポイント~アプリ開発編~
株式会社メタップスホールディングス
 
メタップスでの少人数 グローバルプラットフォーム開発について
株式会社メタップスホールディングス
 

Facebookの人工知能アルゴリズム「memory networks」について調べてみた

  • 1. © 2015 Metaps Inc. All Rights Reserved. Facebookの人工知能アルゴリズム 「Memory Networks」について 調べてみた 株式会社メタップス 研究推進担当   礼王懐成
  • 2. © 2015 Metaps Inc. All Rights Reserved. 調査・資料作成 礼王 懐成 Keo Darawong •  株式会社メタップス(研究開発部門)所属 •  東京大学大学院 工学系研究科 卒業 •  人工生命研究所(役員)、東京大学先端科学技術研究セ ンター特任助手、独立やベンチャーを経てメタップスへ •  大学院学生時代は大脳基底核と前頭葉ループにおける運動系列強化学習を研究。  問題解決法に興味を持ち人工知能の研究開発を行なっているベンチャー会社へ。   機械学習を用いた自然言語解析や画像認識や知識推論の研究開発(接地問題に 挑戦)。 金融工学や検索エンジン(マップ検索も含む)も経験。 画像認識機能を持つ 自然言語対話システムのための要素技術の研究開発。 トピックモデルなど自然言語 解析を用いたマーケティングの研究開発。
  • 3. © 2015 Metaps Inc. All Rights Reserved.3 出典:http://qz.com/370089/everything-facebook-announced-today-at-f8/
  • 4. © 2015 Metaps Inc. All Rights Reserved. •  FaceBook AI リサーチが開発した文章理解 を行う人工知能アルゴリズムである。 •  Memory Networksは文章を読み込み、誰 が何を持っているか、あるいはどこに物が 置いてあるかなどを回答する。 Memory Networks とは?
  • 5. © 2015 Metaps Inc. All Rights Reserved. •  例えば、指輪物語の内容を数行にまとめたコンテ ンツをAIが理解している様子が見て取れる。 •  AIはこのファンタジー小説の予備知識やキャラ クターについては知らない。 •  AIはFacebookのこの機能のおかげで、ストーリ ーの内容についての質問に答えることができる。 Memory Networks とは?
  • 6. © 2015 Metaps Inc. All Rights Reserved. •  長期メモリを活用して、論理的な推論を 必要とする質問に対しても回答ができる。 •  テキストを明示的に論理式に変換するこ となく、embedding model をいくつか組 み合わせたネットワークを用いて論理推 論の機能を持つ質問応答を行う。 Memory Networksの特徴
  • 7. © 2015 Metaps Inc. All Rights Reserved. 以下の2点のように従来の知識ベースア プローチが作業を行わない。 1)  知識データベースの構築のための情報 抽出の原理を作る。 2)  構築されたデータベースを用いて推論を 行う。 つまり?
  • 8. © 2015 Metaps Inc. All Rights Reserved. 従来の論理推論(日本語) 形態素解析 係受け解析 項構造解析  or  意味役割解析 一階述語論理に変換 論理推論
  • 9. © 2015 Metaps Inc. All Rights Reserved. 形態素解析をしたものをembeddingしてメモリに保存して推 論をするため、大規模な長期記憶も理論的には推論できる。 Memory networksの場合 形態素解析 メモリに保存 推論
  • 10. © 2015 Metaps Inc. All Rights Reserved. メリットと課題 l 従来の方法だと論理知識が増えるとメンテ ナンスと推論が大変だったが、この方法は 拡張性と効率性に優れている。 l 汎用性に関しては疑問視されている。複雑 な構文には対処できず、簡単な文章しか解 析できないのが課題。
  • 11. © 2015 Metaps Inc. All Rights Reserved. I: ( input feature map ) - 入力データを内部素性表現に変換する。 G: ( generalization ) - 新たな入力をもとに古いメモリを更新する。 O:( output feature map ) - 素性表現空間に新しい出力の生成。 R( response ) - 出力を求められた形式に出力をする。 処理の概要 1、xを内部素性に変化する。 2、新しい入力xに対して、メモリm_i をアップデートする。 3、出力feature oを与えられたメモリ   4、最終的なfeature o最終的な応答とする。  Memory Networks の構成 [Weston, J., 2015a]
  • 12. © 2015 Metaps Inc. All Rights Reserved. (1) 式のH(x) xに対してスロットを選択する関数である。 入力xに対して,N個のメモリmiから関数を最大なものを選択する。 一回目の得られた最適なメモリと入力と残りのメモリ選択する。 一回目の得られた最適なメモリと入力と残りのメモリ選択する。Wは辞書 詳細な処理ステップ
  • 13. © 2015 Metaps Inc. All Rights Reserved. 行列Uは,n×Dの行列Φx, ΦyはテキストデータをD次元にマップする。 もっとも簡単な実装法はBOWである。 単語の辞書をWとした時に、D =3|W|とする。Wにあるすべての単語は3 つの異なる表現をする。 Φyが1つ、Φxが2つで入力なのかメモリからなのかで分類される。 コア関数の詳細
  • 14. © 2015 Metaps Inc. All Rights Reserved. k=2に対して SoやSrの重みであるUoやUrを確率的勾配降下法(SGD)を用いて最適化 する。 教師データとしては、質問x、最終回答であるr、回答を得るために参照する事項 (supporting facts)f1,f2を用いる。 マージンをγ= 0.01~0.1 学習関数
  • 15. © 2015 Metaps Inc. All Rights Reserved. 文章の切れ目が確認できない入力に対して、(9)の式で切り分ける。 時間順序を関数に導入する。 未知の単語に対して、周辺情報の単語を参考に計算を行う。 その他拡張の機能関数
  • 16. © 2015 Metaps Inc. All Rights Reserved. メモリに記入した時間順序を考慮した学習関数で、これを最適するように重みUo を計算する。 時間順序を考慮した学習関数
  • 17. © 2015 Metaps Inc. All Rights Reserved. もっとも簡単なタスクで、回答が含まれる文が一つの場合の質問タスク。 例えば、以下のように人物がどこにいるかを質問する場合。 John is in the playground. Bob is in the office. Where is John? A: playground アンダーラインは、回答を得る過程で参照される事項(supporting facts )で、教師データとして使用される。 タスク(1) Factoid QA : シングル Supporting Fact ("Where is actor")
  • 18. © 2015 Metaps Inc. All Rights Reserved. 少し複雑な問題で、回答が二つの文に含まれる場合の質問タスク。 John is in the playground. Bob is in the office. John picked up the football. Bob went to the kitchen. Where is the football?  A: playground アンダーラインは、回答を得る過程で参照される事項(supporting facts )で、教師データとして使用される。 タスク(2) Factoid QA: Two Supporting Fact ("Where is actor + object")
  • 19. © 2015 Metaps Inc. All Rights Reserved. John is in the playground. Bob is in the office. John picked up the football. Bob went to the kitchen. Where was Bob before the kitchen?  A: office アンダーラインは、回答を得る過程で参照される事項(supporting facts)で、教 師データとして使用される。 タスク(2) Factoid QA: Two Supporting Fact ("Where is actor + object")
  • 20. © 2015 Metaps Inc. All Rights Reserved. q: 質問、t:回答を教師データとして学習を行う。 つまり、回答を得る過程で参照される事項(supporting facts)の数kが1つ(t: 回答のみ)である。 実験1 LARGE-SCALE QA
  • 21. © 2015 Metaps Inc. All Rights Reserved. 実験1 LARGE-SCALE QAの結果
  • 22. © 2015 Metaps Inc. All Rights Reserved. 文章だけ記述される仮想世界でのシミュレーションに対して質問を行って、答 えを得る。 今回のタスクでは、人物と物のロケーションに対してだけ質問を限定している。 また、手動で行動の制約条件のルールを記述している。 例えば、持っていない物を置くことができないなど。 実験2 SIMULATED WORLD QA
  • 23. © 2015 Metaps Inc. All Rights Reserved. Test accuracy on the simulation QA task 実験2 SIMULATED WORLD QAの結果
  • 24. © 2015 Metaps Inc. All Rights Reserved. •   bag  of  wordsでは、主語と目的語の2項関係や3項関 係を扱うことができない。 •  回答を得る過程で参照される事項(supporting  facts)の 数kが2つまでしかなく、それ以上を必要とする質問には対 応できない。 •  応答部がRNN(Recurrent  Neural  Networks)ではな いと、リスト挙げなど複数回答を必要とする質問に対応で きない。 初代Memory Networksの問題点
  • 25. © 2015 Metaps Inc. All Rights Reserved. •  初代Memory  Networksの制約をなくすために以下の機 能を追加して拡張を行った。 –  Adaptive  Memoriesの導入:これを用いることで、回答を得る 過程で参照される事項(supporting  facts)数を2の制約から無限 とした。 –  応答部にRNNやLSTMの導入:これを用いることで複数の回答を 行うが可能となる。 –  非線形関数の導入:bag-‐‑‒of-‐‑‒N-‐‑‒grams,  Multilinear  Map,   Nonlinear  Mapを導入することで、より複雑な論理推論が可能に なる。 [Weston, J., 2015b] Towards AI-Complete Question Answering:
 Memory Networksの拡張
  • 26. © 2015 Metaps Inc. All Rights Reserved. Towards AI-Complete Question Answering:
 Memory Networksの拡張 •  Adaptive  Memories(and  Responses)     オリジナルのMemory Networksでは、回答を得る過程 で参照される事項(supporting facts)の数kが2つまでだ ったが、拡張モデルでは、これを無限とした。
  • 27. © 2015 Metaps Inc. All Rights Reserved. Towards AI-Complete Question Answering: Memory Networksの拡張 •  Nonlinear  Sentence  Modeling           1)、N-gramsの導入 bag-of-wordsの代わりにbag-of-N-gramsを用いる。N=1~3 2)、Multilinear Map 3)、Nonlinear Map lは文長、iは文の中の位置
  • 28. © 2015 Metaps Inc. All Rights Reserved. Toy Tasksの例(演繹推論) <入力文>  → Sheep  are  afraid  of  wolves.    Cats  are  afraid  of  dogs. Mice  are  afraid  of  cats.    Gertrude  is  a  sheep. <一階述語論理表現> → be_̲afraid_̲of(sheep,  wolves)  ^  be_̲afraid_̲of(cats,   dogs)^be_̲afraid_̲of(mice,  cats)^ be_̲afraid_̲of(Gertrude,  sheep) <質問と回答> What  is  Gertrude  afraid  of?  A:wolves
  • 29. © 2015 Metaps Inc. All Rights Reserved. Toy Tasksの例(帰納推論) <入力文>  → Lily  is  a  swan.  Lily  is  white. Greg  is  a  swan. <一階述語論理表現> → be  (  Lily,  swan)  ^  color  (Lily,  white)  ^  be(Greg,   swan) <質問と回答> What  color  is  Greg?  A:white
  • 30. © 2015 Metaps Inc. All Rights Reserved. Toy Tasksの例(Agent’s Motivationsの推論) <入力文>  → John  goes  to  the  kitchen. John  eats  the  apple. Daniel  is  hungry. <一階述語論理表現> → be(John,  hungry)(t1)  ^  go(John,  kitchen)(t2)  ^  eat   (John,  apple)  (t3)^(t1<t2<t3)    *  t1,t2,t3は時間順序 <質問と回答> Where  does  Daniel  go?  A:kitchen Why  did  John  go  to  the  kitchen?  A:hungry
  • 31. © 2015 Metaps Inc. All Rights Reserved. Results
  • 32. © 2015 Metaps Inc. All Rights Reserved. •  長いテキスト文をembeddingしてメモリに長期保 存し、コンテキスト依存的な質問にも回答するよう な仕組み。 •  テキストをデータベースの構築や明示的に述語 論理に変換することなく論理的な推論をすること ができる点で新しい。  •  体系的な知識を扱う汎用的な推論や複雑な構文 には対処できないのが課題or未知数である。 Memory Networks まとめ
  • 33. © 2015 Metaps Inc. All Rights Reserved. 参考論文 •  Weston,  J.,  Chopra,  S.,  and  Bordes,  A.  Memory   networks.  In  International  Conference  on  Learning   Representations  (ICLR),  2015a. •  Weston,  J.,  Bordes,  A.,  Chopra,  S.,  and  Mikolov,  T.   Towards  AI-‐‑‒complete  question  answering:  A   set  of  prerequisite  toy  tasks.  arXiv  preprint:   1502.05698,  2015b.