SlideShare a Scribd company logo
2
マッチング問題について
• 与えられたグラフに対して頂点を共有しないような枝の集合M
をグラフGのマッチングと呼ぶ
• たとえば下のグラフの状況において、学⽣生A,学⽣生Bに条件にあ
い時給の⾼高いバイトAを推薦するとどちらかが落ちてしまうが、
学⽣生BにバイトB、学⽣生AにバイトAを推薦することによって⼆二
⼈人ともマッチング可能となる
バイトA,  時給1500円,  英語⼒力必要
バイトB,  時給1400円,  ⼥女性のみ
学⽣生A,  TOEIC  990,  男性
学⽣生B,  TOEIC  750,  ⼥女性
Most read
8
極⼤大マッチングに関する定理
(Theorem  1.2)
• Mが極⼤大マッチング、M*が最⼤大マッチングであれば
• 𝑀 ≥
(
)
|𝑀∗
|が成⽴立する
• Mにはこれ以上枝を追加できないためM*の枝の頂点の少なくと
もどちらかはMに含まれる
• このためMの頂点の数 >=  M*の枝の数=1/2  |M*|
Most read
22
各種問題に対する競合⽐比
Most read
Online  matching  and  ad  allocation  
勉強会 第⼀一回
リクルートテクノロジーズ
坪坂 正志
2016/2/16
マッチング問題について
• 与えられたグラフに対して頂点を共有しないような枝の集合M
をグラフGのマッチングと呼ぶ
• たとえば下のグラフの状況において、学⽣生A,学⽣生Bに条件にあ
い時給の⾼高いバイトAを推薦するとどちらかが落ちてしまうが、
学⽣生BにバイトB、学⽣生AにバイトAを推薦することによって⼆二
⼈人ともマッチング可能となる
バイトA,  時給1500円,  英語⼒力必要
バイトB,  時給1400円,  ⼥女性のみ
学⽣生A,  TOEIC  990,  男性
学⽣生B,  TOEIC  750,  ⼥女性
広告との関係性
• ネット広告においてはユーザがページにアクセスするたびにアドネット
ワーク/DSPなどなんらかの広告プラットフォームにリクエストが発⽣生す
る。広告プラットフォームはリクエストに対して広告主の広告を⼀一つ以上
選択してユーザに表⽰示する
• プラットフォームは広告主の予算上限,  bid価格、ユーザの広告に対する
CTRなどを加味してリクエストのたびに配信する必要がある
• 既存のマッチング問題との違いとして
• あらかじめ全てのリクエストがわかっておらずリクエストのたびに配信する必要が
有る
• データ量が膨⼤大でオフラインの最適化では計算量的に解くのが困難
• この課題を克服するため近年広告領域でOnline  matchingのテクニックが
発達してきた
• この教科書ではOnline  matchingとAd  allocationについて問題のパターン
とそこで使われているテクニックについて扱う
オフラインでの既存研究
• ⼆二部グラフ上の最⼤大マッチングを計算する⽅方法については1957
年には知られている (Berge  1957)
• 基本的にはグラフから増加路を⾒見つけていくアルゴリズムとなる
• 現在知られている最も早いアルゴリズムの時間計算量は𝑂( 𝑉𝐸)である
• グラフの枝に重み付けがある問題の解法としてはハンガリアン
アルゴリズムという⽅方法が古くから知られている
• 経済学においては安定マッチングを⾒見つけるのに⽤用いられてお
り、応⽤用として病棟の割り当てや腎臓の移植のドナーの決定な
どがある
• 2012年のノーベル経済学賞をRoth,  Shapleyがこのトピックで受賞した
増加路 (augmenting  paths)
• マッチングMの増加路とは奇数⻑⾧長のパスで枝がMに含まれない枝
=>Mに含まれる枝=>…=>Mに含まれない枝で終わるパスを呼ぶ
• また増加路の端点はマッチングに含まれない
左のマッチングMの増加路
Bergeʼ’s  theorem  
• マッチングMが最⼤大マッチングとなる必要⼗十分条件はMに増加
路が存在しない
極⼤大マッチングについて
• Gのマッチングでこれ以上枝を追加できないのを極⼤大マッチン
グ(maximal  matching)とよぶ
• 極⼤大マッチングであるからといって最⼤大マッチングとは限らな
い
極⼤大マッチングであるが最⼤大マッチングでない例 極⼤大マッチングかつ最⼤大マッチングの例
極⼤大マッチングに関する定理
(Theorem  1.2)
• Mが極⼤大マッチング、M*が最⼤大マッチングであれば
• 𝑀 ≥
(
)
|𝑀∗
|が成⽴立する
• Mにはこれ以上枝を追加できないためM*の枝の頂点の少なくと
もどちらかはMに含まれる
• このためMの頂点の数 >=  M*の枝の数=1/2  |M*|
Online  input
• オンラインのセッティングでは特に⼆二部グラフを考える
• ⽚片側のUは既知で、オンラインでVが到着して、どのUに接続するかが明ら
かになる
• このセッティングだと既存の増加路を求めるなどのアルゴリズムは利⽤用できないの
でオンライン特有の解法が必要になってくる
U  (既知) V  (未知)
Vの⼊入⼒力はオンラインで到着するとUのどの
ノードにマッチするかが明らかになる
以降の章⽴立てについて
• Chapter  2  Classification  :  Problems  and  models
• 以降で紹介する問題と⼊入⼒力のモデルについての概要
• Chapter  3-‑8
• 個別の具体的な問題についての解説
• Chapter  3  Online  Bipartite  matching
• Chapter  4  Online  vertex-‑weighted  bipartite  matching
• Chapter  5  Adwords
• Chapter  6  The  online  primal-‑dual  view
• Chapter  7  Display  Ads
• Chapter  8  Online  submodular  welfare  maximization
• Chapter  9  Applications
• 理論に基づいたヒューリスティックや具体的な応⽤用について
• Chapter  10  Related  models  and  future  directions
Chapter  2  
Classification  :  Problems  and  models
• 本章の構成
• 問題の種類について
• ⼊入⼒力についての仮定
• 競合⽐比について
(1)  Online  bipartite  matching
• 既存の⼆二部グラフマッチングと⽬目的関数は同じ
• ⽚片側のノードVがオンラインで与えられて、⼀一度決定した割当
は変更できないところがオフラインとの最⼤大の違い
U  (既知) V (未知、オンライン)
(2)
Online  vertex-‑weighted  bipartite  matching
• Online  bipartite  matchingの各頂点に重みがついていてマッチ
した重みの合計を最⼤大化するバージョン
• すべての頂点の重みを1とすればOnline  bipartite  matchingにな
る
(3)  Adwords
• 著者らにより2007年に提案されたモデル
• 各𝑢 ∈ 𝑈は既知の予算𝐵0を持ち、各edge(u,v)はbid_̲uvを持つ
• ノードuはバジェットを使い切るとそれ以上マッチできなくな
る
• ⽬目的関数はbid額の合計である
• Small  bids  assumption
• ビッドの⾦金額は⼗十分⼩小さいと仮定する
• ⼗十分⼩小さいの定義は後の詳細で述べる
(4)  Display  ads
• 各広告ノードuは整数値のキャパシティ𝑐0を持つ (CPM課⾦金で
あれば何回表⽰示できるかを意味する)
• 各インプレッションにおいて 𝑢, 𝑣 ∈ 𝐸は重み𝑤0,5をもっている
(例えばこれは⼀一回表⽰示した時の期待CTRなどを意味する)
• ⽬目的関数はマッチした重みの合計を最⼤大化することである(これ
は例えばアドネットワークのクリックの合計数の最⼤大化などを
意味する)
• またすでにマッチした枝を破棄できるような問題設定をfree-‑
disposalとよぶ
• これはディスプレイ広告においては余計なインプレッションを発⽣生さ
せることに相当する
(5)  
Online  submodular  welfare  maximization
• 各頂点uに対して単調なsubmodular関数 𝑓0: 29
→ 𝑅<
を定める
• ⽬目的関数としてはuに対して割り当てられた頂点集合を𝑉0とし
たとき∑ 𝑓0(𝑉0)0 を最適化する
a
b
c
x
U   V
y
z
𝑓> 𝑥, 𝑦 + 𝑓B 𝑧 + 𝑓D(∅)
左のグラフにおいては以下が⽬目的
関数の値となる
各問題の関係性
Input  model
• 頂点Vがどのようにくるかについてモデル化する
• Adversarial  order
• グラフおよび順番に対してなんの仮定も置かないモデル、グラフおよ
びvのくる順番はアルゴリズムに対して最悪結果となるような順番もあ
り得る
• Random  order
• グラフのとりうる形状は任意のものを考えるが、vの到着する順番はラ
ンダムに選択される
Input  model
• Unknown  IID
• 隣接するUの頂点、枝の重みもしくはbid額が同⼀一の独⽴立な確率分布D
に基づいて⽣生成される
• やってくる⼊入⼒力の頂点vは分布Dから⽣生成された隣接頂点および重みを
もってやってくる
• Known  IID
• Unknown  IIDとおなじ、ただし分布Dが既知
Competitive  ratio  (競合⽐比)
• オフラインでグラフの形状がわかっている場合に対してオフラ
インでの最適値と、オンラインアルゴリズムが達成できる値の
⽐比率を競合⽐比と呼ぶ
• ⼊入⼒力がAdversarial  modelの場合
• min
I,JKLMK	
  O
PQR R
STU R
,  すべてのグラフ、Vの順序に対する⽐比率の最⼩小のものと
なる
• またアルゴリズムがランダムアルゴリズムの場合 min
I,JKLMK	
  O
V[PQR R ]
STU R
,  ア
ルゴリズムの期待値との⽐比率になる
• ⼊入⼒力がRandomの場合
• min
I
V[PQR R ]
STU R
と任意のグラフに対する⽐比率となる
Competitive  ratio  (競合⽐比)
• IIDモデルの場合
• min
Y
𝐸[
PQR R
STU R
]と分布に対しての最⼩小値で表現される
• 各⼊入⼒力間での競合⽐比の値の関係性は
• Theorem  2.1
• C.R(Adv)  <=  C.R  (RO)  <=  C.R  (Unk-‑IID)  <=  C.R  (K-‑IID)
• で表される
各種問題に対する競合⽐比

More Related Content

What's hot (20)

研究の基本ツール
研究の基本ツール研究の基本ツール
研究の基本ツール
由来 藤原
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
 
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision TreeNIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門
Yoichi Iwata
 
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
RCCSRENKEI
 
ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争
Yosuke Shinya
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
DockerコンテナでGitを使う
DockerコンテナでGitを使うDockerコンテナでGitを使う
DockerコンテナでGitを使う
Kazuhiro Suga
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
Shuyo Nakatani
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
Hironobu Fujiyoshi
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
 
RTBにおける機械学習の活用事例
RTBにおける機械学習の活用事例RTBにおける機械学習の活用事例
RTBにおける機械学習の活用事例
MicroAd, Inc.(Engineer)
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
 
研究の基本ツール
研究の基本ツール研究の基本ツール
研究の基本ツール
由来 藤原
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
 
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision TreeNIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門
Yoichi Iwata
 
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
RCCSRENKEI
 
ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争
Yosuke Shinya
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
DockerコンテナでGitを使う
DockerコンテナでGitを使うDockerコンテナでGitを使う
DockerコンテナでGitを使う
Kazuhiro Suga
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
Shuyo Nakatani
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
Hironobu Fujiyoshi
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
 
RTBにおける機械学習の活用事例
RTBにおける機械学習の活用事例RTBにおける機械学習の活用事例
RTBにおける機械学習の活用事例
MicroAd, Inc.(Engineer)
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
 

Viewers also liked (20)

KDD 2015読み会
KDD 2015読み会KDD 2015読み会
KDD 2015読み会
正志 坪坂
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
正志 坪坂
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
 
Information security programming in ruby
Information security programming in rubyInformation security programming in ruby
Information security programming in ruby
Hiroshi Nakamura
 
Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3
Atsushi KOMIYA
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて
正志 坪坂
 
Recsys2014 recruit
Recsys2014 recruitRecsys2014 recruit
Recsys2014 recruit
正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
正志 坪坂
 
Recsys2015
Recsys2015Recsys2015
Recsys2015
正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
正志 坪坂
 
KDD2014_study
KDD2014_study KDD2014_study
KDD2014_study
正志 坪坂
 
EMNLP2014_reading
EMNLP2014_readingEMNLP2014_reading
EMNLP2014_reading
正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
正志 坪坂
 
NIPS 2012 読む会
NIPS 2012 読む会NIPS 2012 読む会
NIPS 2012 読む会
正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
正志 坪坂
 
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみるDSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
Atsushi KOMIYA
 
Deeplearning勉強会20160220
Deeplearning勉強会20160220Deeplearning勉強会20160220
Deeplearning勉強会20160220
正志 坪坂
 
WSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor modelWSDM 2016勉強会 Geographic Segmentation via latent factor model
WSDM 2016勉強会 Geographic Segmentation via latent factor model
正志 坪坂
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
 
Information security programming in ruby
Information security programming in rubyInformation security programming in ruby
Information security programming in ruby
Hiroshi Nakamura
 
Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3Introduction to Recommender Systems 2012.1.30 Zansa #3
Introduction to Recommender Systems 2012.1.30 Zansa #3
Atsushi KOMIYA
 
static index pruningについて
static index pruningについてstatic index pruningについて
static index pruningについて
正志 坪坂
 
Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)Big Data Bootstrap (ICML読み会)
Big Data Bootstrap (ICML読み会)
正志 坪坂
 
Introduction to contexual bandit
Introduction to contexual banditIntroduction to contexual bandit
Introduction to contexual bandit
正志 坪坂
 
Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計Riak Search 2.0を使ったデータ集計
Riak Search 2.0を使ったデータ集計
正志 坪坂
 
Contexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMiningContexual bandit @TokyoWebMining
Contexual bandit @TokyoWebMining
正志 坪坂
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
正志 坪坂
 
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみるDSIRNLP #3 LZ4 の速さの秘密に迫ってみる
DSIRNLP #3 LZ4 の速さの秘密に迫ってみる
Atsushi KOMIYA
 
Ad

More from 正志 坪坂 (13)

Recsys2018 unbiased
Recsys2018 unbiasedRecsys2018 unbiased
Recsys2018 unbiased
正志 坪坂
 
WSDM2018Study
WSDM2018StudyWSDM2018Study
WSDM2018Study
正志 坪坂
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
正志 坪坂
 
WSDM 2012 勉強会資料
WSDM 2012 勉強会資料WSDM 2012 勉強会資料
WSDM 2012 勉強会資料
正志 坪坂
 
Complex network-reading 7
Complex network-reading 7Complex network-reading 7
Complex network-reading 7
正志 坪坂
 
転置インデックスとTop k-query
転置インデックスとTop k-query転置インデックスとTop k-query
転置インデックスとTop k-query
正志 坪坂
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
正志 坪坂
 
A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会
正志 坪坂
 
Cvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosakaCvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosaka
正志 坪坂
 
Icml2011 reading-sage
Icml2011 reading-sageIcml2011 reading-sage
Icml2011 reading-sage
正志 坪坂
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet
正志 坪坂
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
正志 坪坂
 
KDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossingKDD 2016勉強会 Deep crossing
KDD 2016勉強会 Deep crossing
正志 坪坂
 
Tokyowebmining ctr-predict
Tokyowebmining ctr-predictTokyowebmining ctr-predict
Tokyowebmining ctr-predict
正志 坪坂
 
WSDM 2012 勉強会資料
WSDM 2012 勉強会資料WSDM 2012 勉強会資料
WSDM 2012 勉強会資料
正志 坪坂
 
Complex network-reading 7
Complex network-reading 7Complex network-reading 7
Complex network-reading 7
正志 坪坂
 
転置インデックスとTop k-query
転置インデックスとTop k-query転置インデックスとTop k-query
転置インデックスとTop k-query
正志 坪坂
 
A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会A scalable probablistic classifier for language modeling: ACL 2011 読み会
A scalable probablistic classifier for language modeling: ACL 2011 読み会
正志 坪坂
 
Cvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosakaCvpr2011 reading-tsubosaka
Cvpr2011 reading-tsubosaka
正志 坪坂
 
Icml2011 reading-sage
Icml2011 reading-sageIcml2011 reading-sage
Icml2011 reading-sage
正志 坪坂
 
TokyowebminingInferNet
TokyowebminingInferNetTokyowebminingInferNet
TokyowebminingInferNet
正志 坪坂
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
正志 坪坂
 
Ad

OnlineMatching勉強会第一回