Submit Search
LAB-ゼミ資料-1-20150413
0 likes
1,636 views
Yuki Ogasawara
第一回目のゼミ資料
Internet
Read more
1 of 19
Download now
Download to read offline
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
More Related Content
PPTX
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
KCS Keio Computer Society
PPTX
単純パーセプトロン
T2C_
PDF
猫でも分かりたい線形回帰の自由度
YukinoriKambe
PDF
部内勉強会 数え上げの基礎
Kazuma Mikami
PDF
PsychoPyを使った初学者向けの心理実験環境の構築
Hirokazu Ogawa
PDF
ネットワーク科学の応用について
Yuya Takashina
PDF
PsychoPy Builder:Code Componentの使い方
HiroyukiSogo
PDF
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
Toshihiko Yamasaki
Outrageously Large Neural Networks:The Sparsely-Gated Mixture-of-Experts Laye...
KCS Keio Computer Society
単純パーセプトロン
T2C_
猫でも分かりたい線形回帰の自由度
YukinoriKambe
部内勉強会 数え上げの基礎
Kazuma Mikami
PsychoPyを使った初学者向けの心理実験環境の構築
Hirokazu Ogawa
ネットワーク科学の応用について
Yuya Takashina
PsychoPy Builder:Code Componentの使い方
HiroyukiSogo
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
Toshihiko Yamasaki
What's hot
(20)
PDF
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
PDF
2 1.予測と確率分布
logics-of-blue
PPTX
ベイズ統計学の概論的紹介-old
Naoki Hayashi
PDF
異常検知と変化検知 第4章 近傍法による異常検知
Ken'ichi Matsui
PDF
計算量
Ken Ogura
PDF
相互情報量を用いた独立性の検定
Joe Suzuki
PPTX
ニューラルネットワーク入門
naoto moriyama
PDF
ニューラルネットと深層学習の歴史
Akinori Abe
PDF
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Kazuki Fujikawa
PDF
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
PDF
研究発表のためのプレゼンテーション技術
Shinnosuke Takamichi
PDF
k-センター
AkihitoYoneyama1
PPTX
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
PDF
工学系大学4年生のための論文の読み方
ychtanaka
PDF
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
PDF
幾何を使った統計のはなし
Toru Imai
PPT
Вимоги до створення презентації
Gheka-268
PPTX
強化学習2章
hiroki yamaoka
PDF
PRML輪読#8
matsuolab
PDF
ARC#003D
nullmineral
ベイズ推定の概要@広島ベイズ塾
Yoshitake Takebayashi
2 1.予測と確率分布
logics-of-blue
ベイズ統計学の概論的紹介-old
Naoki Hayashi
異常検知と変化検知 第4章 近傍法による異常検知
Ken'ichi Matsui
計算量
Ken Ogura
相互情報量を用いた独立性の検定
Joe Suzuki
ニューラルネットワーク入門
naoto moriyama
ニューラルネットと深層学習の歴史
Akinori Abe
SchNet: A continuous-filter convolutional neural network for modeling quantum...
Kazuki Fujikawa
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
研究発表のためのプレゼンテーション技術
Shinnosuke Takamichi
k-センター
AkihitoYoneyama1
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
工学系大学4年生のための論文の読み方
ychtanaka
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
幾何を使った統計のはなし
Toru Imai
Вимоги до створення презентації
Gheka-268
強化学習2章
hiroki yamaoka
PRML輪読#8
matsuolab
ARC#003D
nullmineral
Ad
Similar to LAB-ゼミ資料-1-20150413
(20)
PPTX
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
PDF
大規模ネットワークの性質と先端グラフアルゴリズム
Takuya Akiba
PDF
深層学習(講談社)のまとめ(1章~2章)
okku apot
PPTX
Structural data analysis based on multilayer networks
tm1966
PDF
Tokyo webmining 複雑ネットワークとデータマイニング
Hiroko Onari
PPTX
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
PPTX
20160901 jwein
tm1966
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
PPTX
DeepCas
Koichiro tamura
PDF
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
PPTX
深層学習の数理
Taiji Suzuki
PDF
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
PDF
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Hiroki Nakahara
PPTX
深層学習入門 スライド
swamp Sawa
PDF
FPGAX2016 ドキュンなFPGA
Hiroki Nakahara
PPTX
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
PDF
Lab-ゼミ資料-3-20150421
Yuki Ogasawara
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
PDF
Lab-ゼミ資料-4-20150430
Yuki Ogasawara
PDF
深層学習フレームワークChainerとその進化
Yuya Unno
[DL輪読会] Hybrid computing using a neural network with dynamic external memory
Yusuke Iwasawa
大規模ネットワークの性質と先端グラフアルゴリズム
Takuya Akiba
深層学習(講談社)のまとめ(1章~2章)
okku apot
Structural data analysis based on multilayer networks
tm1966
Tokyo webmining 複雑ネットワークとデータマイニング
Hiroko Onari
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
20160901 jwein
tm1966
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
DeepCas
Koichiro tamura
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
深層学習の数理
Taiji Suzuki
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
Nested RNSを用いたディープニューラルネットワークのFPGA実装
Hiroki Nakahara
深層学習入門 スライド
swamp Sawa
FPGAX2016 ドキュンなFPGA
Hiroki Nakahara
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
Lab-ゼミ資料-3-20150421
Yuki Ogasawara
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
Lab-ゼミ資料-4-20150430
Yuki Ogasawara
深層学習フレームワークChainerとその進化
Yuya Unno
Ad
LAB-ゼミ資料-1-20150413
1.
今までに読んだ書籍・論文 • 書籍 • よくわかる複雑ネットワーク (今野
紀雄・町田 拓也 著、 2008) • ネットワーク科学の道具箱 (林 幸雄 編、 2007) • 論文 • 弱い紐帯の概念を用いた情報検索システムに関する研究 (未来大卒論 珍田 計幸、 2008) • Jaccard係数を用いたリンクの選定に基づく Wikipediaのナビゲーション情報の抽出 (未来大修論 千田 俊輔、 2011) • 複雑ネットワークからのキーワード抽出 (未来大修論 三澤 英樹、 2012) 1/20
2.
よくわかる複雑ネットワーク 1. つながりの世界 2. ネットワークの基礎 3.
規則的なネットワーク 4. ランダムグラフ 5. スモールワールド 6. スケールフリー・ネットワーク 7. 様々な複雑ネットワーク 全7章 2/20
3.
よくわかる複雑ネットワーク 一章 つながりの世界 • 6次の隔たり •
ランダムに選ばれた二人が案外少ない人数を介して結ばれること • ミルグラムのスモールワールド実験 • 確率、頻度、割合 • 0〜1の間の値、全て足すと1になる • 片対数グラフ、両対数グラフ • 片対数グラフ … 通常のグラフの縦軸or横軸を対数軸にしたもの • 両対数グラフ … 通常のグラフの立軸と横軸両方を対数軸にしたもの 3/20
4.
よくわかる複雑ネットワーク 二章 ネットワークの基礎 • ネットワーク
… “点” と ”線” で表す • 次数 … 点につながっている線の数 • 次数分布 … 各次数の頂点数の割合 • 平均次数 … 字数分布の平均値 1! " # + 2 ! " & + 3 ! " # + 4 ! " & = 𝟕 𝟑 字数:4 字数:2 V1 V6 V4 V5 V2 V3 次数 1 2 3 4 頂点の割合 1 3 1 6 1 3 1 6 字数分布の表 字数:3 字数:1 字数:3 字数:1 4/20
5.
よくわかる複雑ネットワーク 二章 ネットワークの基礎 • 頂点間距離…
2頂点を行き来するための最小ステップ • V6 -‐> V4の頂点間距離 … l(V6, V4) = 2 • V1 -‐> V5の頂点間距離 … l(V1, V5) = 1 • 平均頂点間距離 … 頂点間距離の平均値 L = / 0(023) 5 S … 頂点間距離の合計 n … 頂点の数 n(n-‐1)/2 … 異なる2頂点の組み合わせ総数 V1 V6 V4 V5 V2 V3 5/20
6.
よくわかる複雑ネットワーク 二章 ネットワークの基礎 • 平均頂点間距離の計算 (V1,
V2)=1、(V1, V3)=1、(V1, V4)=2、(V1, V5)=1、(V1, V6)=1 (V2, V3)=2、(V2, V4)=3、(V2, V5)=1、(V2, V6)=2 (V3, V4)=1、(V3, V5)=1、(V3, V6)=2 (V4, V5)=2、(V4, V6)=3 (V5, V6)=2 計 S = 25 L = / 0(023) 5 = 67 8(823) 5 = 7 # V1 V6 V4 V5 V2 V3 6/20
7.
よくわかる複雑ネットワーク 二章 ネットワークの基礎 • クラスター係数 …
自分と繋がっている点同士が繋がっているかどうかの指標 Ci = 頂点9:を頂点に持つ三角形の数 ;: ;: <" /6 (𝐾? ≥ 2) Ci … クラスター係数 Ki … 頂点Viの次数 • C1 = 6(△93959B, △939D9B) E E<" /6 = " # 、C2 = "(△93959B) 6 6<" /6 = 1 V1 V6 V4 V5 V2 V3 7/20
8.
よくわかる複雑ネットワーク 二章 ネットワークの基礎 • ネットワークのクラスター係数 …頂点のクラスター係数の平均値 C
= 頂点のクラスター係数の総和 頂点のクラスター係数の総数 C = 3 D F"F 3 D FG FG F 3 D FG & = " # V1 V6 V4 V5 V2 V3 8/20
9.
よくわかる複雑ネットワーク 三章 規則的なネットワーク • 格子 一次元格子
二次元正方格子 三次元立方格子 二次元三角格子 次数分布 2 4 6 6 平均次数 2 4 6 6 平均頂点間距離 n 𝑛 𝑛 " # 𝑛 クラスター係数 0 0 0 0.4 図 9/20
10.
よくわかる複雑ネットワーク 三章 規則的なネットワーク • 完全グラフ、円環、拡張版円環、ツリー 完全グラフ
円環 拡張版円環 ツリー 次数分布 n-‐1 2 2m d 平均次数 N-‐1 2 2m d 平均頂点間距離 1 𝑛 4 mに従う log 𝑛 クラスター係数 1 1 (n = 3 のとき) 0 (n ≥ 4 のとき) mに従う 0 図 10/20
11.
よくわかる複雑ネットワーク 四章 ランダムグラフ • ランダム・グラフ
… 各頂点の間に、ランダムに枝を置いてできる • 次数分布 p(k) = L<" 𝐶N 𝑝N (1 − 𝑝)L<"<N ※[np]で、二項分布のグラフは最大値を示す (npが整数の場合は、np、np-‐1で最大値を取る) • 平均次数 𝑘 = (n-‐1)p k … 次数 n … 頂点数 P … 枝を張る確率 11/20
12.
よくわかる複雑ネットワーク 五章 スモールワールド • WSモデル …
規則的なネットワークの枝を繋ぎかえて構成される • 修正WSモデル … 規則的なネットワークに枝を加えて構成される WSモデル 拡張WSモデル 構成方法 もともある枝を繋ぎかえる 新たに枝を付け加える 枝の総数 変わらない 増加する pを増加させた際の振る舞い ランダムグラフに近づく 完全グラフに近づく 連結性 非連結になる場合がある 必ず連結になる ※ 円環・拡張版円環をベースに構成する … aを偶数として右隣a/2個、左隣a/2個の頂点と枝で繋がっている 12/20
13.
よくわかる複雑ネットワーク 五章 スモールワールド • WSモデル作成の手順 1.
任意の枝を選び、どちらかの頂点の片方と枝を切り離す 2. 以下の禁則事項の元、切り離した枝を任意の頂点と繋ぎなおす • 自分自身には繋がない • 左右a/2個以内の頂点には繋がない • 左右a/2個以内の頂点を除いたものの内、既に繋がっている頂点には繋がない ※ WSモデルができないこともある • 頂点数3、a=2、p=1のケース … 三角形 -‐> 枝の繋ぎかえが全て禁則事項に当てはまる 13/20
14.
よくわかる複雑ネットワーク 五章 スモールワールド • 次数分布 一点分布
… 次数が一種類しかないネットワークの字数分布 • 平均字数 𝑘 = 𝑆(ネットワーク次数の総和) 𝑛(頂点数) • 平均頂点間距離 L ∝ log 𝑛 • クラスター係数 C ∝ 1 p 0 ↔ 1 次数分布 一点分布 ⇔ ポアソン分布 スモールワールドとは 1. 平均頂点間距離 … 小 2. クラスター係数 … 大 14/20
15.
よくわかる複雑ネットワーク 六章 スケールフリーネットワーク • スケールフリーネットワーク
• 一部の頂点が膨大な枝を持つ一方、ほとんどの頂点がごく少数の枝しか 持っていないネットワーク ※字数分布がベキ乗に従う • BAモデル(Barabashi and Albert) • 「成長」と「優先的選択」によりネットワークが作成される … 新しい頂点が追加し、枝を張ることでネットワークが大きくなっていく 例)インターネットのハイパーリンク 15/20
16.
よくわかる複雑ネットワーク 六章 スケールフリーネットワーク • 新規頂点と結合する既存頂点を選ぶ際に頂点𝑉?が選ばれる確率
∏ 𝑘? = N: ∑ NY 0 YZ3 ※右図だと、頂点数n=6なので ∑ 𝑘[ =L [" 4 + 2 + 3 + 1 + 3 + 1 = 14 V1 V6 V4 V5 V2 V3 頂点 𝑽 𝟏 𝑽 𝟐 𝑽 𝟑 𝑽 𝟒 𝑽 𝟓 𝑽 𝟔 c 𝑘? 4 14 2 14 3 14 1 14 3 14 1 14 ハブ … 枝を接続される可能性が高い 𝑘? = 既存頂点𝑉?の次数 N = 既存頂点数 ∑ L [" = 既存頂点の次数の総和 16/20
17.
よくわかる複雑ネットワーク 六章 スケールフリーネットワーク • 次数分布
P(k) ∝ 𝑘<d (𝛾 = ベキ指数) • 平均次数 𝑘 = 𝑚G 𝑚G − 1 + 2 𝑛 − 𝑚G 𝑚 𝑛 • 平均頂点間距離 L ∝ ghi L ghi(ghi L) • クラスター係数 C ∝ 𝑛< D j 17/20
18.
よくわかる複雑ネットワーク 七章 様々な複雑ネットワーク • 閾値モデル
• 各頂点に重みを与え、2頂点の重みの和がある値θより大きいとき枝を置く ※スターが出現する可能性がある • スター … すべての頂点とつながっている頂点 • スター以外の頂点はスターとしか繋がっていないネットワークの発生条件 1. スターの重みがθ以上 2. スター以外の重みがθに比べてはるかに小さい 18/20
19.
よくわかる複雑ネットワーク 七章 様々な複雑ネットワーク • 頂点非活性化モデル
• 活性化状態と非活性化状態の状態の頂点が存在するネットワーク • 頂点非活性モデルの作り方 1. 活性化状態の頂点を追加する 2. 追加した頂点と、活性化状態のすべての頂点を枝で繋ぐ 3. 活性化頂点のひとつを非活性化状態にする • 非活性化状態にするための選択確率 P(𝑘?) = 3 k: l m ∑ 3 kY l mmno:pq 19/20
Download