
机器学习
DamianGao
两句三年得,一吟双泪流。文章千古事,得失寸心知。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
图注意力GAT实现图解(单头版本)
图先放着,以后有机会再填坑。原文放上Graph Attention Networks单头的图解就差不多了,多头无非就是加一些reshape和广播操作,并且原文里面最后的embedding是直接avg的。我有一点不解的是作者是如何让GAT能够并行运算的,希望有大佬评论替我解惑,thx...原创 2021-04-04 10:38:17 · 607 阅读 · 2 评论 -
ANRL的PyTorch复现
因为要做对比实验的关系,用PyTorch复现了ANRL: Attributed Network Representation Learning via Deep Neural Networks,详情请移步MaskedIsland/ANRL-PyTorch原创 2021-03-25 19:34:13 · 282 阅读 · 0 评论 -
PyTorch中的sampled_softmax_loss
最近做一篇论文的复现,发现PyTorch中没有类似于tf.nn.sampled_softmax_loss的功能,经过一番寻找,在github上找到了答案:Stonesjtu/Pytorch-NCE。奇怪的是这个工作2019年就已经存在了,但是都2021了还没有加入到PyTorch的正式版本中。github上面对于NCE原理及改进的描述已经非常详细,之后有时间再详细总结一下吧。...原创 2021-03-25 09:33:56 · 1287 阅读 · 0 评论 -
李航统计学习方法笔记——泛化误差上界
泛化误差上界References统计学习方法(第2版)李航著 p25~27定理对于二分类问题,当假设空间是有限个函数的集合F={f1,f2,...,fd}F=\{f_1,f_2,...,f_d\}F={f1,f2,...,fd}时,对任意一个函数f∈Ff\in Ff∈F,至少以概率1−δ1-\delta1−δ,0<δ<10<\delta<10<δ<...原创 2020-03-02 09:56:15 · 1844 阅读 · 0 评论