多通道机器阅读理解与社交媒体消息热度预测研究
立即解锁
发布时间: 2025-08-23 02:22:45 阅读量: 1 订阅数: 2 

### 多通道机器阅读理解与社交媒体消息热度预测研究
#### 多通道机器阅读理解实验
在多通道机器阅读理解(MRC)的研究中,为了评估相关方法的性能,研究人员在DuReader数据集上开展了实验。DuReader是一个大规模的真实世界多通道MRC数据集,有两个版本。版本1.0包含20万个问题,版本2.0增加了约10万个查询 - 答案对,其中约9万个用于训练,1万个用于测试。实验采用ROUGE - L和BLEU - 4作为官方评估指标。
##### 数据集与评估指标
- **数据集**:DuReader的问题采样自真实用户查询,配对文档收集自百度搜索引擎和百度知道(一个问答社区)。由于将所有段落输入模型的计算成本过高,研究人员根据段落与问题的召回得分,为每个文档选择两个段落,并在训练时过滤掉无答案的样本。
- **评估指标**:ROUGE - L和BLEU - 4用于评估模型性能,以进行有意义的比较。在DuReader开发数据集上,不同类型问题的最佳匹配段落的ROUGE - L得分有所不同,描述类问题(占数据集的62.76%)的最佳匹配段落ROUGE - L得分可达70.0%,而表现最差的是非判断题,ROUGE - L得分仅为56.7%,这支持了选择最佳匹配段落直接回答问题的假设。
##### 实验设置
- **词嵌入训练**:使用Glove和DuReader中的句子训练300维嵌入。预训练的词嵌入在训练期间不更新,未登录词随机初始化为相同维度。
- **模型参数设置**:所有层的隐藏向量大小设置为150。使用Adam优化器,批量大小为16,初始学习率为0.0005,训练10个周期。训练期间,模型所有可训练参数的移动平均值以0.999的指数衰减率进行维护。
| 模型 | DuReader v1.0(ROUGE - L) | DuReader v1.0(BLEU - 4) | DuReader v2.0(ROUGE - L) | DuReader v2.0(BLEU - 4) |
| --- | --- | --- | --- | --- |
| 选定段落 | 30.20 | 16.40 | 32.85 | 19.16 |
| Match - LSTM | 39.20 | 31.90 | 42.79 | 35.88 |
| BiDAF | 39.00 | 31.80 | 43.36 | 38.50 |
| PR + BiDAF | 41.81 | 37.55 | - | - |
| V - net | 44.18 | 40.97 | - | - |
| 我们的模型 | 47.72 | 34.65 | 51.59 | 44.36 |
| 人工标注者 | 57.40 | 56.10 | - | - |
##### 基线模型
为了进行实证比较,使用了多个基线模型和最先进的方法:
1. **选定段落系统**:直接选择对给定问题的词级召回得分最高的段落作为答案。
2. **BiDAF和Match - LSTM模型**:最初为单通道MRC设计,通过启发式方法选择几个代表性段落,然后将它们连接成一个单通道来处理多通道MRC。
3. **PR + BiDAF**:将段落排名模型与BiDAF相结合。
4. **V - net**:联合训练答案边界预测、答案内容建模和答案验证三个不同模块来找到最终答案。
##### 结果与分析
- **整体性能**:研究人员在DuReader的两个版本上训练和测试段落选择模型,并在版本2.0上训练和测试BiDAF和Match - LSTM。从表中可以看出,在ROUGE - L标准下,我们的模型在两个版本上都优于所有基线模型,表明该模型的有效性。虽然我们的框架基于BiDAF,但性能远超它,说明选择最佳匹配段落是有帮助的。在BLEU - 4指标上,我们的模型表现稍差,因为与提取式模型相比,它倾向于提供更长、更有信息的答案,而BLEU有简洁性惩罚。
- **不同问题类型分析**:为了更好地理解模型的优缺点,研究人员进一步分析了不同问题类型的ROUGE - L和BLEU - 4得分与平均答案长度的关系。结果表明,ROUGE - L和BLEU - 4得分与答案长度成正比,描述类问题的ROUGE - L得分最高,这表
0
0
复制全文
相关推荐










