归档: 2018/10

0

【论文笔记05】WORDS OR CHARACTERS? FINE-GRAINED GATING FOR READING COMPREHENSION

1 问题和数据集1.1 问题 这是一篇以阅读理解为任务的文章,但在具体处理这个任务时,主要解决数据特征等的表示问题。在提取文本特征时,通常只对单词做词嵌入,而忽略了字符级的特征。 1.2 数据集 CBT WDW SQuAD 2 目前已有方法2.1 单词级表示(1)from a lookup table(2)每个单词用一个向量表示(3) 擅长表示单词的语义 2.2 字符级表示(1) 在

0

【论文笔记04】TriviaQA_A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension

1 论文主要内容 本文是一篇资源论文,主要发布了用于检索式问答或阅读理解的数据集Trivia QA; 对该数据集的质量和数量进行了分析,并创建了baseline,用于具体评估数据集的质量。 2 Trivia QA数据集的特点 问题比较复杂 在问题和相应的答案句子中有大量的句法或词汇变化 需要更多的跨句推理来得到答案 3 本文的主要贡献 发布了一个阅读理解数据集 提出了分析量化数据集质量的

0

【论文笔记03】ReasoNet-Learning to Stop Reading in Machine Comprehension

1 问题及数据集1.1 问题本论文主要解决一种面向Cloze-style(填空式)的阅读理解(问答)问题 1.2 数据集(1)CNN&Daily Mail(2)SQuAD(3)Graph Reachability datase 2 已有方法2.1 单轮推理(1)特点单轮推理模型主要利用注意力机制来强调文档中与问题相关的那些部分,计算问题和文档子单元的相应加权表示之间的相关度,为候

0

【论文笔记02】Text Understanding with the Attention Sum Reader Network

1 问题及数据集1.1 问题给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。 1.2数据集(1)CNN&Daily Mail(2)CBT 2 已有方法(1)Attentive and Impatient Readers(2)Attentive(3)Chen

0

【论文翻译01】How Much Reading Does Reading Comprehension Require?

0 Abstract最近的许多论文都涉及到阅读理解,他们一般都包括(问题,段落,答案)元组。或许,一个模型必须综合问题和段落两者的信息来预测相应的答案。然而,尽管人们对这个话题产生了浓厚的兴趣,数百篇已发表的论文争夺排行榜的主导地位,但关于许多流行基准测试难度的基本问题仍未得到解答。在这篇论文中,我们为bAbI、SQuAD、CBT、CNN和Who-did-What的数据集建立了合理的基线,发现只考