Home

0

【论文笔记06】Memory Network

1 问题和解决办法(1)问题 当遇到有若干个句子并且句子之间有联系的时候,RNN和LSTM就不能很好地解决; 对于句子间的这种长期依赖,于是需要从记忆中提取信息; (2)解决办法 本文提出了实现长期记忆的框架,实现了如何从长期记忆中读取和写入,此外还加入了推理功能; 在QA问题中,长期记忆是很重要的,充当知识库的作用,从其中获取长期记忆来回答问题。2 模型框架(1)模型由4个模块组成,分

0

【论文笔记05】WORDS OR CHARACTERS? FINE-GRAINED GATING FOR READING COMPREHENSION

1 问题和数据集1.1 问题 这是一篇以阅读理解为任务的文章,但在具体处理这个任务时,主要解决数据特征等的表示问题。在提取文本特征时,通常只对单词做词嵌入,而忽略了字符级的特征。 1.2 数据集 CBT WDW SQuAD 2 目前已有方法2.1 单词级表示(1)from a lookup table(2)每个单词用一个向量表示(3) 擅长表示单词的语义 2.2 字符级表示(1) 在

0

【论文笔记04】TriviaQA_A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension

1 论文主要内容 本文是一篇资源论文,主要发布了用于检索式问答或阅读理解的数据集Trivia QA; 对该数据集的质量和数量进行了分析,并创建了baseline,用于具体评估数据集的质量。 2 Trivia QA数据集的特点 问题比较复杂 在问题和相应的答案句子中有大量的句法或词汇变化 需要更多的跨句推理来得到答案 3 本文的主要贡献 发布了一个阅读理解数据集 提出了分析量化数据集质量的

0

【论文笔记03】ReasoNet-Learning to Stop Reading in Machine Comprehension

1 问题及数据集1.1 问题本论文主要解决一种面向Cloze-style(填空式)的阅读理解(问答)问题 1.2 数据集(1)CNN&Daily Mail(2)SQuAD(3)Graph Reachability datase 2 已有方法2.1 单轮推理(1)特点单轮推理模型主要利用注意力机制来强调文档中与问题相关的那些部分,计算问题和文档子单元的相应加权表示之间的相关度,为候

0

【论文笔记02】Text Understanding with the Attention Sum Reader Network

1 问题及数据集1.1 问题给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。 1.2数据集(1)CNN&Daily Mail(2)CBT 2 已有方法(1)Attentive and Impatient Readers(2)Attentive(3)Chen

0

【论文翻译01】How Much Reading Does Reading Comprehension Require?

0 Abstract最近的许多论文都涉及到阅读理解,他们一般都包括(问题,段落,答案)元组。或许,一个模型必须综合问题和段落两者的信息来预测相应的答案。然而,尽管人们对这个话题产生了浓厚的兴趣,数百篇已发表的论文争夺排行榜的主导地位,但关于许多流行基准测试难度的基本问题仍未得到解答。在这篇论文中,我们为bAbI、SQuAD、CBT、CNN和Who-did-What的数据集建立了合理的基线,发现只考

0

一种最原始的混沌神经元构造过程

一个混沌神经元的输出与①每一个外部输入在每一个离散时刻的状态,②其他每一个混沌神经元在每一个时刻的状态,以及③该混沌神经元在每一个离散时刻的状态(主要为不应性情况)和④预设的阈值有关。由于该博客公式显示问题,请移步CSDN博文一种最原始的混沌神经元构造过程 一 混沌神经元的构造(1)一种混沌神经元的构造方法如下: x_{i}\left( t + 1 \right) = f\left\lbrac

0

利用sklearn实现多分类实验demo

常见的文本分类中,二分类问题居多,多分类问题其实也挺常见的,这里简单给出一个多分类的实验demo。 1 引入相应的库123456789101112# 引入必要的库import numpy as npimport matplotlib.pyplot as pltfrom itertools import cyclefrom sklearn import svm, datasetsfrom sklea