分类:: NOTES

【论文笔记03】ReasoNet-Learning to Stop Reading in Machine Comprehension

1 问题及数据集1.1 问题本论文主要解决一种面向Cloze-style(填空式)的阅读理解(问答)问题 1.2 数据集(1)CNN&Daily Mail(2)SQuAD(3)Graph Reachability datase 2 已有方法2.1 单轮推理(1)特点单轮推理模型主要利用注意力机制来强调文档中与问题相关的那些部分,计算问题和文档子单元的相应加权表示之间的相关度,为候

【论文笔记02】Text Understanding with the Attention Sum Reader Network

1 问题及数据集1.1 问题给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。 1.2数据集(1)CNN&Daily Mail(2)CBT 2 已有方法(1)Attentive and Impatient Readers(2)Attentive(3)Chen

【论文翻译01】How Much Reading Does Reading Comprehension Require?

0 Abstract最近的许多论文都涉及到阅读理解,他们一般都包括(问题,段落,答案)元组。或许,一个模型必须综合问题和段落两者的信息来预测相应的答案。然而,尽管人们对这个话题产生了浓厚的兴趣,数百篇已发表的论文争夺排行榜的主导地位,但关于许多流行基准测试难度的基本问题仍未得到解答。在这篇论文中,我们为bAbI、SQuAD、CBT、CNN和Who-did-What的数据集建立了合理的基线,发现只考

一种最原始的混沌神经元构造过程

一个混沌神经元的输出与①每一个外部输入在每一个离散时刻的状态,②其他每一个混沌神经元在每一个时刻的状态,以及③该混沌神经元在每一个离散时刻的状态(主要为不应性情况)和④预设的阈值有关。由于该博客公式显示问题,请移步CSDN博文一种最原始的混沌神经元构造过程 一 混沌神经元的构造(1)一种混沌神经元的构造方法如下: $$x{i}\left( t + 1 \right) = f\left\lbrac

Keras examples-imdb_cnn[利用卷积神经网络对文本进行分类]

1 任务描述本实验室利用卷积神经网络对imdb数据进行文本分类 2 实验过程(1)引入实验中所涉及到的包数据集包、数据预处理包、网络模型包、网络各层结构所对应的包1234567from __future__ import print_functionfrom keras.preprocessing import sequencefrom keras.models import Sequentia

Keras examples-imdb_bidirectional_lstm

1 任务描述本实验是训练一个双向LSTM,并在IMDB数据集上完成情感分类任务 2 具体实现(1)引入必要的包123456from __future__ import print_functionimport numpy as npfrom keras.preprocessing import sequencefrom keras.models import Sequentialfrom ker

Keras examples-babi_rnn

1 任务描述本实验利用提供的20个种类的数据集,完成KQA的任务。 2 具体实现任务整体流程如图所示: (1)引入必要的包12345678910111213from __future__ import print_functionfrom functools import reduceimport reimport tarfile # 处理压缩文件import numpy as npfrom k

Keras examples-addition_rnn

Keras examples-addition_rnn1、任务描述(1)任务概述:主要是利用序列学习来实现两个整数(字符串)的加法(2)任务分析:两个整数相加,需要通过神经网络来训练,于是不能够直接将整型作为神经网络的输入;想想办法,如果将整数和加号等都转化为字符,于是就可以用一个字符串来表示这个加法问题了;字符串表示的加法问题,可以看成是文本,于是紧接着考虑用什么语言模型来表示这个问题,由于加法