机器学习日报2015-08-23 Stanford自然语言推理(SNLI)数据集 等22条

2015年8月24日 | By News | Filed in: News.

Source: http://ml.memect.com/archive/2015-08-23/long.html

Stanford自然语言推理(SNLI)数据集

来自 @爱可可-爱生活 好东西传送门整理

关键词:资源, 自然语言处理, PDF, 教育网站, 数据

【开放数据:Stanford自然语言推理(SNLI)数据集】”The Stanford Natural Language Inference (SNLI) Corpus” [1] 介绍论文《A large annotated corpus for learning natural language inference》 [2] [1] http://nlp.stanford.edu/projects/snli/

[2] http://nlp.stanford.edu/pubs/snli_paper.pdf

Stanford NLP Group Topic

来自 @Copper_PKU 好东西传送门整理

关键词:自然语言处理, 教育网站

[1] Stanford NLP Group Topic 涵盖了NLP领域的几大主流方向 平时很关注这个。。。 [1] http://nlp.stanford.edu/research.shtml

RNN 直接在字符级做序列预测

来自 @iB37 好东西传送门整理

关键词:会议活动, 深度学习, 算法, 语音, HMM, NIPS, 会议, 论文

将语音识别中用于序列译码的HMM换为RNN 直接在字符级做序列预测. 而字符序列与输入特征的对齐由内置了attention机制的RNN学习. attention指在预测字符时扫描输入序列并选择具有相关性的帧. ATTENTION-BASED [Bahdanau,arXiv15] [1] RNN[Chorowski,NIPS14ws] [2] [1] http://arxiv.org/abs/1508.04395

[2] http://www.dlworkshop.org/accepted-papers

RNN 直接在字符级做序列预测

Variational autoencoder

来自 @路遥_机器学习 好东西传送门整理

关键词:深度学习, 论文

自己的idea和别人撞车了怎么办?欧洲人给我们作一个很好的范例。Kingma&Welling和DeepMind分别做出了variational autoencoder [1] [2] 两篇文章第一版发表只差不到一月,但后来都相互引用了对方,声称和对方是同时独立作出的。既体面解决问题,又赢得了别人的尊重。 [1] http://arxiv.org/abs/1312.6114

[2] http://arxiv.org/abs/1401.4082

公开推荐论文的网站Recommend-Paper.org

来自 @闫安Jon 好东西传送门整理

关键词:会议活动, 深度学习, NIPS, 会议

[Recommend-Paper.org] [1] 现在作者们可以把自己的论文上载到网站,允许公开评论,然后被组委会看中的将被推荐到12月10日的 Deep Learning Symposium @ NIPS’2015 [1] https://recommend-papers.org/

公开推荐论文的网站Recommend-Paper.org

完整版

点此链接查看全部22条:http://ml.memect.com/archive/2015-08-23/long.html


发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注