机器学习日报2015-09-07 OWL/RDF/描述逻辑的监督学习框架DL-Learner 等31条

2015年9月8日 | By News | Filed in: News.

Source: http://ml.memect.com/archive/2015-09-07/long.html

OWL/RDF/描述逻辑的监督学习框架DL-Learner

来自 @爱可可-爱生活 好东西传送门整理

关键词:深度学习, 知识工程, 代码, 语义网

【开源:面向OWL/RDF/描述逻辑的监督学习框架DL-Learner】”a framework for supervised Machine Learning in OWL, RDF and Description Logics” [1] Github: [2] [1] http://dl-learner.org/

[2] https://github.com/AKSW/DL-Learner

Differential Topic Models

来自 @iB37 好东西传送门整理

关键词:会议活动, 自然语言处理, NIPS, 会议, 教育网站, 统计, 主题模型

比较文本挖掘或者交叉文档集建模中,不同的文档集有共性,也有个性。Differential Topic Models [Chen,PAMI15] 提出层次贝叶斯非参模型,用Pitman-Yor过程建模话题-词分布中的幂律/长尾现象,针对新模型的先验和似然不共轭提出了新的高效采样法 [1] 注:NIPS15有很多贝叶斯相关的 [1] http://users.cecs.anu.edu.au/~Chen.Changyou/

Differential Topic Models

Depth-Gated LSTM

来自 @爱可可-爱生活 好东西传送门整理

关键词:深度学习, 代码, 论文

【论文+代码(c++):Depth-Gated LSTM(DGLSTM)】《Depth-Gated LSTM》K Yao, T Cohn, K Vylomova, K Duh, C Dyer (2015) [1] GitHub(dglstm.h+dglstm.cc):https://github.com/kaishengyao/cnn/tree/master/cnn [1] http://arxiv.org/abs/1508.03790

Depth-Gated LSTM

minhash和simhash的比较

来自 @龙星镖局 好东西传送门整理

关键词:资源, 自然语言处理, PDF, 期刊

这篇文章很有意思,作者理论和实验都证明了对于binary data,minhash比simhash要牛掰一点。 [1] 话说谁能用一两句说清什么场景用哪个么? [1] http://jmlr.org/proceedings/papers/v33/shrivastava14.pdf

minhash和simhash的比较

Text Understanding from Scratch

来自 @iB37 好东西传送门整理

关键词:会议活动, 深度学习, 算法, NIPS, 分类, 会议

Text Understanding from Scratch [Zhang,arXiv15]已被NIPS15录取,标题改为Character-level Convolutional Networks for Text Classification,增加了第二作者。文章、代码和数据集 [1] [1] http://xzh.me/

Text Understanding from Scratch

完整版

点此链接查看全部31条:http://ml.memect.com/archive/2015-09-07/long.html


发表评论

邮箱地址不会被公开。 必填项已用*标注