机器学习日报2015-09-04 为什么苹果在机器学习上投入很少? 等29条

2015年9月5日 | By News | Filed in: News.

Source: http://ml.memect.com/archive/2015-09-04/long.html

为什么苹果在机器学习上投入很少?

来自 @也爱数据挖掘 好东西传送门整理

关键词:应用, 推荐系统

为什么苹果在机器学习上投入很少?苹果是一家科技公司,靠买高质量的硬件和软件赚钱,靠极致的设计和体验吸引用户,这些东西很少需要机器学习,库克都说了,苹果不分析你的邮件,不记录你的用户习惯,不搞什么个性化推荐 [1] [1] http://qr.ae/RHtC7p

NASARI 2.0——BabelNet同义词集(多语言)语义向量

来自 @爱可可-爱生活 好东西传送门整理

【数据+论文:NASARI 2.0——BabelNet同义词集(多语言)语义向量】”NASARI 2.0 semantic vector representations for BabelNet synsets in several languages” [1] Ref:《 NASARI: a Novel Approach to a Semantically-Aware Representation of Items》 (NAACL 2015) [1] http://lcl.uniroma1.it/nasari/

神经网络和函数式编程语言的对比

来自 @网路冷眼 好东西传送门整理

关键词:深度学习, 算法, 神经网络

【Neural Networks, Types, and Functional Programming】 [1] 神经网络的RNN和函数式编程语言如Haskell那样的高阶函数有天然的对应关系,那么将函数式编程语言这些构造块和深度学习一结合,将产生出一种新的编程方式。 [1] http://colah.github.io/posts/2015-09-NN-Types-FP/

神经网络和函数式编程语言的对比

统计自然语言解析器BLLIP

来自 @爱可可-爱生活 好东西传送门整理

关键词:自然语言处理, Python, 代码, 统计

【开源:(Python)统计自然语言解析器BLLIP Reranking Parser】”BLLIP Parser is a statistical natural language parser including a generative constituent parser (first-stage) and discriminative maximum entropy reranker (second-stage).” GitHub: [1] [1] https://github.com/BLLIP/bllip-parser

层次神经语言模型HNLM

来自 @iB37 好东西传送门整理

关键词:应用, 资源, 自然语言处理, PDF, 推荐系统

用层次神经语言模型HNLM在数据流中同时学习文档及其词的表示:一个HNLM对文档序列建模,另一个对词序列建模。Hierarchical Neural Language Models for Joint Representation of Streaming Documents and their Content [Djuric,WWW15] [1] 个性化推荐学习用户相关隐藏偏好 [1] http://www.www2015.it/documents/proceedings/proceedings/p248.pdf

层次神经语言模型HNLM

完整版

点此链接查看全部29条:http://ml.memect.com/archive/2015-09-04/long.html


发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注