Source: http://ml.memect.com/archive/2015-09-04/long.html
为什么苹果在机器学习上投入很少?
来自 @也爱数据挖掘 好东西传送门整理
关键词:应用, 推荐系统
为什么苹果在机器学习上投入很少?苹果是一家科技公司,靠买高质量的硬件和软件赚钱,靠极致的设计和体验吸引用户,这些东西很少需要机器学习,库克都说了,苹果不分析你的邮件,不记录你的用户习惯,不搞什么个性化推荐 [1] [1] http://qr.ae/RHtC7p
NASARI 2.0——BabelNet同义词集(多语言)语义向量
来自 @爱可可-爱生活 好东西传送门整理
【数据+论文:NASARI 2.0——BabelNet同义词集(多语言)语义向量】”NASARI 2.0 semantic vector representations for BabelNet synsets in several languages” [1] Ref:《 NASARI: a Novel Approach to a Semantically-Aware Representation of Items》 (NAACL 2015) [1] http://lcl.uniroma1.it/nasari/
神经网络和函数式编程语言的对比
来自 @网路冷眼 好东西传送门整理
关键词:深度学习, 算法, 神经网络
【Neural Networks, Types, and Functional Programming】 [1] 神经网络的RNN和函数式编程语言如Haskell那样的高阶函数有天然的对应关系,那么将函数式编程语言这些构造块和深度学习一结合,将产生出一种新的编程方式。 [1] http://colah.github.io/posts/2015-09-NN-Types-FP/
统计自然语言解析器BLLIP
来自 @爱可可-爱生活 好东西传送门整理
关键词:自然语言处理, Python, 代码, 统计
【开源:(Python)统计自然语言解析器BLLIP Reranking Parser】”BLLIP Parser is a statistical natural language parser including a generative constituent parser (first-stage) and discriminative maximum entropy reranker (second-stage).” GitHub: [1] [1] https://github.com/BLLIP/bllip-parser
层次神经语言模型HNLM
来自 @iB37 好东西传送门整理
关键词:应用, 资源, 自然语言处理, PDF, 推荐系统
用层次神经语言模型HNLM在数据流中同时学习文档及其词的表示:一个HNLM对文档序列建模,另一个对词序列建模。Hierarchical Neural Language Models for Joint Representation of Streaming Documents and their Content [Djuric,WWW15] [1] 个性化推荐学习用户相关隐藏偏好 [1] http://www.www2015.it/documents/proceedings/proceedings/p248.pdf
完整版
点此链接查看全部29条:http://ml.memect.com/archive/2015-09-04/long.html