Papers and Articles talk about NLP with Deep Learning

Background
Deep Learning in NLP (一)词向量和语言模型

Deep Learning in NLP (一)词向量和语言模型

CS224n: Natural Language Processing with Deep Learning
Schedule and Syllabus
http://web.stanford.edu/class/cs224n/syllabus.html

Skip-Gram Model – Word2Vec
Efficient Estimation of Word Representations in Vector Space
https://arxiv.org/pdf/1301.3781.pdf

Distributed Representations of Words and Phrases and their Compositionality
https://arxiv.org/pdf/1310.4546.pdf

Word2Vec Tutorial – The Skip-Gram Model
http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/

Softmax Regression (is used in Skip-Gram model)
http://ufldl.stanford.edu/tutorial/supervised/SoftmaxRegression/

中英文维基百科语料上的Word2Vec实验

中英文维基百科语料上的Word2Vec实验

GloVe Model
GloVe: Global Vectors for Word Representation
http://www-nlp.stanford.edu/pubs/glove.pdf
http://nlp.stanford.edu/projects/glove/

斯坦福大学深度学习与自然语言处理第二讲:词向量

斯坦福大学深度学习与自然语言处理第二讲:词向量

Previous Post

关于人工智能威胁论的一些想法

其实AI不需要认识到自我就可以伤害到人类 比如说一个控制城市交通的系统,它控制城市内所有车辆的运行, 它可能会出错,导致事故 甚至说,如果出现错误多的话,我们会给它惩罚(只是一个数值的变动), 它如果自我学习的结果是:谎报事故次数 这时候其实它没有自我意识,但是仍能做出,比如说将事故次数减少3个之类的行为 这不是说它会说谎了,知道躲避惩罚了 只是说,程序只知道,减少这个数值,可以避免惩罚(也就是另外一个数值的减少) 那他为什么要这么做呢? 因为我们给它写的程序的,目标就是,避免代表惩罚的那个数值减少 ... Read more

Next Post

Introducing 4 Scholarships for international student in South Korea

Since I received the first three scholarship, I will talk ... Read more

Leave a Reply