赞
踩
原文:https://www.jianshu.com/p/7f35a4b33f45
TextCNN 是利用卷积神经网络对文本进行分类的算法,由 Yoon Kim 在 “Convolutional Neural Networks for Sentence Classification” 一文 (见参考[1]) 中提出. 是2014年的算法.
TextCNN-2
文本分类需要CNN?No!fastText完美解决你的需求(后篇)
使用Keras进行深度学习:(三)使用text-CNN处理自然语言(上)
fastText、TextCNN、TextRNN……这里有一套NLP文本分类深度学习方法库供你选择
[站外图片上传中...(image-dd1d2e-1525483118820)]
Another Twitter sentiment analysis with Python — Part 11 (CNN + Word2Vec)
Dive Into NLTK, Part XI: From Word2Vec to WordNet
挺不错的系列
Using pre-trained word embeddings in a Keras model
结合DL with python的书一起看
思路:准备工作 -> 数据序列化 -> 得到词嵌入矩阵 -> 训练网络
DL4NLP —— 序列标注:BiLSTM-CRF模型做基于字的中文命名实体识别
这个博客也可以看看
Determined22
NLP中自动生产文摘(auto text summarization)
用CNN分100,000类图像
在这篇文章中我们尝试了 用CNN分类113,287类图像(MSCOCO)。
深度学习+自然语言处理(NLP)”专栏索引
CRF和LSTM 模型在序列标注上的优劣?
句法分析(使用NLTK+Stanford nlp、LTP)
刘兵《Entity and aspect extraction for opinion mining 》翻译笔记
哈工大车万翔:NLP中的深度学习模型是否依赖于树结构?
回望2017,基于深度学习的NLP研究大盘点
张钹院士:AI科学突破的前夜,教授们应当看到什么?
NLP 解决方案是如何被深度学习改写的?
Semantic Data Retrieval: Search, Ranking, and Summarization-讲义网站
神经机器翻译综述
SEE: Syntax-aware Entity Embedding for Neural Relation Extraction
https://arxiv.org/abs/1801.03603
(Stanford CS224d) Deep Learning and NLP课程笔记(二):word2vec
(Stanford CS224d) Deep Learning and NLP课程笔记(三):GloVe与模型的评估
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。