Tokenization (tokenized function)

Tokenization (tokenized function)

本文介绍了三种无监督的深度学习表示句子的方法:自编码器、语言模型和Skip-think向量模型,并与基线模型AverageWord2Vec进行了比较