标签: Word Embedding


  1. GloVe的使用

    之前使用的是Word2Vec和一个现成的训练好的词向量,后来补充了一些实验,发现即使都是300维的word embedding,使用word2vec的效果也没有现成的实验结果好。后来看到很多文章用的GloVe的词向量,觉得可以用一下。理论依据GloVe是论文Glove: Global vectors for word representation中间提出来的,在写这篇博客的时候我还没看这篇文章,所以这部分过几天看完补上。实验使用GloVe的话pycharm安装是不成功的,无论是glove,还是g…

    理性, NLP, Word Embedding阅读全文