标签: NLP


  1. tf.keras多输出和自定义loss

    基础Loss    tf.keras中自带了很多loss函数,比如回归问题的MSE和分类问题的交叉熵等,通常我们会在model.compile中设置,如下代码所示: model.compile(optimizer='adam', loss='mean_squared_error', metrics=[]) 多个输出,loss计算独立    但是最近做的工作是一个多任务的问题,需要计算多个输出的loss,然后将它们加起来求平均作为最终的Loss,由于多个输出不可以合并,那用上面的方法就不合适了。t…

    NLP, python, Tensorflow2.0阅读全文

  2. 论文阅读系列(六)

    Basic InformationAuthors:  Bowen Xing , Lejian Liao , Dandan Song , Jingang Wang,  Fuzhen Zhang , Zhongyuan Wang , Heyan HuangInstitution:  Beijing Institute of Technology,  Meituan-Dianping Group         Conference/Journal:  IJCAI 2019           Cit…

    理性, 论文, NLP阅读全文

  3. GloVe的使用

    之前使用的是Word2Vec和一个现成的训练好的词向量,后来补充了一些实验,发现即使都是300维的word embedding,使用word2vec的效果也没有现成的实验结果好。后来看到很多文章用的GloVe的词向量,觉得可以用一下。理论依据GloVe是论文Glove: Global vectors for word representation中间提出来的,在写这篇博客的时候我还没看这篇文章,所以这部分过几天看完补上。实验使用GloVe的话pycharm安装是不成功的,无论是glove,还是g…

    理性, NLP, Word Embedding阅读全文

  4. 论文阅读系列(五)

    这是这周组会要讲的论文,虽然和我做的方向不太相关,但是emnlp和ACL上面有很多aspect-level的论文,并且他也有一个复杂的attention机制,想看看有没有什么可以借鉴的。Basic InformationName: Multi-grained Attention Network for Aspect-Level Sentiment ClassificationAuthors: Feifan Fan, Yansong Feng, Dongyan ZhaoURL: http://ac…

    理性, 论文, NLP阅读全文