-
【语言特性】tf.keras不常见问题汇总
1. tf.keras同样是mse,但是作为loss和metrics的输出结果不一致。 可以参见这个问题。其实就是loss根据Batch算的,而metrics算的是全部的,所以metrics计算的是正确的结果。这个bug我看到在github上面提出来过了,据说已经fix了,但是不知道怎么又在tf2.0中出现了。 2. tf.keras相同模型相同训练集和测试集,相同服务器运行代码,多次的结果对应的…
-
【语言特性】tf.keras多输出和自定义loss
基础Loss tf.keras中自带了很多loss函数,比如回归问题的MSE和分类问题的交叉熵等,通常我们会在model.compile中设置,如下代码所示: model.compile(optimizer='adam', loss='mean_squared_error', metrics=[]) 多个输出,loss计算独立 但是最近做的工作是一个多任务的问题,需要计算多个输出的loss,然后将它们加起来求平均作为最终的Loss,…
-
【基础配置】服务器tensorflow-gpu2.0安装
原来一直用的tensorflow,但是由于它静态图的属性,每次debug都很艰难,要看计算的值都要传出来才能看到,而且要一次搭建成功了才能run。总之说来就是凭着经验和运气在debug,虽然说好像也有一个debug的工具,但是在pycharm上并不可用(或者是我没找到方法)。本来说做完横向就转去学pytorch,实验室似乎除了我和林小可爱就没人用tf了。林海博在此时给我安利了tf2.0,在网上看了一些教程,我也学了两天用它写了个简单的分类的程序,顿时感觉嘤嘤嘤太好用了。本地没有GPU还是跑…
-
【语言特性】Python 常用方法
Dataframe 1. 去掉某个元素为空的一行(以免去停后文本为空) data.dropna(inplace=True) 2. 去掉重复项(但是会导致用range进行遍历的时候在删掉位置报错) data = data.drop_duplicates 3. 遍历 for index, row in data.iterrows(): texts.append(row['text']) labels1.append(row['…
-
【论文阅读】Emotion Detection with Neural Personal Discrimination (EMNLP2019)
引言 这是EMNLP2019的一篇文章。 在情感分析中,通常是对于给定的一个文本,我们对它进行独立的分析和情感预测。但是根据趋同性理论,相似和关联性常常同时发生,这个理论运用到情感分析中可以认为具有相似背景的作者在表达情感时是相似的。这个和我们想要做的用户分组有一定的相似性。但是我们当时提出的是语言表达的相似性,这篇文章将用户之间的关联落到背景信息上,选取了作者的性别和位置两个属性,来得到用户之间的社会关联性。 如果选取作者的背景信息来得到文本之间的关联,这面临两个问题:(1) 如何得到用…
-
【生活总结】1/3研究生生活小结
课程 其实研一下的时候课程就不多了,大部分都在学期一半就结束了,除了英语,英语真的是物超所值的一门课。而且上到后来才觉得上课真的是休息的时候,可以有时间光明正大的玩手机不干活。但是后来很多课上也是带着电脑或者ipad在看论文或者画图。 科研 下学期就开始正经步入研究生生活了,大部分时间都在看论文和跑实验。 3月的时候赶ACL2019。其实想法年前就有了,但是实验效果不好,一直拖在这里,结果过年也不开心,总记得要过来跑实验,而且还有课程作业,所以初五就来了。来了有几天也没做什…
-
【论文阅读】Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts (ACL 2019)
看论文的一大动力就是我要讲论文了。 Basic Information * Title: Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts * Authors: Rui Xia, Zixiang Ding * Institution: Nanjing University of Science and Technology * Conference…
-
【论文阅读】Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering (AAAI 2019)
其实我不怎么了解QA方向的东西,但是下面的工作可能要向multi-task方向扩展,而且这方面我也不是很了解。组里一个做QA的师兄就发了他看到的一篇论文给我,说可能对我有一定的借鉴意义。 Basic Information * Title: Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering * Authors: Yang Den…
-
【论文阅读】Earlier Attention? Aspect-Aware LSTM for Aspect Sentiment Analysis (IJCAI 2019)
Basic Information * Authors: Bowen Xing , Lejian Liao , Dandan Song , Jingang Wang, Fuzhen Zhang , Zhongyuan Wang , Heyan Huang * Institution: Beijing Institute of Technology, Meituan-Dianping Group * Conference/Journal: IJCAI 2019…
-
【实验分析】GloVe的使用
之前使用的是Word2Vec和一个现成的训练好的词向量,后来补充了一些实验,发现即使都是300维的word embedding,使用word2vec的效果也没有现成的实验结果好。后来看到很多文章用的GloVe的词向量,觉得可以用一下。 理论依据 GloVe是论文Glove: Global vectors for word representation中间提出来的,在写这篇博客的时候我还没看这篇文章,所以这部分过几天看完补上。 实验使用 GloVe的话pycharm安装是不成功的,无论…