Hope is a dangerous thing, but I have it.


  1. 【论文阅读】ACL2019 泛读清单

    1. One Time of Interaction May Not Be Enough: Go Deep with an Interaction-over-Interaction Network for Response Selection in Dialogues    是北大和微软合作的论文,解决的问题是对话系统中的response selection。模型需要计算用户聊天ci和回答ri之间的匹配得分,来表明两者是否是关联的。…

    论文阅读阅读全文

  2. 【生活琐事】2020年寒假打卡

    Fighting! 锻炼 爱好 刷题 论文 看书 2.3 休息 复习了音阶,在学习送别第一句和第二句 leetcode 数组6题 (1. 判断重复还是可以考虑set的呀; 2. 异或^真是个有趣的操作。) - - 2.4 休息 - leetcode #350 #189 #48(1. 果然记不得vector操作的我巨亏) - - 2.5 休息 学习了三个小时,结果见图片 - 看了两篇在投的论文,和一篇CVPR2019的《Multi-Label Image Recogni…

    生活, 打卡阅读全文

  3. 【读书小记】《切尔诺贝利的悲鸣》摘录

    1. 一个接一个死掉,但是没有人来问我们经历了什么、看到了什么,没有人想听和死亡或恐惧有关的事。但是我告诉你的故事是关于爱情,关于我的爱……(P25) 2. 记得托尔斯泰怎么写的吗?皮埃尔经历过战争,觉得很震撼,他以为自己和全世界永远为之改变,但是过了一段时间后,他告诉自己:“我还是和从前一样对巴士司机大叫、咆哮,就像从前一样。”如果是这样,人为什么又要记得?为了确定真相,还是为了公平?所以他们可以释放自己,然后遗忘?是不是因为他们明白自己成为重大事件的一部分?或者他们想把自己隐藏在过去…

    读书阅读全文

  4. 【生活琐事】2019惜福

    选2019年日历的时候,犹犹豫豫最后选了西西弗书店的日历,主要是因为日历的名字取得很合我心意,叫惜福日历。我希望我2019年也是要惜福哇。 一月 去上海找小丁玩,去了很有特色的路。我也想有一栋小洋房……不过这个楼里吃顿饭好贵啊!! 下了很大的雪,在学校逛了一圈没有人哎! 当了一次冒牌的嘉宾。 遇到了我很喜欢的一对cp。不过我磕得不是很敬业啦。 因为将要过年,所以一月的主题还是聚餐呀。和室友吃饭~ 实验室聚餐~不过讲真第一桌都快要吃完了我们桌的锅里的水还没开! 和华华丹丹吃饭,谢…

    生活, 总结阅读全文

  5. 【生活总结】3/6研究生生活小结

    科研    研究生的时间说长也不长,短也不短,就是三年的时间。我总是期待着我每学期写这个学期小结的时候可以写得觉得我进步了,起码懂得比以前多了。说起来很不好意思的是,觉得这半年科研并没有很多的进步哎。可能过去了一开始的热情,逐渐明白了科研的困难了。看到自身知识不足带来的瓶颈,又缺乏足够的勇气和动力说我从头开始学就好了。    这个学期和林海博合作了一个工作,没有赶上AAAI19,但是后来经过三个月的打磨,最后投了ACL2020。这个主要是林海博的idea,我更多的是根据问题给出解决方案。在…

    生活, 总结阅读全文

  6. 【论文阅读】Text Level Graph Neural Network for Text Classification (EMNLP 2019)

    Motivation 传统的针对文本分类的GNN通常是构建一个固定的corpus level的图,这种图一般是静态图,有如下特征和缺点: 1. Corpus level,一般事先将所有的文档建模到图中。但这会使得计算资源消耗大,并且不可动态地增加文档,不可以进行online test。 2. 边的权重预先设定好,不可更改。受到预先设定的限制,并且降低了边的表达能力。 所以针对以上缺点,本文提出了一种新的文档级别的GNN方法。 Method 建图…

    论文阅读阅读全文

  7. 【论文阅读】Knowledge-Enriched Transformer for Emotion Detection in Textual Conversations (EMNLP 2019)

    Motivation 人们的对话中通常包含着很多情感信息。但是人们通常在对对话进行情感分析的时候具有如下两个特点: 1. 考虑上下文的信息。 2. 人们本身具有一定的commonsense knowledge,利用commonsense knowledge进行对话分析。 所以针对如上两个特点,本文提出了Knowledge-Enriched Transformer(KET)模型,该模型使用了层次的self-attention来得到文档的上下文关系,而且与之前方法…

    论文阅读, MathJax阅读全文

  8. 【语言特性】keras中TimeDistributed多输入问题

    最近实验中使用了层级attention机制,具体代码参考了textClassifier的代码,是用keras实现的,我直接迁移到tf2.0也是很方便。    这个代码中,sentence-level到document-level是通过keras自带的TimeDistributed实现的。TimeDistributed是自动地将相同操作应用于不同的time_step,以达到不同time_step进行相同的计算,并权重共享。    官网中参数介绍如下: * inputs: Input…

    实验阅读全文

  9. 【语言特性】tf.keras不常见问题汇总

    1. tf.keras同样是mse,但是作为loss和metrics的输出结果不一致。    可以参见这个问题。其实就是loss根据Batch算的,而metrics算的是全部的,所以metrics计算的是正确的结果。这个bug我看到在github上面提出来过了,据说已经fix了,但是不知道怎么又在tf2.0中出现了。 2. tf.keras相同模型相同训练集和测试集,相同服务器运行代码,多次的结果对应的…

    实验, Tensorflow2.0, python阅读全文

  10. 【语言特性】tf.keras多输出和自定义loss

    基础Loss    tf.keras中自带了很多loss函数,比如回归问题的MSE和分类问题的交叉熵等,通常我们会在model.compile中设置,如下代码所示: model.compile(optimizer='adam', loss='mean_squared_error', metrics=[]) 多个输出,loss计算独立    但是最近做的工作是一个多任务的问题,需要计算多个输出的loss,然后将它们加起来求平均作为最终的Loss,…

    python, Tensorflow2.0, 实验阅读全文