清華大學王翔宇主講的學術論文寫作概述總結如下:部分內容摘自其PPT
PPT下載地址:https://cloud.tsinghua.edu.cn/d/43a39e7ff05d43ef9f9e/
一篇英文論文的正常結構:題目Title、摘要Abstract、前言(引言)Introduction、問題描述Problem Formulation、方法Method、驗證(實驗)Experiments、結論Conclusion。
要做的事可以總體概括爲下圖:
學術論文兩要素:1、專業的知識;2、科學的表達。
如何寫作?(下圖摘自)
論文中都要求有創新點,什麼是創新點?——幹了別人沒幹過的事兒,就是創新。
1、發現了別人沒發現的現象
2、提出了別人沒提出的理論或方法
3、解決了別人沒解決的問題
4、設計了別人沒做過的實驗
一、題目
1、作用:
統領全文(概括整篇文章的主要內容,直觀明瞭,詳細具體)、畫龍點睛(創新點與貢獻、文章特色)、吸引眼球(要靠創新點吸引)。
2、怎麼起名?
中規中矩:對象+問題+方法
高端一點:對象/問題(可以簡化)+方法(描述其創新性、獨特性)
高端又不失內涵:對象/問題+方法(描述其創新性、普適性)
二、摘要
1、作用:
與題目 的作用類似:統領全文、畫龍點睛
2、寫法:
100-200words,表述前因後果講清楚,創新點更加詳細,貢獻更加突出。
總之,要讓別人看完只要就知道你做了什麼工作。
3、舉個例子
Bidirectional Attention Flow for Machine Comprehension
Machine comprehension (MC), answering a query about a given context paragraph, requires modeling complex interactions between the context and the query. Recently, attention mechanisms have been successfully extended to MC. Typically these methods use attention to focus on a small portion of the context and summarize it with a fixed-size vector, couple attentions temporally, and/or often form a uni-directional attention. (說明問題與一般解決辦法)
In this paper we introduce the Bi-Directional Attention Flow (BIDAF) network, a multi-stage hierarchical process that represents the context at different levels of granularity and uses bi-directional attention flow mechanism to obtain a query-aware context representation without early summarization. (本文 提出的方法具體怎麼解決問題)
Our experimental evaluations show that our model achieves the state-of-the-art results in Stanford Question Answering Dataset (SQuAD) and CNN/DailyMail cloze test.(方法取得了什麼效果)
譯文:
機器理解(MC),要回答有關給定上下文段落的查詢,需要對上下文與查詢之間的複雜交互進行建模。 最近,注意力機制已經成功地擴展到MC。 通常,這些方法使用注意力將注意力集中在上下文的一小部分上,並使用固定大小的向量對其進行彙總,在時間上耦合注意力,和/或通常形成單向注意力。 在本文中,我們介紹了雙向注意力流(BIDAF)網絡,它是一個多階段的分層過程,用於表示不同粒度級別的上下文,並使用雙向注意力流機制來獲得查詢感知的上下文表示,而無需進行早期彙總 。 我們的實驗評估表明,我們的模型在斯坦福問答數據集(SQuAD)和CNN / DailyMail完形填空測試中達到了最新的結果。