論文寫作——題目與摘要

清華大學王翔宇主講的學術論文寫作概述總結如下:部分內容摘自其PPT

PPT下載地址:https://cloud.tsinghua.edu.cn/d/43a39e7ff05d43ef9f9e/

一篇英文論文的正常結構:題目Title、摘要Abstract、前言(引言)Introduction、問題描述Problem Formulation、方法Method、驗證(實驗)Experiments、結論Conclusion。

要做的事可以總體概括爲下圖:

學術論文兩要素:1、專業的知識;2、科學的表達。

如何寫作?(下圖摘自)

論文中都要求有創新點,什麼是創新點?——幹了別人沒幹過的事兒,就是創新。

1、發現了別人沒發現的現象

2、提出了別人沒提出的理論或方法

3、解決了別人沒解決的問題

4、設計了別人沒做過的實驗

一、題目

1、作用:

統領全文(概括整篇文章的主要內容,直觀明瞭,詳細具體)、畫龍點睛(創新點與貢獻、文章特色)、吸引眼球(要靠創新點吸引)。

2、怎麼起名?

中規中矩:對象+問題+方法

高端一點:對象/問題(可以簡化)+方法(描述其創新性、獨特性)

高端又不失內涵:對象/問題+方法(描述其創新性、普適性)

二、摘要

1、作用:

與題目 的作用類似:統領全文、畫龍點睛

2、寫法:

100-200words,表述前因後果講清楚,創新點更加詳細,貢獻更加突出。

總之,要讓別人看完只要就知道你做了什麼工作。

3、舉個例子

Bidirectional Attention Flow for Machine Comprehension

Machine comprehension (MC), answering a query about a given context paragraph, requires modeling complex interactions between the context and the query. Recently, attention mechanisms have been successfully extended to MC. Typically these methods use attention to focus on a small portion of the context and summarize it with a fixed-size vector, couple attentions temporally, and/or often form a uni-directional attention. (說明問題與一般解決辦法)

In this paper we introduce the Bi-Directional Attention Flow (BIDAF) network, a multi-stage hierarchical process that represents the context at different levels of granularity and uses bi-directional attention flow mechanism to obtain a query-aware context representation without early summarization. (本文 提出的方法具體怎麼解決問題)

Our experimental evaluations show that our model achieves the state-of-the-art results in Stanford Question Answering Dataset (SQuAD) and CNN/DailyMail cloze test.(方法取得了什麼效果)

譯文:

機器理解(MC),要回答有關給定上下文段落的查詢,需要對上下文與查詢之間的複雜交互進行建模。 最近,注意力機制已經成功地擴展到MC。 通常,這些方法使用注意力將注意力集中在上下文的一小部分上,並使用固定大小的向量對其進行彙總,在時間上耦合注意力,和/或通常形成單向注意力。 在本文中,我們介紹了雙向注意力流(BIDAF)網絡,它是一個多階段的分層過程,用於表示不同粒度級別的上下文,並使用雙向注意力流機制來獲得查詢感知的上下文表示,而無需進行早期彙總 。 我們的實驗評估表明,我們的模型在斯坦福問答數據集(SQuAD)和CNN / DailyMail完形填空測試中達到了最新的結果。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章