英文閱讀必備——說說那些翻譯軟件

 

 


背景

本人全日制工科專業研二在讀,日常需要看各種論文,奈何英文不夠強悍,每次閱讀都需要依賴翻譯軟件。

個人認爲閱讀論文不能完全依賴整篇翻譯,畢竟很多專有名詞在不同領域有特殊含義,這點翻譯軟件是很難識別的。所以建議能直接讀懂的就直接讀,覺得不是很重要的段落或者一時半會兒讀不懂的,嘗試各個軟件的翻譯。

百度翻譯

百度翻譯沒有桌面版,我更推薦它作爲你寫英文論文時候,一些表達方法和單詞使用的查詢詞典。

對於英文單詞的理解,看他的例句和英文解釋是最合理的。英文能更好地解釋單詞,牛津詞典上的英文解釋用的都是很簡單的詞彙,高中英語水平便可看懂(更何況我們這些研究生呢)。查閱牛津詞典較爲繁瑣,百度翻譯可以直接展示各類優秀詞典的翻譯:免費且全,非常適合

歐路詞典&有道翻譯

翻譯講究“信達雅”,有道翻譯在翻譯時的潤色程度(“雅”)要好於歐路詞典,讀起來更符合中文閱讀習慣。但是對於英文論文的閱讀,翻譯意思的明確更顯重要,所以我個人會更加偏好直譯而表述清晰的歐路詞典,直譯往往更能讓我明確一些詞的含義。

翻譯對比

爲了讓大家可以更清晰地瞭解,我截取了自己正在閱讀的一篇論文(計算機方面)的摘要部分,進行了逐句翻譯對比。希望可以幫助大家更好地進行工具的選擇。【防止先入爲主的思想,我在最後纔給出了每個翻譯對應的翻譯軟件

原文——翻譯1——翻譯二:

We address the challenging problem of efficient inference across many devices and resource constraints, especially on edge devices.

(1)我們解決了在許多設備和資源限制(尤其是在邊緣設備)上進行有效推理的難題。

(2)我們解決了跨許多設備和資源約束進行有效推理的難題,尤其是在邊緣設備上。

Conventional approaches either manually design or use neural architecture search (NAS) to find a specialized neural network and train it from scratch for each case, which is computationally prohibitive (causing CO 2 emission as much as 5 cars’ lifetime Strubell et al. (2019)) thus unscalable.

(1)常規方法是手動設計或使用神經體系結構搜索(NAS)來找到專門的神經網絡並針對每種情況從頭開始對其進行訓練,這在計算上是禁止的(導致CO 2排放量多達5輛汽車的使用壽命Strubell等人。(2019))無法縮放。

(2)傳統的方法要麼手工設計,要麼使用神經結構搜索(NAS)來找到一個專門的神經網絡,然後針對每種情況從頭開始訓練它,這在計算上是禁止的(導致多達5輛車的co2排放史特貝爾等人(2019)),因此不可伸縮。

In this work, we propose to train a once-for-all (OFA) network that supports diverse architectural settings by decoupling training and search, to reduce the cost.We can quickly get a specialized sub-network by selecting from the OFA network without additional training.

(1)在這項工作中,我們建議通過分離訓練和搜索來訓練一個支持所有人的(OFA)網絡,以支持多種架構設置,以降低成本。通過從OFA網絡中進行選擇,我們可以快速獲得專門的子網,而無需額外的培訓。

(2)在這項工作中,我們建議通過解耦培訓和搜索來培訓一個一次性的(OFA)網絡來支持不同的架構設置,以降低成本。通過從OFA網絡中進行選擇,不需要進行額外的訓練,就可以快速地得到一個專門的子網絡。

To efficiently train OFA networks, we also propose a novel progressive shrinking algorithm, a generalized pruning method that reduces the model size across many more dimensions than pruning (depth, width, kernel size, and resolution).

(1)爲了有效地訓練OFA網絡,我們還提出了一種新穎的漸進式收縮算法,這是一種通用的修剪方法,與修剪(深度,寬度,內核大小和分辨率)相比,該方法可以在更多維度上減小模型大小。

(2)爲了有效地訓練OFA網絡,我們還提出了一種新的漸進縮減算法,這是一種廣義剪枝方法,它在比剪枝(深度、寬度、核大小和分辨率)更大的維度上減少了模型的大小。

 

It can obtain a surprisingly large number of sub-networks ( > 10 19 ) that can fit different hardware platforms and latency constraints while maintaining the same level of accuracy as training independently.

(1)它可以獲得數量驚人的子網(> 10 19),可以適應不同的硬件平臺和延遲約束,同時保持與獨立訓練相同的準確性。

(2)它可以獲得數量驚人的子網絡(>10 19)可以適應不同的硬件平臺和延遲約束,同時保持與獨立訓練相同的精度水平。

On diverse edge devices, OFA consistently outperforms state-of-the-art (SOTA) NAS methods (up to 4.0% ImageNet top1 accuracy improvement over MobileNetV3, or same accuracy but 1.5 × faster than MobileNetV3, 2.6 × faster than EfficientNet w.r.t measured latency) while reducing many orders of magnitude GPU hours and CO 2 emission.

(1)在各種邊緣設備上,OFA始終優於最先進的(SOTA)NAS方法(與MobileNetV3相比,ImageNet top1精度提高了4.0%,或相同的精度,但比MobileNetV3快1.5倍,比EfficientNet快2.6倍,測量的延遲時間) ),同時減少了多個數量級的GPU小時和CO 2排放。

(2)在不同的邊緣設備上,OFA始終優於最先進的(SOTA) NAS方法(與MobileNetV3相比,ImageNet top1精度提高了4.0%,或精度相同,但比MobileNetV3快1.5,比有效網w.r快2.6。t測量延遲),同時減少許多數量級GPU小時和二氧化碳排放。

對應軟件

(1)——歐路詞典——

(2)——有道詞典——

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章