原创 結合知識蒸餾的增量學習方法總結

結合知識蒸餾的增量學習方法總結 知識蒸餾(Knowledge Distillation)最早是在Hinton的《Distilling the Knowledge in a Neural Network》一文中提出,運用在圖像分類任

原创 Merging Weak and Active Supervision for Semantic Parsing論文筆記

AAAI 2020 論文地址 https://arxiv.org/pdf/1911.12986.pdf 源碼地址 https://github.com/niansong1996/wassp (現在爲空,待作者更新) 要點:整體弱監

原创 Distilling transformers into simple neural networks with unlabeled transfer data論文解讀

Distilling transformers into simple neural networks with unlabeled transfer data 論文地址:https://arxiv.org/pdf/1910.01

原创 損失函數總結(轉)

原文鏈接:https://www.cnblogs.com/luxiao/p/5783017.html 轉載:https://www.cnblogs.com/luxiao/p/5783017.ht

原创 Leetcode 單鏈表題型總結

Leetcode 單鏈表題型總結 自己刷題的一個小記錄,難度從easy --> hard,持續更新中。若有更好的方法,歡迎評論區討論呀。 876. 返回單鏈表的中間節點。如果有兩個中間節點,返回第二個。 兩種思路, 第一種是先遍歷

原创 Harnessing Deep Neural Networks with Logic Rules論文解讀

作者信息:Zhiting Hu、Xuezhe Ma、Zhengzhong Liu、Eduard Hovy、Eric P.Xing,都來自CMU 問題:深度神經網絡一個很大的問題是不可解釋性,另一個問題是往往需要大量的訓練數據。因此,我

原创 autoware安裝、配置和快速使用

autoware安裝配置 目錄 autoware安裝配置 目錄 依賴的環境 安裝依賴項 open CV QT5 系統依賴項 autoware autoware入門快速使用 建立目錄autoware來保存demo數據

原创 Language to Logical Form with Neural Attention論文解讀

摘要:語義解析的目的是將自然語言映射到機器可解釋的意義表示。傳統的方法依賴於高質量的詞典、手工構建的模板和語言特徵,它們要麼是特定域的,要麼是特定表示的。在本文中,我們提出了一種基於注意力增強的encoder-decoder模型的一般方法

原创 Ubuntu14.04安裝Nvidia顯卡驅動+cuda8.0+cudnn5.1+tensorflow

Ubuntu14.04安裝Nvidia顯卡驅動+cuda8.0+cudnn5.1+tensorflow 初始環境: 系統:ubuntu14.04 LTS 顯卡: 雙顯,Intel+Nvidia gtx1050。Intel用於顯示,之

原创 《Language to logical form with neural attention》被引論文

《language to logical form with neural attention》這篇文章使用了seq2seq模型,引入attention機制,將自然語言翻譯到其邏輯形式。並提出了一種新的seq2tree模型,樹狀結構的效果