原创 Domain Adaptation論文合集

[1]A Survey on Transfer Learning:CUHK的楊強教授於2010年發表在IEEE的Transactions on knowledge and data engineering上關於遷移學習的綜述性論文。 在許

原创 [ICLR19] ORDERED NEURONS: INTEGRATING TREE STRUCTURES INTO RECURRENT NEURAL NETWORKS

本篇是ICLR2019的兩篇Best Paper之一。另一篇:THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE, TRAINABLE NEURAL NETWORKS ABSTRACT 自然語言是分

原创 [ICLR19] THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE, TRAINABLE NEURAL NETWORKS

@ https://me.csdn.net/tongjilixue  我覺得指出我譯文一些重要部分出現錯誤,我會理解並更正,這種上來罵人的我是真不懂了,敢問你是看不懂中國字還是看不懂英文?難道我們自願在CSDN上面寫筆記是爲了給你挑語病

原创 [TF進階] Tensorflow編程基礎

實例5:演示session使用 # -*- coding: utf-8 -*- import tensorflow as tf hello = tf.constant('Hello, TensorFlow!') #定義一個常量 ses

原创 Single Headed Attention RNN: Stop Thinking With Your Head

這篇論文的語言真的很有趣,很多地方我翻譯的不是很好大家諒解,可以儘量欣賞原文! Abstract 語言建模的主要方法都是癡迷於我年輕時的電視節目——變形金剛和芝麻街。我們選擇了老辦法和經過驗證的技術,並使用了一個新奇的、受密碼啓發的縮寫:

原创 使用bat批處理文件提交Git

相似工具:使用bat批處理文件快速打開Jupyter Lab 使用bat批處理文件提交Git需要我們操作三個文件,新建pull.bat和push.bat,並修改.gitignore。 1. 首先我們在創建rep時候記得添加.gitigno

原创 使用bat批處理文件快速打開Jupyter Lab

相似工具:使用bat批處理文件提交Git 我們經常不厭其煩打開cmd,cd到我們的文件目錄,然後輸入jupyter lab或者是jupyter notebook,這裏其實可以自己編寫bat批處理文件一鍵打開。 新建.bat文件 cd

原创 Tampermonkeych插件看B站無地區限制,加速arxiv下載論文速度

arxiv 中國的官方鏡像 http://cn.arxiv.org,通過使用 chrome 插件Tampermonkeych將 arxiv 的重定向到鏡像網站鏈接,點擊一篇文章的arxiv鏈接後就可以自動到cn.arxiv.org,速度很

原创 [NIPs19]Face-to-Parameter Translation for Game Character Auto-Creation

摘要: 角色定製系統是角色扮演類遊戲(RPG)的重要組成部分,玩家可以根據自身喜好對他們遊戲中角色的面部外觀進行編輯,而不使用默認模板。本文提出的方法能夠根據輸入的人臉照片自動創建玩家的遊戲角色。基於面部相似性度量和參數搜索範式,並通過解

原创 [ICML19] Rates of Convergence for Sparse Variational Gaussian Process Regression

今年ICML的第二篇最佳論文是來自英國劍橋大學和機器學習平臺Prowler.io的研究。 之前已經有人開發出了一種高斯過程後驗的極好變分近似。避免出現數據集大小爲N,計算時間複雜度爲O(N3)的情況,將計算成本降低到O(NM2),其中M是

原创 [ICML19] Analogies Explained: Towards Understanding Word Embeddings

Abstract 由神經網絡方法生成的詞嵌入,如word2vec (W2V),其表現出看似線性的行爲是衆所周知的,例如,類比的嵌入,女人是皇后,正如男人是國王,大致描述了一個平行四邊形。這個特性特別有趣,因爲嵌入式沒有經過培訓來實現它。已

原创 Domain Separation Networks

本篇是遷移學習專欄介紹的第十九篇論文,發表在NIPS 2016上。Konstantinos Bousmali的工作。近期工作:Unsupervised Pixel–Level Domain Adaptation。 Abstract 大規模

原创 [ICML19]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

個人覺得idea很不錯,中心思想是直接對整體架構進行scale以達到減少參數的目的,也是Quoc V. Le剛發表在ICML19的文章,並且在Imagenet達到了最新的state-of-art級別的work。pytorch版本 Abst

原创 [TF進階] 卷積神經網絡

實例37:卷積函數的使用 # -*- coding: utf-8 -*- import tensorflow as tf # [batch, in_height, in_width, in_channels] [訓練時一個ba

原创 [TF進階] 循環神經網絡

實例55:RNN # -*- coding: utf-8 -*- # 1. 定義基本函數 import copy, numpy as np np.random.seed(0) #隨機數生成器的種子,可以每次得到一樣的值 # compu