原创 Data Distillation: Towards Omni-Supervised Learning

Data Distillation: Towards Omni-Supervised Learning

原创 機器學習新手工程師常犯的6大錯誤

機器學習新手工程師常犯的6大錯誤 http://www.ckcest.cn/default/news/newsdetail?id=b938d29eb3a511e7b3d800163e05c5ae&cate=2

原创 Swapout: Learning an ensemble of deep architectures

Swapout: Learning an ensemble of deep architectures   生成 dropout 和隨機深度(stochastic depth)方法來防止特定層或所有層中單元的共適應。集成訓練方法從多個

原创 監督學習中需要注意的問題

監督學習中需要注意的問題 1、偏置和方差權衡   第一個問題就是偏見和方差之間的權衡。   較低的學習算法偏差必須“靈活”,這樣就可以很好的匹配數據。但如果學習算法過於靈活,它將匹配每個不同的訓練數據集,因此有很高的方差。許多監督學習

原创 AI系統構建流程1

AI系統構建流程1   要構建一個AI系統或產品,你要處理好5個核心環節,我們通常稱之爲“機器學習工作流”。   這些步驟分別是: 數據收集與分析 數據準備 模型構建 模型驗證與測試 模型部署 1.分析你的數據,提前回答一些策略性

原创 谷歌機器學習實踐的四十三條法則

谷歌機器學習實踐的四十三條法則 ML在實際工作確實更多是工程問題,而不是算法問題。優先從工程效率中要效果,當把這部分榨乾後,再考慮算法的升級。 https://blog.csdn.net/np4rHI455vg29y2/article

原创 模型在類似Cross-Validation上測試效果不錯, 但在開發測試上效果不佳?

模型在類似Cross-Validation上測試效果不錯, 但在開發測試上效果不佳? 選取的訓練數據的覆蓋度不夠, 即數據集不具有代表性(不過完備), 不能體現真實數據的分佈。 模型遷移 (model drift), 隨着時間的轉移

原创 Log-DenseNet: How to Sparsify a DenseNet

Log-DenseNet: How to Sparsify a DenseNet 原始的densenet 改進後的densenet,即log-densenet

原创 輸入的尺寸很重要

輸入的尺寸很重要   ImageNet通常將224x224x3作爲輸入尺寸,即具有3個顏色通道的224×224像素圖像。雖然12GB內存對於ImageNet上具有112x112x3維度的類似數據集的最先進的結果至關重要,但我們可能會獲

原创 特徵金字塔網絡 (FPN)

特徵金字塔網絡 (FPN)   特徵金字塔網絡 (FPN) 發表在 2017 年的 CVPR 上。   FPN 是基於一個特徵提取網絡的,即是基於一個主幹模型的,它可以是常見的 ResNet 或者 DenseNet 之類的網絡(常見的

原创 解決“保存csdn的網頁再次打開會自動跳轉到首頁”

右鍵用文本編輯器打開離線保存的網頁,搜索關鍵詞onerror,找到下面這段: <img src="" onerror='setTimeout(function(){if(!/(csdn.net|iteye.com|baiduconte

原创 資訊--2018年11月

2018年11月   1)AI的寒冬將至。   深度學習技術沒有突破進展;深度學習無法擴大規模;自動駕駛瀕臨崩潰。結合這些事實,Piekniewski得出了這樣的一個結論:   更多的媒體已經開始注意到,我們已經處於一個巨大的人工智能

原创 AI系統構建流程2

AI系統構建流程2   首先,我們要弄清楚解決的是什麼問題,然後針對這個問題去進行技術的預研究,預研的過程有可能需要反覆修改問題。這兩步都確定下來之後要開始收集數據、訓練模型,去做相應的功能開發,最後進行產品化,產品化之後還要上線迭代

原创 Spiking Deep Residual Network

Spiking Deep Residual Network   近些年,SNN由於它的生物可塑性吸引了大衆注意力。理論上,SNN具有與ANN一樣的計算能力,而且在功耗方面要比ANN更加節能。但是,在目前看來,訓練一個很深的SNN依舊存