原创 [行爲檢測] CDC-Convolutional-De-Convolutional Networks for Precise Temporal Action Localization
參考論文 Convolutional-De-Convolutional Networks for Precise Temporal Action Localization in Untrimmed Videos,CVPR 2017 內容介
原创 SSN:Temporal Action Detection with Structured Segment Networks
Temporal Action Detection with Structured Segment Networks 本文只是對原文的簡單翻譯,不對實驗過程分析,如有不準確的地方,歡迎指教~ SSN:結構化分段網絡的時序動作檢測 摘要
原创 機器學習中防止過擬合的處理方法
原文地址:一隻鳥的天空,http://blog.csdn.net/heyongluoyao8/article/details/49429629 防止過擬合的處理方法 過擬合 我們都知道,在進行數據挖掘或者機器學習模型建立的時候,因爲在
原创 不用重新訓練,直接將現有模型轉換爲 MobileNet
作者 | autocyz 來源 | https://zhuanlan.zhihu.com/p/54425450 原文 | http://bbs.cvmart.net/articles/301 從MobileNet中的深度可分卷積(De
原创 矩陣分解筆記(Notes on Matrix Factorization)
本篇文章轉自mingo_敏,作者文章地址:http://blog.csdn.net/shanglianlm/article/details/46755239 本博文主要討論 基本矩陣(Basic MF),非負矩陣(Non-negati
原创 Openpose--學習記錄
一、code 前向代碼 https://github.com/CMU-Perceptual-Computing-Lab/openpose Training code included in the original CVPR 2017 G
原创 不用批歸一化也能訓練萬層ResNet,新型初始化方法Fixup
作者 | Hongyi Zhang等 編輯 | 路、思源 來源 | 機器之心 原文 | https://arxiv.org/pdf/1901.09321v1.pdf 批歸一化(BN)基本是訓練深度網絡的必備品,但這篇研究論文提出了一
原创 Pycharm技巧之:代碼跳轉該如何回退
用Pycharm的都知道,它有個跳轉的功能,可以讓我們在想深入瞭解某個函數/庫的時候,可以快速跳轉到具體的定義去, 方法就是: 按住command, 再用鼠標左擊函數名/庫名; 當我們跳轉過去,看到想要看到具體實現後,問題來了,怎樣跳
原创 使用darknet(windows GPU 版本) yolov3 訓練自己的第一個檢測模型
使用darknet(windows GPU 版本) yolov3 訓練自己的第一個檢測模型(皮卡丘檢測) 蹦蹦蹦蹦蹦成一個根音俠巴扎嘿 關注 0.3 2018.10.09 16:55* 字數 1879 閱讀 2760評論 7喜歡 6讚
原创 【darknet】:【net】層參數解釋
https://blog.csdn.net/jinlong_xu/article/details/76375334 1.Batch_Size(批尺寸) 該參數主要用於批梯度下降算法(Batch Gradient Descent)中,批梯
原创 CNN 論文閱讀
參考網站: 知乎,計算機視覺論文速遞 https://zhuanlan.zhihu.com/c_172507674 1. 《CBAM: Convolutional Block Attention Module》 ECCV 2
原创 Darknet YOLOv3 資源合集
首先目標檢測的入門文檔:知乎-目標檢測 https://zhuanlan.zhihu.com/p/34142321 voc版本數據集製作:voc格式數據集 https://blog.csdn.net/ch_liu23/article/de
原创 YOLOv3:An Incremental Improvement全文翻譯
原標題: YOLOv3: An Incremental Improvement 原作者: Joseph Redmon Ali Farhadi 翻譯者: Amusi YOLO官網:YOLO: Real-Time Object Detec
原创 darknet 所有層功能說明
激活函數: 很多層裏面有 activation 這一項,這是激活函數,我看到的配置文件裏面最常用的就3個: LINEAR:啥都不幹 RELU :值 > 0時保持不變,小於0時置0 LEAKY :值 > 0時保持不變,小於0時值 *
原创 [CVPR2019]:專門爲卷積神經網絡設計的訓練方法:RePr Improved Training of Convolutional Filters
CVPR2019年的一篇文章 RePr: Improved Training of Convolutional Filters 這篇文章初看abstract和introduction,差點以爲是model pruning,看到後面發現是針