原创 最近被曠視的YOLOX刷屏了!

目錄論文主要信息文章概要背景YOLOX-DarkNet53實現細節YOLOv3 baselineDecoupled head實驗思路storyStrong data augmentationAnchor-freemulti positive

原创 李宏毅機器學習課程筆記-15.2無監督學習之主成分分析

目錄主成分分析(1)PCA for 1-DPCA for n-D拉格朗日乘子法計算$w^1$計算$w^2$decorrelation主成分分析(2)Reconstruction ComponentNN for PCAPCA的缺點What h

原创 李宏毅機器學習課程筆記-15.1無監督學習簡介

目錄聚類K-meansHAC降維引入降維降維作用原理如何實現降維生成 無監督學習(Unsupervised Learning)可以分爲兩類: 化繁爲簡 聚類(Clustering) 降維(Dimension Reduction) 無

原创 Boundary Aware PoolNet:基於PoolNet和BASNet的顯著性目標檢測

Boundary-Aware-PoolNet Boundary Aware PoolNet = PoolNet + BASNet : Deeply supervised PoolNet using the hybrid loss in BA

原创 Boundary Aware PoolNet(2):BASNet模型與代碼介紹

Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改進PoolNet。 爲理解Boundary Aware PoolNet,

原创 Boundary Aware PoolNet(1):PoolNet模型與代碼介紹

Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改進PoolNet。 爲理解Boundary Aware PoolNet還

原创 Boundary Aware PoolNet(3):Boundary Aware PoolNet模型與代碼介紹

Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改進PoolNet。 前面兩篇文章分別介紹了PoolNet的模型及其代碼、

原创 李宏毅機器學習課程筆記-14.4 Seq2Seq:Transformer

目錄Self-AttentionSelf-Attention如何並行化計算Multi-head Self-attentionPositional EncodingSeq2Seq with AttentionTransformer trans

原创 李宏毅機器學習課程筆記-14.3 Seq2Seq:Tips for Generation

目錄Bad AttentionMismatch between Train and TestBeam SearchObject Level V.S. Component LevelReinforcement Learning 在訓練一個

原创 李宏毅機器學習課程筆記-14.2 Seq2Seq:Attention

目錄Machine TranslationSpeech RecognitionImage CaptionMemory NetworkNeural Turing MachinePointer NetworkRecursive Network

原创 李宏毅機器學習課程筆記-14.1 Seq2Seq:Conditional Generation

目錄基於RNN的GenerationConditional Generation 基於RNN的Generation 可以用RNN生成一個word、sentence、圖片等等。 一個word有多個character組成,因此RNN每次生成一個

原创 李宏毅機器學習課程筆記-13.6模型壓縮代碼實戰

目錄任務描述1.Architecture Design2.Knowledge Distillation3.Network Pruning4.Weight Quantization數據集描述代碼 本文爲作者學習李宏毅機器學習課程時參照樣例完成

原创 李宏毅機器學習課程筆記-13.5模型壓縮之動態計算

動態計算(Dynamic Computation)就是資源充足時就做到最好,資源不足時就減少運算量、先求有再求好(但也不要太差)。 一種方法是訓練多個從小到大的model,然後選擇合適的模型,這樣的問題是需要存儲很多個model。 另外一種

原创 李宏毅機器學習課程筆記-13.4模型壓縮之架構設計

目錄Low Rank ApproximationDepthwise & Pointwise ConvolutionGroup Convolution不同卷積的PyTorch實現Application 調整Network的架構設計(Archi

原创 李宏毅機器學習課程筆記-13.3模型壓縮之參數量化

參數量化就是Parameter Quantization。 用更少的bit表示一個value 比如說本來用32位表示一個weight,現在用16位表示一個weight,這樣就縮小了一半。 Weight Clustering 根據we