原创 從頭到尾理解假設檢驗

假設檢驗背景知識1. 統計分析的一些重要概念統計學目標重要概念:總體與樣本統計分析2. 正態分佈概率密度函數均值和方差標準化(z-score)68%(1σ1\sigma1σ) →\rightarrow→ 95%(2σ2\sigma

原创 Residual Net and its variation

ResidualNetMotivation1. degradation problem2.solutionResidual block1.structure2.formularApplication1. residual bloc

原创 DL中的Bias & Variance

Bias Variance Trade-offPrediction ErrormotivationbiasvariancecomparisonderivationAnalysisloss curvelearning curve1.

原创 【CV經典模型-Detection】YOLO

YOLO1. key word:one pass solves all:2. input:feature:label (each row):3. output:4. model structure:注意點:5. loss func

原创 【Review】Breaking the Softmax Bottleneck:A High-rank RNN Language Model

Content 此篇論文主要完成了: 1.通過數學推導,找到並證明了限制RNN-based LMs的性能瓶頸之一——Softmax Bottleneck問題 2.針對這個瓶頸,提出了一個解決方案—— Mixture of Soft

原创 loss functions for semantic segmentation

motivation 最近在做一個二分類的semantic segmentation項目,內容大致是把每幀中屬於一個特定物體的pixel標註出來。經過統計,數據集中負類的像素數目比正類多200多倍,存在這種數據偏斜的情況下,選擇哪

原创 c++之static總結

1. 修飾變量(函數中 / 成員函數中 / 類數據成員): 生存週期:整個程序的生命週期。 存儲位置:靜態數據區 特點:即使程序中會多次運行它的初始化語句,也只會在第一次執行的時候初始化。 變量在函數中,還是在類成員函數中,或者

原创 【CV經典模型-Detection】YOLO v2

YOLO V2basic idea:Performance(better):Batch NormalizationHigh resolution detectionAnchor box with prior: k-means fo

原创 c++之指針與引用

區別 引用:一個變量或對象的別名。建立引用關係後,操作這個引用與直接操作原變量/對象效果一樣。 因此,引用相比指針來說有更多的限制: 必須初始化(引用一產生便必須與一個變量或對象關聯) 不能爲空(否則失去引用的意義) 不能改變

原创 c++之const總結

定義: 修飾符,代表所修飾的類型的對象/變量不可更改。 作用域: 默認文件局部變量。(普通變量默認爲extern) 使用注意: 定義時必須初始化。 初始化之後不能更改。 指針與const 指針本身爲const指針:* con

原创 c++之小知識點

this指針 類似於python中的self。 作用域在類內部。 在調用非靜態成員函數和非靜態數據成員時,會把對象的地址隱式地傳給它,以便明確被訪問的是哪一個對象的數據。(靜態成員函數和數據成員與具體對象無關,僅與類關聯,因此不

原创 c++之inline總結

1. 如何定義: 用於實現的關鍵字: 在函數定義時省略,在函數實現時用inline修飾。 2. 編譯器如何實現: 把函數體複製到inline函數被調用處。 爲其分配內存空間保存局部變量。 把linline函數的輸入參數和返回

原创 【Review】Transformer:Attention is all you need

TransformerMotivationStructureEncoder blockscaled dot-productmulti-head attentionthe overall Encoder Blockposition-

原创 【CV經典模型-Detection】YOLO v3

YOLO v3Bounding box RegressionObjectness PredictionClassificationPrediction across scales(*)TrainingReference Bound

原创 DL細節-Batch Normalization

Batch Normalization背景介紹:目的&原理兩種類型1. layer nornalization2. batch normalization3. 異同比較使用方法1. during training2. during