原创 AI知識基礎筆記

在概率論或信息論中,KL散度( Kullback–Leibler divergence),又稱相對熵(relative entropy),是描述兩個概率分佈P和Q差異的一種方法。它是非對稱的,這意味着D(P||Q) ≠ D(Q||P)。特

原创 Pytorch-讀數據 or 模型

val_tf = pretrainedmodels.utils.TransformImage( model, scale=scale, preserve_aspect_ratio=args.preserve_as

原创 目標檢測-Review

目標檢測 = 目標定位 + 目標分類: 利用圖像處理技術、 機器學習等多方向的知識, 從圖像(視頻)中定位感興趣的對象。目標分類負責判斷輸入的圖像中是否包含所需物體(object), 目標定位則負責表示目標物體的位置, 並用外接矩形框定位

原创 Caffe SourceCode Learning-solve()

初始化完Solver類之後,調用基類Solver::Solve()進行迭代 template <typename Dtype> void Solver<Dtype>::Solve(const char* resume_file) {