原创 GitHub上論文、資料、相關開源代碼、數據集、標註工具、應用等集錦

應用領域: 自動駕駛場景中的視頻跟蹤分割簡單應用:帶字幕表情包生成Adobe MAX 2018 FastMask 項目,b 站的智能防擋彈幕。   一、分享每天的arXiv文章,主要集中在目標檢測,單目標跟蹤,多目標跟蹤,人體行爲識別,人

原创 R_50_FPN的module和各層維度

(backbone): Sequential(     (body): ResNet(       (stem): StemWithFixedBatchNorm(         (conv1): Conv2d(3, 64, kernel

原创 記錄分割:分割精度和實時性取得平衡的FEELVOS和SiamMask。

       這種視頻裏目標的像素級標註,很有用,比如給視頻疊加特效可以不覆蓋目標人物,或者視頻編輯中扣掉特定目標。比如讓某能讓人談坐牢戀愛的某吳姓大叔從節目中消失就輕鬆多了。心疼扣了三天三夜的工作人員。 Fast Online Obje

原创 姿態估計記錄

目錄 一、常用數據集 二、主流方法 tricks 三、Single Person Pose estimation 四、Multi-Person Pose estimation 一、常用數據集 Pose Estimation/keypoin

原创 同步更新Github上Fork的項目

https://www.jianshu.com/p/8ab6ef7ce5e3

原创 MSCOCO 數據集,關於姿態估計,每一年數據情況的記錄

此數據集要求在具有挑戰性、不受控制的條件下定位人員關鍵點。 train:        trainval dataset(57k圖像和15萬個人實例)。 validated:  minival dataset (5000 圖像)。 tes

原创 輕量級CNN網絡設計——MobileNet,ShuffleNet,文末有思考

本系列前面介紹了非常多卷積網絡結構設計,事實上,在inception和resnet網絡提出並相對完善以後,網絡結構的設計就不再爆發式出現了,這兩大類網路涵蓋了大部分應用的卷積網絡結構。 在本文中,我們來一起看一些最近一年研究較多的輕量級卷

原创 version `ZLIB_1.2.3.4' not found 解決方法,更改libz.so.1鏈接後不能重啓

version `ZLIB_1.2.3.4' not found 解決方法 出現的錯誤 ImportError: /lib/x86_64-linux-gnu/libz.so.1: version `ZLIB_1.2.9' not foun

原创 Mask RCNN 學習筆記+網絡+ROI Align+ResNet

https://blog.csdn.net/jningwei/article/details/80429768 Mask RCNN 學習筆記,網絡之類https://www.cnblogs.com/wangyong/p/9305347.h

原创 【論文學習】Recurrent Human Pose Estimation

Recurrent Human Pose Estimation  (建立了更簡單的體系結構) 主要關注點是: 1.使用遞歸模塊,本質上增加了有效的接收場(感受野),而不引入額外的參數。 2.增大感受野與關節點精確度的關係。 Abstrac

原创 打分標準——mask和keypoint

box打分常用IoU等 1.  大多數把分類的置信度被當作mask的質量衡量指標 2.  Mask Scoring R-CNN: 3.  keypoints又有不同 https://www.jianshu.com/p/ad4baa95f9

原创 優化算法記錄

參考: https://blog.csdn.net/wishchin/article/details/80567558 https://zhuanlan.zhihu.com/p/32262540 1.改進Adam的方法:前期用Adam

原创 maskrcnn_benchmark理解記錄——modeling\roi_heads\keypoint_head\inference.py

import torch from torch import nn class KeypointPostProcessor(nn.Module): def __init__(self, keypointer=None):

原创 maskrcnn_benchmark理解記錄——modeling\roi_heads\keypoint_head\roi_keypoint_feature_extractors.py

 這裏是keypoints Head特徵提取部分。p2~p5 做keypoint head的特徵提取部分,並構建了後面的層。 也就是ROIAlign→14*14*256→14*14*512→*8→14*14*512這部分 先對不同P2~P

原创 maskrcnn_benchmark理解記錄——modeling\roi_heads\keypoint_head\loss.py

這裏是keypoint的label的處理和損失計算 1.Matcher 返回matches (Tensor[int64]): 其中N[i]在gt中[0,M-1]中有匹配返回N張量,,或者預測i不能匹配,返回負值。可以根據是張量還是負