原创 使用Google-Colab訓練PyTorch神經網絡
https://www.cnblogs.com/jiaxin359/p/10234946.html(安裝) https://blog.csdn.net/tan123456987321/article/details/104777049/(
原创 pytorch torch.nn.functional實現插值和上採樣
interpolate torch.nn.functional.interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None)
原创 人體關鍵點檢測之——關節點
https://blog.csdn.net/qq_21033779/article/details/84840307?depth_1-utm_source=distribute.pc_relevant.none-task&utm_sour
原创 Strip Pooling: Rethinking Spatial Pooling for Scene Parsing部分解釋
這個部分是:Strip pooling Module(SPM) SPM可以看做是一個Bottleneck部分,類似於residule class SPBlock(nn.Module): def __init__(self, i
原创 pytorch clamp與clamp_區別
pytorch clamp 與clamp_ ,有下劃線的表示修改並付給自身,無下劃線的表示需要返回處理後的值,比如: h = k.clamp(min=0) #將結果存入h;k保留原值 k.clamp_(min=0) # 將結果存入k
原创 Pytorch中torch.nn.Softmax的dim參數含義
涉及到多維tensor時,對softmax的參數dim總是很迷,下面用一個例子說明 import torch.nn as nn m = nn.Softmax(dim=0) n = nn.Softmax(dim=1) k = nn.So
原创 dilated conv帶孔卷積、pooling層提高感受野 反捲積 的理解
https://blog.csdn.net/jiachen0212/article/details/78548667
原创 pytorch torch.chunk(tensor, chunks, dim)
2. torch.chunk(tensor, chunks, dim) 說明:在給定的維度上講張量進行分塊。 參數: tensor(Tensor) -- 待分塊的輸入張量 chunks(int) -- 分塊的個數 dim(int) --
原创 圖像檢索研究進展:淺層、深層特徵及特徵融合
https://blog.csdn.net/TTdreamloong/article/details/79798817?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommen
原创 Multi-Context Attention for Human Pose Estimation
https://github.com/Naman-ntc/Pytorch-Human-Pose-Estimation/blob/master/models/PoseAttention.py
原创 pytorch nn.AdaptiveAvgPool2d(1)
1、m=nn.AdaptiveAvgPool2d(1) 只需要給定輸出特徵圖的大小就好,其中通道數前後不發生變化。 全局信息採用如下公式: 採用如下的公式: self.avgpool = nn.AdaptiveAvgPool2d(1
原创 Pyramid pooling module(PPM)
參考代碼:https://blog.csdn.net/wd18508423052/article/details/93882113 上採樣問題可以參考:https://blog.csdn.net/zouxiaolv/article/de
原创 向日葵遠程控制linux安裝
https://blog.csdn.net/weixin_38145317/article/details/103122991 向日葵軟件下載(選擇linux版) https://sunlogin.oray.com/personal/do
原创 pdf_to_world
import os from pdfminer.pdfparser import PDFParser,PDFDocument from pdfminer.pdfinterp import PDFResourceManager, PDFP
原创 關於重參數(Reparameterization)
https://spaces.ac.cn/archives/6705(很詳細)