原创 pytorch:fine-tune 預訓練模型

  如何 fine-tune 以 resnet18 爲例: from torchvision import models from torch import nn from torch import optim resnet_mode

原创 論文閱讀筆記——Attention UNet

 參考:https://blog.csdn.net/rosefun96/article/details/88868527  Attention coefficients(取值0~1)與feature map相乘,會讓不相關的區域的值變小

原创 動態規劃筆記——最長公共子序列&&最長公共字串&&機器人走方格&&爬樓梯

最長公共子序列 Ax= a1,a2,……ax, By= b1,b2,……by, LCS(m,n)表示它們的最長公共子序列長度。L(x, y)表示Ax和By的一個最長公共子序列。 令x表示子序列考慮最後一項 (1) t = Ax = By

原创 n皇后問題與八皇后

這裏的n皇后問題指在一個nxn的棋盤上放置n個棋子,使得每行每列和每條對角線上都只有一個棋子,求其擺放的方法數。 當且僅當n = 1 或 n ≥ 4 時問題有解。 class Queens { public: int sum=0

原创 計算機中圖像存儲

電腦中的圖像是如何儲存: 圖片是通過像素拼接而成的,我們常說的分辨率指的就是圖像像素的數量,比如分辨率爲1024*768的一張圖片就是在長度上的像素點數爲1024個,高度768個。 每個像素點在計算機中存儲的信息是他的RGB數值,將這些R

原创 機器學習——概念整理(更新中)

1.極大似然估計:極大似然估計思想的最簡單解釋 2.Knn算法 :機器學習系列之——Knn算法 kd樹詳解 3.Precision、Recall、AP、MAP、IOU:性能指標(模型評估)                         

原创 Pytorch——謎之bug彙總

運行別人的代碼的時候報錯:RuntimeError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 11.90 GiB total capacity; 11.15 GiB

原创 深度學習知識點整理(更新中)

1. 反向傳播會用到前向傳播時計算的值,以及cost的公式;但不會用到cost值,cost值只是用來評估當前網絡是否收斂。 2.如何實現從全鏈接層(n)映射到softmax層(k)? 需要在最後將 3D 輸出展平爲 1D,然後在上面添加幾