原创 聚類--譜聚類

前言:關於譜聚類,已經有很多厲害的老師和大牛寫過教程博客等,也有很不錯的tutorial文章可供參考。此博文僅記述個人的一些總結、思考、疑問,算是對現有譜聚類學習資源的一個小補充。 1. 譜聚類簡述 說到聚類,可能最先想到的就是經

原创 python打開|顯示|保存圖片

1. 圖片的打開與顯示 PIL: jpg->RGB, png->RGBA; CV2: BGR; Note that PIL and CV2 may have minor value differences from PIL im

原创 python報錯調試

1. python獲取上級目錄的三種方式 os.path.abspath(os.path.join(projPath,'..')) os.path.dirname(os.getcwd()) os.path.split(projP

原创 Pytorch權值初始化及參數分組

1. 模型參數初始化 # ————————————————— 利用model.apply(weights_init)實現初始化 def weights_init(m): classname = m.__class__.__

原创 Pytorch訓練out of memory

兩類內存報錯: RuntimeError: cuda runtime error (2) : out of memory ... RuntimeError: CUDA out of memory. Tried to alloca

原创 日誌輸出及文檔保存--logger

1. 將日誌信息打印到屏幕 import logging logger = logging.getLogger() logger.setLevel(logging.INFO) logging.info('use cpu') l

原创 Rethinking分類&迴歸損失

前言 一般說到多分類問題,我們很自然地會採用softmax交叉熵損失,而談到迴歸問題,我們可能會選擇MSE這樣的損失。但有一天,我們也許想知道二者之間是否真的就涇渭分明,能否把交叉熵損失用於迴歸任務,或者把MSE損失用於分類任務呢

原创 Pytorch參數更新實驗

概述 構建一個toy net,測試不參與運算的變量是否會更新&如何更新,加深對pytorch框架參數更新邏輯的理解。 起因 實現隨機深度策略時,在block內部進行requires_grad=True/False操作會報錯 (後面

原创 Pytorch小知識點

x = torch.tensor([1,2,3]), y=torch.tensor([4,5,6]).cuda(0) (1)tensor to numpy: x.numpy() or y.cpu().numpy (2)nump

原创 pip install報錯Retry...SSLError...

1. pip install 常規安裝:pip install hyperlpr 指定鏡像:pip install hyperlpr -i https://pypi.tuna.tsinghua.edu.cn/simple/ 指定

原创 Pytorch模型訓練恢復之load_state_dict

官方教程:https://pytorch.org/tutorials/beginner/saving_loading_models.html# 新版pytorch中load_state_dict()不支持map_location參

原创 python - 變量作用域tinytest

測試代碼 a = 1 def add(x): print(x) x += 1 print(x) return x def main(): # 若不存在下面兩行語句 if 1 == 2:

原创 python--datetime轉時區

from datetime import datetime, timedelta import pytz # way 1 t = datetime.now() # t: datetime.datetime(2020, 5, 20

原创 降維--主成分分析(PCA)

1 引言 主成分分析(Principal Component Analysis, PCA)是一種經典又常用的數據降維算法(注意這裏的降維是指特徵提取 ,有時也稱子空間學習,還有一支叫特徵選擇,有興趣可參這篇博客),它的主要思想是尋

原创 人臉仿射對齊

1. 相關代碼 import cv2 import numpy as np from skimage import transform as trans img_size = 112 # Below is for 112*11