原创 第二週、圖像預處理transforms

這裏寫目錄標題一、transforms運行機制1.1 計算機視覺工具包torchvision1.2 常用的圖像預處理方法torchvision.transforms1.3 流程圖二、數據標準化transforms.normaliz

原创 第二週、Dataset與Dataloader

這裏寫目錄標題一、數據讀取流程二、數據讀取流程數據提取流程三、DataLoader四、Dataset二級目錄三級目錄 一、數據讀取流程 二、數據讀取流程數據提取流程 讀那些:Sampler輸出的Index 從哪讀:Dataset

原创 第二週、transforms圖像增強(一)

一、數據增強 數據增強又稱爲數據增廣,數據擴增,它是對訓練集進行變換,使訓練集更豐富,從而讓模型更具泛化能力 二、transforms——裁剪 2.1 transforms.CenterCrop transforms.Center

原创 第一週、autograd-自動求導系統

autograd-自動求導系統autograd注意torch.autograd.backward1.1 retain_graph1.2 grad_tensorstorch.autograd.grad三級目錄 autograd注意

原创 第一週、邏輯迴歸

邏輯迴歸原理求解步驟代碼 原理 邏輯迴歸是線性的二分類模型, 分析自變量x與因變量y(概率)之間關係的方法 表達式:y=f(wx+b) f(x) = 1/1+e^(-x) 求解步驟 代碼 import tor

原创 第一週、計算圖與動態圖機制

計算圖與動態圖機制一、計算圖1.1定義1.2表示1.3函數二、計算圖動態機制2.1 動態圖 vs 靜態圖 一、計算圖 1.1定義 用來描述運算的有向無環圖,主要元素:結點和邊 結點:數據,如向量,矩陣,張量。 邊:運算,如加減乘除

原创 第一週、線性迴歸

線性迴歸求解步驟求解步驟代碼 求解步驟 分析一個變量與另外一(多)個變量之間關係的方法 自變量:x 因變量:y 關係:線性 y = wx+b 分析:求解w,b 求解步驟 1、確定模型 model:y=

原创 張量的操作

張量操作一、拼接與切分1.1 torch.cat()1.2 torch.stack()1.3 torch.chunk()1.4 torch.split()二、索引2.1 torch.index_select()2.2 torch.

原创 c-1(99乘法表和最小公約數)

99乘法表 兩層循環 外層控制行數和第二個乘數,內層控制每一行第一個變化的數字 #include "stdio.h" int main() { int i,j; for(i=1;i<=9;i++) { for(j=1;j

原创 JSON

JSON :輕量級的數據交換格式 JSON對象:是直接可以使用JQuery操作的格式,如C#中可以用對象(類名)點出屬性(方法)一樣。 JSON字符串:僅僅只是一個字符串,一個整體,不截取的話沒辦法取出其中存儲的數據,不能直接使用。

原创 面向對象day1

1、類與對象 類:具有相同屬性和技能的一類事物 對象:具體的類的表現,是一個實例 eg:人是一類,泰勒是一個對象 2、類體 變量部分、方法(函數)部分 3、 類名的角度:操作類中的靜態變量 class Person:

原创 python(day8)

1、函數名的應用 函數名是一個特殊的變量,與括號配合可以執行函數的變量 a、函數名的內存地址: def func(): print("哈哈") print(func) 結果:<function func

原创 python(day9)

1、生成器和生成器表達式 本質就是一個迭代器 三種生成辦法: a、生成器函數 注:生成器函數被執行,獲取到的是生成器,而不是函數的執行 def func(): print("jay") y

原创

1、乘法表 # 9*9 a = 1 while a <= 9: i = 1 while i <= a: print("%d*%d=%d\t" % (a,i,a*i),end="")

原创 python(day11)

1、lambda 匿名函數,一行搞定一個函數,不適用於複雜的函數操作 語法:變量 = lambda 參數 :函數體(直接return的內容) def func(n): return n*n print(func(3))