原创 pytorch 卷積計算

import torch from torch import nn class CNN(nn.Module): def __init__(self, scale_factor, num_channels=1, d=56, s=

原创 pytorch 卷積結構和numel()函數

from torch import nn class CNN(nn.Module): def __init__(self, num_channels=1, d=56, s=12, m=4): super(CNN

原创 pytorch 遷移學習

# 轉移學習的兩個主要場景: # 1微調Convnet:使用預訓練的網絡(如在imagenet 1000上訓練而來的網絡)來初始化自己的網絡, # 而不是隨機初始化。其他的訓練步驟不變。 # 2將Convnet看成固定的特徵提取器:首先

原创 pytorch 小試牛刀

#PyTorch的核心是兩個主要特徵: # 一個n維張量,類似於numpy,但可以在GPU上運行 # 搭建和訓練神經網絡時的自動微分/求導機制 # 熱身: Numpy # 在介紹PyTorch之前,本章節將首先使用numpy實現網絡。

原创 pytorch 數據加載和處理

# PyTorch提供了許多工具來簡化和希望數據加載,使代碼更具可讀性。 from __future__ import print_function, division import os import torch import pan

原创 pytorch 圖像分類器

'''訓練一個圖像分類器''' # 我們將按次序的做如下幾步: # 使用torchvision加載並且歸一化CIFAR10的訓練和測試數據集 # 定義一個卷積神經網絡 # 定義一個損失函數 # 在訓練樣本數據上訓練網絡 # 在測試樣本數

原创 pytorch 自動微分

pytorch 自動微分: import torch print('創建一個張量,設置 requires_grad=True 來跟蹤與它相關的計算') x = torch.ones(2, 2, requires_grad=True)

原创 pytorch 神經網絡

import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self):

原创 pytorch tensor(張量)

import torch x = torch.empty([5, 3]) #構造一個5x3矩陣,不初始化。 print(x) x = torch.rand(5, 3) #構造一個隨機初始化的矩陣 print(x) x = torch

原创 CNN (tensorflow,mnist)-實例4

本實例是使用tensorflow構建的CNN兩層網絡,用的數據集是mnist數據集。此數據集尾部有分享鏈接,如果代碼中通過tensorflow下載失敗,可以通過此鏈接下載好 # cnn.py文件 import numpy as np i

原创 實例2-手寫簡單神經網絡

  ''' Created on 2019年x月x日 @author: xxx ''' import numpy as np def nonlin(x,deriv=False): if(deriv==True):

原创 type() python

type()類型判斷 msg="判斷類型" if type(msg) is str: msg+=",同種類型才能加" print(msg) #結果:判斷類型,同種類型才能加  

原创 sorted排序-python

sorted排序: #按年齡從小到大排序 p=[{"name":"小明","age":23}, {"name":"小王","age":25}, {"name":"小張","age":21}] print(sorted(p,

原创 min和max的使用 python

  1、max或min函數處理的是可迭代對象,相當於一個for循環取出每個循環進行比較。注意,不同類型之間不能進行比較 2、每個元素間進行比較,是從每個元素的第一個位置依次比較   用min或max找出字典中的最值,並取出其key和val

原创 尾遞歸-python

尾遞歸:指最後一步(不一定是最後一行)調用另一個函數 #函數test01在test02中爲尾調用 def test01(x): print(x) def test02(y): y+=1 print(y)