原创 Python 二叉樹先序中序後序遍歷 非遞歸
先序遍歷二叉樹非遞歸 類似遞歸的思想,遇到一個節點先打印出來,然後依次訪問左右節點。但是非遞歸藉助棧來實現有所不同,應該先打印當前節點,然後依次入棧右節點和左節點,因爲此時棧的插入順序和彈出順序相反。 節點的結
原创 Pytorch GRU
import torch import torch.nn as nn class GRU(nn.Module): '''GRU + 全連接''' def __init__(self, num_layers=1, in
原创 Python 建立由列表組成的列表
列表是容器序列,裏面存放的是對象的引用,使用下面的方法創建的列表賦值時會有bug。 a = [['_'] * 3] * 3 # 想創建一個二維列表 print(a) # [['_', '_', '_'
原创 Python 賦值與拷貝
變量賦值相當於什麼? Python中的變量賦值就相當於貼標籤。例如創建一個列表a = [1, 2, 3],那麼列表[1, 2, 3]的一個標籤爲a。此時將變量a賦值給變量b,也就相當於列表[1, 2, 3]有了兩個標籤a和b
原创 Python 判斷質數(素數)
質數是指大於1的自然數中,只能被自己和1整除的數 def is_prime(num): if num < 2: # 質數的定義是要大於1的自然數 return False i = 2 wh
原创 Python Numpy數組使用列表索引
用一個例子理解一下 # -*- encoding=utf-8 -*- ''' author : James-J time : 2019/05/29 ''' import numpy as np if __n
原创 Python返回列表中出現次數最多的值
def majorityCnt(classList): '''返回標籤列表中最多的標籤''' count_dict = {} for label in classList: if label no
原创 Python 生成one_hot標籤和恢復
首先生成一個主對角全爲1的其餘全爲0的矩陣,比如有n個分類就是n * n,效果如下: 隨後根據標籤列表(或者numpy數組)選取合適的行,比如標籤是[9, 1, 0, 0], 那麼就會選擇上圖矩陣中對應的9、1、0、0行
原创 C++中傳值傳指針傳引用的區別
當調用函數時,傳遞的參數有傳值、傳指針、傳引用這三種形式。 直接傳值是直接開闢了一個跟主函數實參一樣的空間(地址不一樣),裏面存放了了跟實參一樣大小的值,就相當於數值大小相同但是位置不同。你在這個調用函數裏使用這個一樣大小的值,完全不影響
原创 Python pip命令快速安裝包
pip install 安裝包名稱 -i https://pypi.tuna.tsinghua.edu.cn/simple 例如: pip install tensorflow-gpu -i https://pypi.tuna.ts
原创 win10安裝tensorflow gpu版本
一、安裝cuda 查看電腦支持的cuda版本 安裝cuda(相當於運算平臺)才能使得GPU用於我們所需的複雜的計算 首先打開控制面板,然後搜索“nvidia 控制面板”,打開 來到這個界面,點擊幫助中的系統信息 點擊組件後直接查看cu
原创 os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = "0"
os.environ[“CUDA_DEVICE_ORDER”] = “PCI_BUS_ID” # 按照PCI_BUS_ID順序從0開始排列GPU設備 os.environ[“CUDA_VISIBLE_DEVICES”] = “0” #設
原创 Tensorflow入門:一個比較完整的MNIST數據集訓練代碼
一個較爲完整的mnist數據集訓練模型 全連接模型 精確度接近98% 使用指數衰減學習率、滑動平均、正則化、模型保存與讀取 過程中需要聯網下載mnist數據集 tensorf
原创 簡單理解LSTM
文章對LSTM入門的基礎知識進行講解,希望有助於您的理解。 LSTM(長短時記憶網絡)的理解要從簡單的RNN(循環神經網絡)說起。 RNN理解 學習LSTM我們經常會先看到RNN的例子,因爲LS
原创 Python中傳參數args=(3,) 爲什麼要加上逗號
python中傳參數的是時候如果直接傳args = (3),那麼解釋器會覺得你是傳了一個數字而不是元組。只有args = (3,)這樣傳纔會默認爲傳進一個元組。這是格式要求。 例子如下 在pyc