原创 李宏毅深度學習筆記(十三)LSTM(長短期記憶網絡)

1.結構 2.計算 例1: 假設x1x_1x1​,x2x_2x2​,x3x_3x3​均爲輸入,當x2=1x_2=1x2​=1的時候將x1x_1x1​加入記憶單元,當x2=−1x_2=-1x2​=−1時將將記憶單元清空,當x3=1

原创 LeetCode:Z字形變換

問題描述:將一個給定字符串根據給定的行數,以從上往下、從左到右進行 Z 字形排列。(輸入字符串s和行數numRows,按新的順序輸出) 例如輸入字符串爲 “LEETCODEISHIRING” 行數爲 3 時,排列如下: L C

原创 CNN的輸入輸出運算過程及其Pytorch實現

0. 卷積神經網絡的結構 如上圖所示,一個卷積神經網絡由若干卷積層、池化層、全連接層組成。我們可以通過對其中要素的重組來構成不同的卷積神經網絡。構成不同卷積神經網絡的公式爲: INPUT−>[[CONV]∗N−>POOL?]∗M−

原创 遞歸和帶記憶的遞歸(原理和例子)

0. 遞歸和帶記憶的遞歸 當原問題和它的子問題的形式以及解題思路一樣的時候就可以使用遞歸來解決,但是遞歸會發生重複計算的問題,如果遞歸的深度過深的話會使計算時間大大增加,所以引入了帶記憶的遞歸。帶記憶的遞歸會記住已經計算過的遞歸路

原创 numpy和torch.tensor的張量的操作

張量的拼接(numpy.concatenate) np.concatenate((a1,a2,a3,…), axis=0) 張量的拼接要用np.concatenate這個方法的,其中 a1,a2,a3,…是拼接的子張量,axis是

原创 從遞歸到記憶化搜索再到動態規劃(原理+編程實例)

0. 概念 將原問題拆解成若干子問題,同時保存子問題的答案,使得每個子問題只求解一次,最終獲得原問題的答案。 這個概念聽起來跟帶記憶的遞歸(即記憶化搜索)是一樣的,其實本質上就是相同的,如果要分清楚的話可以參考下圖。都是用於解決遞

原创 如何搭建LSTM(pytorch版)

一 、單向LSTM 0.導入包 import torch 1.rnn = torch.nn.LSTM(input_size,hidden_size,num_layers) rnn = torch.nn.LSTM(10, 20,

原创 k近鄰法原理及編程實現

算法描述 給定一個訓練數據集,對新的輸入實例,在訓練數據集中找到與該實例最鄰近的k個實例,這k個實例的多數屬於某個類,就把該輸入實例分爲這個類。 三個基本要素 1.距離度量 兩個實例之間的距離可以用LpL_pLp​範數來定義,其中

原创 Pytorch中使用backward()求導詳解

backward()是Pytorch中用來求梯度的方法,可以分爲三種情況來使用。 1.out.backwark()中out是一個標量 此時可以直接使用out.backwark(): import torch from torch.

原创 回溯算法的原理和實現步驟

1.原理 回溯法是一種選優搜索法,按選優條件向前搜索,以達到目標。但當探索到某一步時,發現原先選擇並不優或達不到目標,就退回一步重新選擇,這種走不通就退回再走的技術爲回溯法。 在包含問題的所有解的解空間樹中,按照深度優先搜索的策略

原创 Python中將一個位置的文件複製到另一個地方

import shutil argetdir_path = 'D:\\Python\\code\\PyQt\\1_study.py' Targetfile_path = 'D:\\Python\\code\\2_study.py'

原创 深度學習中張量的通俗理解及張量的創建

1.深度學習中張量的作用 深度學習中張量主要是爲了便於用數字來描述一個對象,比方說要描述一張彩色圖片,我們可以用(長,寬,顏色)來描述,所以描述一張彩色圖片就需要用到三維張量,如果我們要描述一個彩色圖片的集合那麼就要就需要用(圖片

原创 NVIDIA JETSON TX2 Developer Kit使用

1.開機 插好電源,連上顯示屏、鍵盤、鼠標後長按板子上的開關鍵(S4,旁邊有標識POWER BTN)就可以開機。 開機後屏幕上會打印一大串字符,之後會讓你輸入password,這裏輸入nvidia(有的會讓輸入username,

原创 使用CNN實現C-MAPSS數據集裏面的剩餘壽命預測(Pytorch)

1.背景 在工程領域,瞭解不同的工程系統和組件非常重要,不僅要了解它們當前的性能,還要了解它們的性能如何隨着時間的推移而降低。這擴展到了預測領域,它試圖根據系統或組件的過去和現在的狀態來預測其未來。這個領域中的一個常見問題是估計剩

原创 Pytorch中標量對向量求導和向量對向量求導的詳解

1.標量對向量求導 標量可以直接對向量求導 import torch p = torch.tensor([2.0, 3.0, 5.0], requires_grad=True) q = p*2+1 z = torch.mean(q