原创 VMware中Ubuntu系統網絡無法連接

VMware中Ubuntu系統網絡無法連接 一般在VMware虛擬機設置中安裝的ubuntu系統採用兩種鏈接網絡的模式: 橋接模式,ubuntu單獨想有一個物理ip,也就是說外部主機和Ubuntu分別擁有自己的IP; NA

原创 Pointnet語義分割任務S3DIS數據集上的注意點

前言 Pointnet的網絡結構和源碼解釋,已在之前寫了次總結,本次主要針對論文中的數據集以.h5爲TensorFlow的輸入格式進行解釋,記錄如何製作H5文件,以提供給TensorFlow,PyTorch框架中進行訓練。 首先,

原创 NLP模型小結

NLP 領域發展的三個主要階段 1.Word Embedding • Word2Vec • GloVe 2.使用RNN及改進 • LSTM/GRU • Seq2Seq • Attention/Self-Attention 3.語

原创 GNN圖神經網絡詳述-02

本文作爲第2部分,主要根據原始論文介紹幾篇基礎的工作,主要包括GNN,GCN及變體,DCNN,Tree-LSTM,包括模型的詳解和模型訓練,以及模型評價。 1. The Graph Neural Network Model 論文

原创 PyTorch自動計算梯度

在PyTorch中,torch.Tensor類是存儲和變換數據的重要工具,相比於Numpy,Tensor提供GPU計算和自動求梯度等更多功能,在深度學習中,我們經常需要對函數求梯度(gradient)。PyTorch提供的auto

原创 PyTorch中的clone(),detach()及相關擴展

clone() 與 detach() 對比 Torch 爲了提高速度,向量或是矩陣的賦值是指向同一內存的,這不同於 Matlab。如果需要保存舊的tensor即需要開闢新的存儲地址而不是引用,可以用 clone() 進行深拷貝,

原创 PyTorch模塊方法速查整理

Notes: PyTorch 常用的 modules 和 functions 快速查詢 1. Tensor Operations [Docs] torch ├── (Tensor) │ ├── view(*shape)

原创 C++標準容器

C++ 裏的容器很多,但可以按照不同的標準進行分類,常見的一種分類是依據元素的訪問方式,分成順序容器、有序容器和無序容器三大類別。 1. 容器的基本特徵 容器就是對數據結構的抽象和封裝,即能夠“容納”“存放”元素的一些數據結構。

原创 深度可分離卷積 Depthwise Seperable Convolution

0.前言 在原始圖像卷積網絡的基礎上,經過不斷的改進和優化,出現瞭如分組卷積(Group convolution)、空洞卷積(Dilated / Atrous Convolution convolution),深度可分離卷積(De

原创 Pointnet網絡結構與代碼解讀

前言 Pointnet開創性地將深度學習直接用於三維點雲任務。由於點雲數據的無序性,無法直接對原始點雲使用卷積等操作。Pointnet提出對稱函數來解決點的無序性問題,設計了能夠進行分類和分割任務的網絡結構,本文結合源碼與個人的理

原创 PyTorch中的拷貝和就地操作總結

PyTroch中我們經常使用到Numpy進行數據的處理,然後再轉爲Tensor,但是關係到數據的更改時我們要注意方法是否是共享地址,這關係到整個網絡的更新。本篇就In-palce操作,拷貝操作中的注意點進行總結。 In-place

原创 PyTorch1.4.0-torchvision參考(一)

torchvision參考 簡介 對於使用pytorch進行CV深度學習而言,torchvision工具包確實很香,可以很方便的進行模型搭建或遷移學習的工作,還支持對視頻的操作。Pytorch官方文檔做了相當多的工作,對於這一部分

原创 詞嵌入方法

引言 對於自然語言處理任務,我們不能直接使用純文本字符串作爲輸出,而是需要將文本字符轉化爲連續值的向量。 詞嵌入的主要思想是將文本轉換爲較低維度空間的矢量表示。對於這種轉化後的向量有兩個重要的要求: 較低維度空間:儘量降低編碼詞

原创 python使用seaborn和matplotlib繪圖介紹

最近有些朋友做畢設時尋求繪圖幫助,但又說不清楚自己的要求,寫個博客簡單介紹一下python中做分析圖表常用的seaborn與matplotlib這兩個功能強大庫,如果你還沒學會強大的matlab製作數據圖,恰巧又想學或者懂些pyt

原创 GNN的部分理論補充-03

本篇是GNN的部分理論補充 1. 不動點定理 不動點:函數的不動點或定點指的是被這個函數映射到其自身的一個點,即ξ=f(ξ)\xi=f(\xi)ξ=f(ξ)。 壓縮映射:設fff在區間[a,b][a,b][a,b]上定義,f([a