原创 F.cross_entropy-weight比較

import torch import torch.nn.functional as F from torch.autograd import Variable x = Variable(torch.Tensor([[1.0,2.0,

原创 VS-ReID

        參考網址: 1.https://github.com/lxx1991/VS-ReID 2.https://github.com/lmb-freiburg/flownet2 3.http://vision.middlebur

原创 CVPR2019-SPADE

1.encoder import torch.nn as nn import numpy as np import torch.nn.functional as F from models.networks.base_network i

原创 U3D初識

1.相機運動 第一個:跟隨某一個GameObject運動 https://blog.csdn.net/kmyhy/article/details/77850747 第二個:沿着某種曲線運動 a.比如x2+y2=1 b.採樣順序是thi,從

原创 stereo-magnification-tensorflow

1. loader.py flags.DEFINE_integer('min_stride', 3, 'Minimum stride for sequence.') flags.DEFINE_integer('max_stride',

原创 光場成像模型

1.給定一個光場數據,一定是成像於某個深度平面上。 比如HCI中的herbs的光場,對所有的81幅子孔徑圖像進行累加並求均值後,其結果圖像如下所示: 而對於光場中的子孔徑圖像而言,每一幅圖像都是全聚焦圖像。

原创 LFToolbox0.4使用說明

1.LFReadLFP() out=LFReadLFP('Sample_test\Images\F01\Beers.lfp'); Serial:兩個值:分別是傳感器序列號和相機的序列號; metadata(元數據:關於數據的數據)。

原创 light field相關網站、代碼

https://www.mathworks.com/matlabcentral/fileexchange/49683-light-field-toolbox-v0-4 https://dgd.vision/Tools/LFToolbox/

原创 Ubuntu16.04+anaconda+python2.7和3.5切換

1. walden@walden-All-Series:~$ conda update conda Solving environment: done # All requested packages already installe

原创 MATLAB實例1-直方圖均衡化

clc; clear all; img = imread('20171206-213721022-RGB.bmp'); [nHeight, nWidth, nDim] = size(img); r = img(:, :, 1);

原创 Python實例3-獲取某文件夾下指定類型的圖片名,翻轉和旋轉圖片

對一張圖片進行翻轉和旋轉,最終能得到連原圖在內的8張不同的照片 import random import os import os.path as osp from PIL import Image dataset_dir='

原创 Python實例2-獲取某文件夾下指定類型的圖片名,完成圖片格式的轉換並保存

import random import os import os.path as osp from PIL import Image dataset_dir='/home/walden/pytorch/uiuc/data/V

原创 conda命令-安裝opencv

1.添加清華鏡像源(參考網址:https://jingyan.baidu.com/article/1876c8527be1c3890a137645.html) (注:windows下網址不需要單引號括起來,否則會出錯) conda co

原创 Git For Windows

12.8 1.如果要在Windows下使用Git,可以有兩種方式,分別是Cygwin和msysGit。 安裝msysGit,下載網址:https://git-for-windows.github.io/ 2.設置用戶名,郵

原创 pytorch nn.Conv3d

input=torch.randn(20,16,10,50,100)#N,C,D,H,W 1. m = nn.Conv3d(16, 33, 1, stride=1, padding=(3, 2, 1)) output=m(input) o