原创 mlflow

main.py # -*- encoding: utf-8 -*- import torch from torch import nn import mlflow import mlflow.pytorch x = torch.

原创 pytorch的einsum

# -*- coding: utf-8 -*- import torch # 轉置 a = torch.arange(6).reshape(2, 3) print('a:{}'.format(a)) b = torch.eins

原创 pytorch model.train和 model.eval

在模型訓練和測試(包括evaluate或test)兩個過程中,需要添加相應的代碼,包括 model.trian()和model.eval(),爲什麼一定要添加,兩者有什麼區別? model.train() :啓用 BatchNor

原创 leecode——merge two sorted linked list(21)

做鏈表相關的題的工具類和方法: ListNode是鏈表的一個節點 array_to_list:把一個array轉化爲鏈表 print_list:打印一個鏈表 # -*- coding:utf-8 -*- class ListN

原创 leecode——remove duplicate elements(83)

def deleteDuplicates(head: ListNode) -> ListNode: if not head: return head dummy = ListNode(0)

原创 leecod的tags

可以按照這個tag來做,從easy到hard array,string,tree,linkedlist,math

原创 pytorch pin_memory()

在創建Dataloader的使用pin_memory()函數 pin_memory就是鎖頁內存,創建DataLoader時,設置pin_memory=True,則意味着生成的Tensor數據最開始是屬於內存中的鎖頁內存,這樣將內存

原创 pytorch 使用GPU

# 查看gpu是否可用,在pytorch中cuda指的就是gpu的相關操作 >>> torch.cuda.is_available() True # 獲取cuda設備 >>> device = torch.device('cuda

原创 python pdb調試

# 進入pdb調試 python -m pdb abc.py https://www.cnblogs.com/c-x-a/p/10674288.html

原创 Linux查看系統版本

uname -a只能查看系統內核版本及相關,但是沒有系統版本 uname -a Centos cat /etc/redhat-release:查看etc的redhad的發行版本 cat /etc/redhat-release

原创 tensorflow保存加載模型

文章目錄在訓練過程中保存模型預測或updating模型時,加載模型總結 使用tensorflow版本爲1.12 在訓練過程中保存模型 def save(sess, save_path): """save_path is a f

原创 使用GPU訓練模型遇到的問題

使用GPU訓練模型,遇到顯存不足的情況:開始報chunk xxx size 64000的錯誤。使用tensorflow框架來訓練的。 仔細分析原因有兩個: 數據集padding依據的是整個訓練數據集的max_seq_length

原创 開源軟件的licence

在github經常看到有LICENCE信息,來聲明版權,對於哪些是可以商用的,商用的時候應該注意哪些問題? 1. Apache License 2.0 要點:Apache Licence是對商業應用友好的許可。使用者也可以在需要的

原创 sphinx爲源碼生成文檔

1. 安裝 pip install sphinx 2. 創建項目 3. 初始化文檔 在sphinx_usage目錄下創建兩個目錄doc和src。doc放文檔,src放代碼。 sphinx-quickstart 一步步設置 4.

原创 敏感詞檢測算法review

字符串匹配是一個技術活,敏感詞檢測首先有一個敏感詞詞庫,也就是敏感詞的列表。 第一個想到的方法把敏感詞放到一個set裏,再待檢測的文本分詞,到set裏去匹配; 第二種方法是遍歷set,用正則表達式來過濾。 以上兩種方法,在數據量小