原创 python logging模塊簡單使用(包括控制檯輸出、文件寫入)

#簡單控制檯輸出 import logging logging.basicConfig(level = logging.INFO,format = '%(asctime)s - %(name)s - %(levelname)s -

原创 百度Paddle深度學習框架學習

學習心得(個人心得): 學習到目前感覺百度的paddle框架總體來說還是很不錯的,paddle可以使用靜態和動態圖的方式可以很好的適合tensorflow和pytorch的童鞋門入手,並且可以快速部署自己的模型paddle_ser

原创 Pytorch之Bert文本分類(三)

Bert文本分類流程化使用 這章節主要介紹huggingface關於bert的流程化使用,主要針對run_glue.py文件進行講解。 這個文件中包括5個模型的使用,bert,xlnet,xlm,roberta,distilber

原创 Pytorch之Bert中文文本分類(二)

本文主要是針對入門級別的Bert使用,包括英文文本分類和中文文本分類。 這部分主要使用Bert進行情感分析,屬於中文文本分類,同樣使用BertForSequenceClassification 數據集中包括三個情感分類等級[-1,

原创 實體消岐和實體統一

實體消歧 定義: 實體消歧的本質在於一個單詞很可能有多個意思,也就是在不同的上下文中所表達的含義可能不太一樣。 簡單實現 首先我們需要準備一個類似於下面的這種實體庫: id 實體名 實體描述 1001 蘋果 美國一家

原创 Pytorch之Bert文本分類(一)

本文主要是針對入門級別的Bert使用,先讓模型能夠實現文本分類,後續會講解huggingface的Bert流程化的使用,包括英文文本分類和中文文本分類。 英文部分使用 BERT: Pre-training of Deep Bidi

原创 python導入自己的包

當遇到無法導入某個python模塊時,可能會是沒有安裝某個模塊,也有可能是某模塊在加載過程中失敗,也有可能是陷入了循環導入的問題。 ImportError: No mudule named myModule] 當前運行的程序加載的

原创 pytorch矩陣中每行(列)乘上不同元素以及矩陣相乘

torch.mul和*等價(attetion中可以用到) 每行乘上不同元素 >>> a = torch.ones(3,4) >>> a tensor([[1., 1., 1., 1.], [1., 1., 1.,

原创 Python生成多種類別的樣本數據

import matplotlib.pyplt as plt from sklearn.datasets import make_blobs from matplotlib import pyplot data, label =

原创 詞向量模型

one_hot apple=[0,0,0,…,1,0,0,0] oriange=[0,0,1,0,…,0,0,0] 這種方法首先對進行單詞進行詞頻排序,讓後對每個單詞建立一個和詞庫大小的向量,這種犯法無法表達單詞的重要程度,並且每

原创 python中strip()函數的作用

strip()函數的目的是去除字符串中的首位符號 中間位置的符號不管用 In [68]: " Strip fuction ".strip() Out[68]: 'Strip fuction' In [72]: "\tStrip

原创 基於paddle的自定義數據集文本分類

文本分類可以用在NLP的很多領域,比如情感分析,意圖識別,領域識別等等,先總結一波使用paddle進行文本分類的整體流程 NLP任務的整體流程一般如下: 1.數據處理(將數據變成可以放入到模型的格式) 2.模型構建(構建你想使用的

原创 paddle基於ernie的自定義數據集文本分類

ernie是百度開發的一個預訓練模型,模型結構類似bert,沒錯就是ernie成功帶我入paddle ernie1.0在bert的基礎上mask做了改進如圖,後續bert也使用這種方法比如wwm的模型: ernie2.0在ber

原创 BERT八個基本知識

轉載一片朋友對bert的總結: (1)BERT 的MASK方式的優缺點? 答:BERT的mask方式:在選擇mask的15%的詞當中,80%情況下使用mask掉這個詞,10%情況下采用一個任意詞替換,剩餘10%情況下保持原詞彙不變

原创 交叉熵和信息熵

交叉熵: 用於多分類的損失函數,熵越大模型越不確定,熵越小模型越確定,即優化模型目的是最小化交叉熵 公式如下: 例子: 信息熵: 信息熵是消除不確定性所需信息量的度量,也即未知事件可能含有的信息量,信息熵大小與觀測者的觀測粒度