原创 Python基礎函數整理

本人也是Python的初學者,只是最近發現查了很多函數但一時都記不住,又要重新百度很麻煩。就想寫下來,方便之後再學習。 1. Split()函數: Python的split()函數通過指定的分隔符對字符串進行分割。split()函

原创 Python中關於decode、encode以及編碼方式

一、先說說編解碼問題 編碼轉換時,通常需要以unicode作爲中間編碼,即先將其他編碼的字符串解碼(decode)成unicode,再從unicode編碼(encode)成另一種編碼。 str1.decode(‘gb2312’)

原创 二分類和多分類問題下的評價指標詳析(Precision, Recall, F1,Micro,Macro)

多分類問題下的評價指標分析(Precision, Recall, F1)二分類下的評價指標Accuracy幾個常用的術語PrecisionRecallF1-score多分類問題下的評價指標多分類問題下的micro-F1(微平均)和

原创 variable_scope and get_variable

variable_scope and get_variabletensorflow計算圖get_variable()函數(一)當我定義節點tensor的時候是用tf.Variable()來定義的。(二)利用tf.get_varia

原创 Transformer模型中重點結構詳解

Transformer模型中各結構的理解 最近學習Transformer模型的時候,並且好好讀了一下Google的《Attention is all you need》論文。論文地址如下: Attention is All you

原创 對FP-Growth算法構建原理、條件模式基的理解

在學習關聯規則挖掘的時候,查閱了一些相關的資料。大多數博客都比較相似,介紹每一步的算法流程。我也就是把我自己學習算法過程中的一些問題和對問題的理解記錄一下,希望可以加深大家對該算法的理解。 本篇可能不會詳細講解FP樹的構建過程或是

原创 爬取Ajax動態加載和翻頁時url不變的網頁+網站案例

最近在爬取一個網頁的時候,遇到了需要對對多頁表格的爬取,但是在對錶格進行翻頁的時候,url的地址並不會改變,而且網頁的源代碼中只有當前加載頁出現的表格內容,並沒有其餘頁所對應的<a href = ''>的內容,所以一開始糾結了很久

原创 《Attention is all you need》源碼解析+算法詳解

Attention is all you need 源碼解析 最近學習Transformer模型的時候,並且好好讀了一下Google的《Attention is all you need》論文。論文地址如下: Attention

原创 Python網絡爬蟲封鎖限制的幾種方法

在爬蟲時,我們不可避免的會遇到網頁的反爬封鎖,所以就有了爬蟲的攻防,在攻和守之間兩股力量不斷的抗衡。接下來就講講我在爬蟲時遇到的一些問題,以及解決的方法。 第一種:封鎖user-agent破解 user-agent時瀏覽器的身份標

原创 Python爬取網頁時的#號是爲了區分什麼

‘#’在html中代表的是錨點,用來進行頁面內或頁面間之間的跳轉,是網頁製作中超級鏈接的一種,又稱爲命名錨點。命名錨記像一個迅速定位器一樣是一種頁面內的超級鏈接,運用相當普遍。 1.在頁面內設置錨點可以方便頁面不同部分之間的跳轉。

原创 如何用Selenium+Chrome模擬登陸並獲取Cookie值

我們在Python做網絡爬蟲的時候,對於一些頁面信息的爬取,很多信息網頁會提示說需要登陸才能查看更多信息,這個時候我們就逃不開需要模擬登陸了,這裏我們就可以利用上自動化測試神奇Selenium來模擬我們的鼠標、鍵盤進行登陸。這裏我

原创 用Python爬取京東商品評論(1)

Python網絡爬蟲所需要的模塊 本次爬蟲程序需要的模塊有: requests、BeautifulSoup、chardet、re、json、csv 以下先來分別介紹這幾個模塊的用處 1.request模塊 利用requests

原创 BeautifulSoup中一些函數的用法歸納

BeautifulSoup作爲一個強大的從HTML或則XML文件中提取數據的Python庫,它能通過解析文檔爲用戶提供需要抓取的數據。同時,它可以很好的處理不規範標記並生成剖析樹(parse tree)並提供簡單又常用的導航(na

原创 用Python爬取京東商品評論(2)

利用Python爬取京東評論 首先打開京東的頁面,輸入你想要查找的某項商品的名稱,這裏用貝因美的某一款奶粉舉例 下拉點開商品評論,可以看到本商品的對應評論。現在我們的目的就是利用爬蟲來獲取這些評論。接下來詳細講一下爬取得過程。 1

原创 Transformer模型中Encoder和Decoder各結構的理解

Transformer模型中各結構的理解 最近學習Transformer模型的時候,並且好好讀了一下Google的《Attention is all you need》論文。論文地址如下: Attention is All you