原创 二叉樹的遍歷 C++

二叉樹的遍歷有前序遍歷(遍歷順序:根->左->右),中序遍歷(遍歷順序:左->根->右),後序遍歷(遍歷順序:左->右->根),可以看出,這裏的“前/中/後”是對根的位置而言的。哦對,還有一種遍歷方法叫做層序遍歷,下面就來C++實現下。(

原创 screen——讓任務在linux後臺運行

常常需要在linux遠程服務器上運行一些任務,這些任務並不是短時間內就可以完成的,一旦關閉終端(terminal)窗口或者斷開鏈接,任務就會被殺死;或者我們想要同時運行多個任務,但又不想開多個終端窗口,怎麼辦? 這時候screen就派上用

原创 Tensorflow 動態RNN源碼 初探

RNN在深度學習中佔據重要地位,我們常常調用tensorflow的包就可以完成RNN的構建與訓練,但通用的RNN並不總是能滿足我們的需求,若要改動,必先知其細。 也許你會說,我自己用for循環寫個rnn的實現不就好了嘛,當然可以啊。但內置

原创 Pycharm配置遠程Python解釋器

Pycharm配置遠程Python解釋器,可以實現,本地編寫代碼,藉助遠程服務器上的資源進行代碼運行,同時本地的代碼和遠程的代碼是可以實時同步的,關鍵步驟有四,記錄如下: (注:這個功能只有Pycharm專業版纔有,學生可以用學校郵箱免費

原创 C++ 對結構體排序 sort函數

很多時候,都會用到排序,在某些情況下,我們需要對結構體進行自定義的排序。 本科的時候覺得大佬們那一行代碼寫的賊漂亮,而我只會 int a[5]; sort(a,a+n); bool cmp(){}; sort(起始位置,終止位置,cmp

原创 RNN 真的會梯度消失麼

學過RNN的想必都聽過下面的言論, “RNN容易產生梯度消失和梯度爆炸”,“RNN不能捕獲長期記憶”,那麼 RNN爲什麼不能捕獲長期記憶?RNN真的就會發生梯度消失和爆炸嗎? 先來個答案,當序列很長的時候,RNN確實不能捕獲長期依賴關係,

原创 基於Deepo快速配置深度學習環境

在開始深度學習之前,需先做好一件小事,那就是配置環境,配環境的煩惱配過的都知道,話不多說,直奔主題…… 在閱讀本文之前需要了解:docker是什麼?docker的常用命令有哪些?(當然,不瞭解也沒有關係,按照本文所述步驟一步步來就可以不明

原创 推薦評論展示(基於預訓練Bert的文本分類)

推薦評論展示指的是從衆多用戶評論中選出一個作爲店鋪的推薦理由,以希望更多的人點開這個店鋪。 這看着像是推薦系統,因爲要把合適的評論推薦給用戶看嘛,比如用戶A對環境要求高,如果推薦理由是“環境好”的話,A就會點進去,而用戶B更加關注好不好喫

原创 Python中 No module named解決方法

有時候運行Python程序,如python bob.py會出現報錯No module named '×××',這是因爲import ×××時發生了錯誤。該如何解決呢?下面分兩種情況分析: (1)如果'×××'是一些python包,比如說n

原创 2020年招商銀行FinTech數據賽道比賽總結

爲期2周的比賽,最後b榜線上AUC0.7765,排名130,不知道第一名是多少,但看羣聊,10名左右的人成績是0.7842,差一個百分點,就與大獎差之千里啊,我還是太菜了=-=。 不過,還是很開心的,以前學了一堆機器學習算法,現在這個比賽

原创 關於“強化學習 策略梯度方法 方差大 的原因與解決方法”問題的思考

目錄 1 閱前需知 2 爲什麼方差大? 3 如何解決方差大問題? 3.1 Add a baseline 3.2 TD 代替 MC (即Actor-Critic方法) 1 閱前需知 策略梯度方法(Policy-Based)方法直接學習參數化

原创 Python 多進程 踩坑記

話不多說,Python多進程要導入包from multiprocessing import Pool 具體使用方法如下 def func(i): print('Run task %s...' % (os.getpid()))

原创 Linux怎麼完全刪除一個用戶

這幾天,服務器總有個程序在跑,霸佔了30+G的顯存,問了問,實驗室的人沒人認領,也跟相關老師確認過,這機器確實是只有我們實驗室的人在用。這就有意思了,看來是有人亂入啊,而且最近有人說中了挖礦木馬,難道這是挖礦木馬嗎?不止14這臺服務器,1

原创 斐波拉契數列前n項和 & 斐波拉契數列第n項

此篇題解不爲別的,純屬紀念,紀念一個已經且也許永遠淡出我生活的人... 記不清是大二還是大三了,只記得在教四304實驗室,你教我如何用矩陣快速冪來求解斐波拉契數列的第n項,然後考我怎麼用類似的方法計算斐波拉契數列的前n項和。那時的我勉勉強

原创 爲什麼預訓練模型那麼好用?

一模一樣的模型架構, 直接用領域數據訓練模型,可能生成效果賊差,語句不通也是常事。 在預訓練的bert上,微調bert權重,生成效果通順又好~ 爲什麼呢? 第一,領域數據太少。 第二,學習難度大。就像人學習,如果擁有通用知識,比如學過高