原创 自制掃描文檔

拍照 材料 拿裁紙刀把書頁裁下來,裝訂好的厚書中間部分無法清晰拍攝,注意不要在桌子上裁,容易把桌子劃到,儘可能找一把夠堅硬的尺子 設備 三角架+相機+手機控制+一張比書本略大的紙作爲背景 條件 充足的照明,可以是自然光或者近距離燈

原创 RK61鍵盤在ubuntu下的映射

新入手了KR61緊湊型鍵盤,發現在Ubuntu18.04下無法使用F1-F12,這對快捷鍵重度用戶來說極爲不方便。而且Fn+Fx甚至不能夠被xev所捕獲 最後通過以下方法解決 # echo 2 > /sys/module/hid_

原创 強化學習導論筆記——第二章 多臂老虎機問題

第二章 老虎機問題 多臂老虎機問題 單臂老虎機在拉下游戲臂後,有一定的概率獲得獎勵。而多臂老虎機需要選擇到底拉哪個遊戲臂,每個臂的中獎概率是不一樣的。 多臂老虎機正好適合用來討論探索與利用的平衡問題。如果每次都採取貪婪算法,選擇獎勵概

原创 強化學習導論筆記——第一章 介紹

第一章 介紹什麼是強化學習強化學習的幾個要素 什麼是強化學習 強化學習的目標是如何將狀態situation與動作action關聯起來,以便取得最大的收益reward,即收益最大化。 監督學習supervised Learning指的是

原创 生成判別對抗網絡

最近的一篇Wasserstein GAN火遍朋友圈,相關的文章也拿來讀一讀,趕個時髦 簡介 文章用博弈論,令生成模型和判別模型的相愛相殺後,得到與訓練數據分佈儘可能接近的生成模型,一個扮演打假者,一個扮演造假者,前者試圖在真貨與假貨

原创 zim修改公式字體大小

查找zim幫助文檔,原來生成公式是靠一個latex模板來實現的,官方給出的說明是編輯equation.tex,但實際並沒有這個模板,但在plugin下,有一個equationeditor.tex 網上查找修改公式的方法,有說用\displ

原创 字符粒度表示用於詞性標註

簡述 概括來講,就是把單詞的字符序列用CNN來提取特徵,與預訓練的word2vec一併,用於提升詞性標註的效果 文章全名:Learning Character-level Representations for Part-of-Sp

原创 利用詞向量計算實體上下位關係

利用詞向量計算實體上下位關係 轉至元數據結尾 轉至元數據起始 概括來講,就是在詞向量中存在king-man=queen-woman的關係,同樣存在上下位關係,如 蝦-對蝦=魚-金魚,以此爲基礎,進行聚類,並

原创 神經網絡多輪對話系統(續)

簡述 文章與神經網絡多輪對話系統一脈相承,文章的主要貢獻在於,將幾種網絡結構的結果集成,取得了好於任一單一網絡的結果。 文章全名:Improved Deep Learning Baselines for Ubuntu Corpus

原创 噪聲對比估計的神經語言模型

噪聲對比估計的神經語言模型 GAN、skip-gram都提到或用到了NCE(Noise Contrastive Estimation),在NLP領域首次應用NCE就是這篇文章了 A fast and simple algori

原创 用於相關性計算的深度語義模型

用於相關性計算的深度語義模型 轉至元數據結尾 轉至元數據起始 簡述 概括來講,就是將有點擊的Q-D對與無點的Q-D對做成對訓練,最大化有點擊對的條件概率P(D|Q),特徵上把詞轉成字母序列的ngram,再

原创 TextRank文檔摘要

TextRank文檔摘要 思想:借用pagerank的思路,把詞和句看成”頂點”,把他們的共現看成”邊”,可以認爲,存在共現關係,即可視爲一種”推薦”,通過迭代,使得到更多推薦的節點取得更高的分值,用以提取關鍵詞、關鍵句子。 pagera

原创 神經網絡多輪對話系統

簡述 簡單來講,就是把上下文分別用RNN生成向量,計算兩個向量變換後的內積對應二分類,判斷一個回答是否是正確回答 論文全名:The Ubuntu Dialogue Corpus: A Large Dataset for Resear

原创 [論文研讀]非對稱統計詞向量(GloVe)

簡述 相對於Skip-gram來講,主要區別在於 1、非對稱的中心詞與上下文向量表示 2、統計信息的利用(體現在偏置上) 3、目標函數 softmax->最小二乘法 文章全名:GloVe: Global Vectors for Wo

原创 利用詞向量計算上下位關係

概括來講,就是在詞向量中存在king-man=queen-woman的關係,同樣存在上下位關係,如 蝦-對蝦=魚-金魚,以此爲基礎,進行聚類,並引入線性變換,使變換後的向量能更好地擬合這類關係。與之前的方法相比,文章的方案具有更好的泛化