熵繁就簡(一)開號緣由

大家好,我是Starz,跟第二欄的小編Jason一樣,是一名普通的計算機系學生。開這個號的原因是爲了記錄些好玩好看的小知識:

目前主要分爲兩大塊:

  1. 《概率圖模型》系列

  2. 機器學習和深度學習的小知識

雖然以上內容會涉及到蠻多數學公式,但我們在闡述過程中會盡量做到生動活潑

鑑於兩人的水平也有限,有寫得不對的地方請大家多多打臉

1 《概率圖模型》系列

1.1 概率圖講的啥

概率圖模型(PGM)位於統計學和計算機科學的交叉點上,主要涉及了概率論、圖算法還有機器學習相關知識。主要應用場景有醫療診斷、圖像理解、語音識別和自然語言處理等[1]

PGM是一個內容相當豐富的框架,很多機器學習算法在這個框架的進行推導下顯得通俗易懂。對比某些模型,在這個框架下的模型有更強的解釋性,使模型更爲可靠

img

對於解釋性強的模型來說,除了會告訴你它的預測之外,它還會告訴你做出這個預測的理由;爲了防止模型瞎猜,更嚴苛的模型還會要求給出推理過程

計算機視覺裏有種任務叫目標識別(其實就是瞅瞅圖裏有啥),在目標識別這個任務中,有些模型勤勤懇懇,有些模型卻整天想着渾水摸魚

根據W. Samek[2]等人的彙報,在識別圖片中是否有馬的任務中,第一個模型(中圖)將注意力都放在了左下角的水印:

img

放大來看是Pferde fotos,pferde 在德語裏是“馬匹”,fotos意思是“照片”

img

由此可見,靠譜的模型是多麼可貴

1.2 內容組織

《概率圖模型》系列主要是參考來自南特大學Philippe LERAY教授《Probabilistic Graphical Models》的授課內容,內容組織如下:

  • Probability Foundation (1) (jason)

  • Probability Foundation (2) (starz)

  • (Bayesian) Inference (jason)

  • (Bayesian) Parameter Learning (starz)

  • (Bayesian) Structure Learning (jason)

更新週期爲每週一更

2 小知識系列

可能涉及的領域:

  1. 本體學習

  2. 知識圖譜

  3. 計算機視覺

  4. 自然語言處理

這部分因爲是目前在學的東西,分享的形式可能是論文筆記以及模型詳解

3 寫在後面

爲了寫一個透徹的小專題,小編往往要參考很多個信源,學習任務也比較繁重,可能更着更着我們就跑路了

但只要還在更新,我們就保證參考資料的透明性,只要是摘抄或翻譯的部分我們都會詳細標明出處;並且儘量做到少提概念,多聊直觀理解

如果對我們的小作坊感興趣的話不妨掃碼關注,謝謝觀看

[1]Probabilistic Graphical Models. Stanford University

[2]http://ce.sharif.edu/courses/97-98/1/ce717-1/resources/root/Lecture27/Tutorial-Interpretable-Machine-Learning-NIPS P106

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章