原创 論文翻譯——基於數據的最優直方圖

On Optimal and Data-Based Histograms Author(s) : David W. Scott Source : Biometrika, Vol. 66, No. 3 (Dec., 1979), p

原创 綜述論文:深度學習在心臟圖像分割的應用

作者: Chen Chen [1], Chen Qin [1], Huaqi Qiu [1],∗, Giacomo Tarroni [1,2], Jinming Duan [3],Wenjia Bai [4,5], and Dan

原创 論文翻譯——使用深度卷積網絡處理ImageNet分類

ImageNet Classification with Deep Convolutional Neural Networks Authors : Alex Krizhevsky, Ilya Sutskever, Geoffr

原创 正規化和模型選擇(Regularization and model selection)

對於某個學習問題,我們如何在幾種不同的模型中進 行選擇。例如,如果我們使用一個多項式迴歸模型hθ(x)=g(θ0+θ1x+θ2x2+…+θkxk)h_\theta(x) = g(\theta_0 + \theta_1x + \th

原创 資料翻譯——核密度估計簡介

An introduction to kernel density estimation These notes are an edited version of a seminar given by Tarn Duong on

原创 論文翻譯——用於大型社交網絡的推薦系統:主要挑戰及解決方案回顧

Recommender Systems for Large-Scale Social Networks: A review of challenges and solutions Punished in: ELSEVIER, Vo

原创 感知器和大間隔分類器(The perceptron and large margin classifiers)

在學習理論的最後一節我們會介紹一個與之前不同的機器學習模型。在前面的內容裏我們討論了太多批量學習的情形,即先在給定訓練集上學習,將學習後的假設在另一個測試集上評估其表現。而在本節中,我們將關注在線學習這一情形,算法一邊學習一邊對輸

原创 On Optimal and Data-Based Histograms

摘要 在本文中給出了最佳直方圖單元格寬度的公式,該公式漸近地使積分均方誤差最小化。 蒙特卡羅方法用於驗證該公式對小樣本的有效性。提出了一種基於數據的選擇箱寬參數的程序,該程序採用高斯參考標準,並且僅需要樣本大小和標準偏差的估計值。

原创 論文翻譯——中國武漢市2019年新型冠狀病毒感染患者的臨牀特徵

作者 Chaolin Huang*, Yeming Wang*, Xingwang Li*, Lili Ren*, Jianping Zhao*, Yi Hu*, Li Zhang, Guohui Fan, Jiuyang Xu,

原创 論文節選——2019新型冠狀病毒在美國的第一個病例

First Case of 2019 Novel Coronavirus in the United States Punished in : The New England Journal of Medicine Author

原创 正規方程組(The normal equations)

2. 正規方程組 上一節的梯度下降是一種最小化成本函數J 的方法。這一節我們將介紹另一種算法也可以實現該功能且不需要使用迭代。正規方程組通過計算成本函數對每個θj 的偏導數,求出偏導爲零的點來成本函數的最小值。爲了不必寫大量的代數

原创 線性迴歸(Linear Regression)

把監督式學習中關於房屋價格的例子稍作更改,除了原有數據,再加入臥室數量這一數據項。 居住面積(feet2\mathrm{feet}^2feet2) 臥室數量 價格(1000$s) 2104 3 400 1600

原创 k均值聚類算法(The k-means clustering algorithm)

在聚類問題中,我們試圖將給定的樣本集{x(1),…,x(m)} 分割成幾個各自匯聚的聚類。這類問題中輸入特徵同之前一樣是一個n維向量x(i)∈Rn ,但輸出標籤y(i) 是不存在的,因此這是一個非監督式學習問題。 k-means

原创 混合高斯模型和期望最大化算法(Mixture of Gaussians and the EM algorithm)

在這一章中,我們通過密度估計引出期望最大化算法。 在非監督式學習的情況下,給出一組訓練集{x(1),…,x(m)} ,我們試圖通過指定一個聯合分佈p(x(i),z(i))=p(x(i)|z(i))p(z(i)) 在數據集上建模。其

原创 無限假設集(The case of infinite H)

我們已經證明了一些在有限假設集下成立的結論。但很多假設類實際包含了無限個函數,這種情況我們是否可以給出相似的結論? 讓我們先舉個不恰當的例子,它有助於我們的直觀理解。 假設集H 的空間由d 個實參數控制。我們用電腦存儲這些實數,而