重溫矩陣(VI) 後記



圖片

 作爲紀念的隨想(《重溫矩陣》的後記):文章講解拙劣,但是礙於自己在很長時間都沒空對文章進行整理,眼下研究任務已經吃緊,再也沒空去寫這些自娛自樂的東西了,而且離開數學系很久了,一些知識都不清楚,說法也很不嚴謹。如此自己成功的從一個科班轉成一名外行,實在是個笑話。時間越拖越久,直到必須做個決定的時刻,在後面的時間更加緊迫,更加不能有着自己的性子去看東西,要不然就淪爲散漫。


作爲一個紀念我簡單的把自己的所感所想記錄下來(儘管思考並不深刻,儘管認識有些淺薄,儘管有拾人牙慧之嫌):

以下是做研究的幾個原則(這些原則適用於當前我的方向,當然對於很多的方向他們也是適用的)

1,解決問題要從問題的特徵入手。銘記,如果一個問題沒有性質與特徵,那麼也不將成爲一個問題。如此以防流於抽象,我們舉例說明:在上屆數模中D題有很多約束條件,如果簡單的認爲增加約束條件是將問題複雜化就錯了,在隊友的最後方案中,我們發現約束條件事實上簡化了問題的搜索空間,使得我們的問題更簡單而不是更復雜。如此,大家舉一反三。

2, 沒有免費的午餐(NFL)。這是一個常識,反映在生活上就是沒有包治百病的藥。因爲由於我們的第一條,我們爲問題建立的模型勢必考慮到這個問題的固有特性,如果這些特性在其他問題中不存在抑或是相違背的,那麼這個藥就是無效的。例子很簡單:這篇文章講述的是主成分分析,作爲一個漂亮的線性代數應用。主成分分析建立在線性相關的模型上,即依據第一條,我們事先知道數據間的關係是線性的,或者我們假設爲線性的。而如果數據間的關係不是線性的,即非線性,我們的主成分分析方法得到的結果往往是無效的(事實上我們必須引入不同的核函數進行主成分分析,不同的核函數有不同的效果,這一點繼續應徵第一條原則)。

3,問題的本質比方法的複雜抑或巧妙更重要。沉溺於技巧,這似乎是我們固有的認識。在今年的數模競賽中可見一斑,大家都傾向於用各種方法,模型越複雜越好。但是很多都是流於形式,對這個問題的本質認識並不深。很多論文都是堆砌方法(我們也不能免俗)。舉例爲:我們在做預測的時候有各種方法,如灰色預測,時間序列分析等等,如果你不清醒的認識到我們講到的第一原則與第二原則,即不對我們的問題進行認識以及預測方法的適用面以及各自的特性,那麼將沒有好的結果。如預測方法是適合於樣本量少的,還是對樣本量要求高的,短期的抑或長期的,抑或他利不利用先驗知識 ,如果我們知道樣本的分佈是一種週期的分佈,顯然我們需要周期函數去估計它,如果採用複雜的模型,不僅計算複雜,而且對樣本的要求要高很多,強烈依賴樣本的準確與否。因此,我們有原則四:

4,奧卡姆剃刀原則:若同一現象有兩種解釋,我們則選擇最簡單的那個,除非發現更多的證據。舉例:統計學有句話,對於有限樣本,我們沒有一個絕對正確的統計模型。就是說,對於樣本來說,我們的解釋可以有很多,這一點也符合我們的常識。在實際應用中,我們會選擇簡單的那個解釋並以此來解釋相似的現象。

5,問題轉化原則:我們總是傾向於將複雜的普適的問題轉化爲簡單而有特性的問題進行處理。例子很簡單,如果你要做環球旅行,顯然我不可能把這個問題轉化成 如何做一架飛機?儘管這個例子看起來很荒謬,但是在研究中我們經常不自覺的進入這樣的誤區:例如我們在做優化算法的時候,多少有種設想,即根據數據,我能不能構建一個模型,使之和目標函數吻合,顯然這個模型的極值點也就是我們目標函數的極值點。這個想法很好,但是要明白,對於有限而不完全的數據去建模,並保證足夠的精度,顯然比我們找目標函數的極值點更難也更普適,如果我們解決了這個問題,可以說很多領域的專家就要失業了。有如在優化算法中的核心問題是克服多變量的相關,我們就嘗試建立模型,期望模型能夠刻畫變量間的相關性,圖模型就是一類,但是問題是找到合適的圖模型似乎不比我們的原問題簡單多少,它同樣是一個NP難問題。這實在有點諷刺。

圖片

 作爲紀念的隨想(《重溫矩陣》的後記):文章講解拙劣,但是礙於自己在很長時間都沒空對文章進行整理,眼下研究任務已經吃緊,再也沒空去寫這些自娛自樂的東西了,而且離開數學系很久了,一些知識都不清楚,說法也很不嚴謹。如此自己成功的從一個科班轉成一名外行,實在是個笑話。時間越拖越久,直到必須做個決定的時刻,在後面的時間更加緊迫,更加不能有着自己的性子去看東西,要不然就淪爲散漫。


作爲一個紀念我簡單的把自己的所感所想記錄下來(儘管思考並不深刻,儘管認識有些淺薄,儘管有拾人牙慧之嫌):

以下是做研究的幾個原則(這些原則適用於當前我的方向,當然對於很多的方向他們也是適用的)

1,解決問題要從問題的特徵入手。銘記,如果一個問題沒有性質與特徵,那麼也不將成爲一個問題。如此以防流於抽象,我們舉例說明:在上屆數模中D題有很多約束條件,如果簡單的認爲增加約束條件是將問題複雜化就錯了,在隊友的最後方案中,我們發現約束條件事實上簡化了問題的搜索空間,使得我們的問題更簡單而不是更復雜。如此,大家舉一反三。

2, 沒有免費的午餐(NFL)。這是一個常識,反映在生活上就是沒有包治百病的藥。因爲由於我們的第一條,我們爲問題建立的模型勢必考慮到這個問題的固有特性,如果這些特性在其他問題中不存在抑或是相違背的,那麼這個藥就是無效的。例子很簡單:這篇文章講述的是主成分分析,作爲一個漂亮的線性代數應用。主成分分析建立在線性相關的模型上,即依據第一條,我們事先知道數據間的關係是線性的,或者我們假設爲線性的。而如果數據間的關係不是線性的,即非線性,我們的主成分分析方法得到的結果往往是無效的(事實上我們必須引入不同的核函數進行主成分分析,不同的核函數有不同的效果,這一點繼續應徵第一條原則)。

3,問題的本質比方法的複雜抑或巧妙更重要。沉溺於技巧,這似乎是我們固有的認識。在今年的數模競賽中可見一斑,大家都傾向於用各種方法,模型越複雜越好。但是很多都是流於形式,對這個問題的本質認識並不深。很多論文都是堆砌方法(我們也不能免俗)。舉例爲:我們在做預測的時候有各種方法,如灰色預測,時間序列分析等等,如果你不清醒的認識到我們講到的第一原則與第二原則,即不對我們的問題進行認識以及預測方法的適用面以及各自的特性,那麼將沒有好的結果。如預測方法是適合於樣本量少的,還是對樣本量要求高的,短期的抑或長期的,抑或他利不利用先驗知識 ,如果我們知道樣本的分佈是一種週期的分佈,顯然我們需要周期函數去估計它,如果採用複雜的模型,不僅計算複雜,而且對樣本的要求要高很多,強烈依賴樣本的準確與否。因此,我們有原則四:

4,奧卡姆剃刀原則:若同一現象有兩種解釋,我們則選擇最簡單的那個,除非發現更多的證據。舉例:統計學有句話,對於有限樣本,我們沒有一個絕對正確的統計模型。就是說,對於樣本來說,我們的解釋可以有很多,這一點也符合我們的常識。在實際應用中,我們會選擇簡單的那個解釋並以此來解釋相似的現象。

5,問題轉化原則:我們總是傾向於將複雜的普適的問題轉化爲簡單而有特性的問題進行處理。例子很簡單,如果你要做環球旅行,顯然我不可能把這個問題轉化成 如何做一架飛機?儘管這個例子看起來很荒謬,但是在研究中我們經常不自覺的進入這樣的誤區:例如我們在做優化算法的時候,多少有種設想,即根據數據,我能不能構建一個模型,使之和目標函數吻合,顯然這個模型的極值點也就是我們目標函數的極值點。這個想法很好,但是要明白,對於有限而不完全的數據去建模,並保證足夠的精度,顯然比我們找目標函數的極值點更難也更普適,如果我們解決了這個問題,可以說很多領域的專家就要失業了。有如在優化算法中的核心問題是克服多變量的相關,我們就嘗試建立模型,期望模型能夠刻畫變量間的相關性,圖模型就是一類,但是問題是找到合適的圖模型似乎不比我們的原問題簡單多少,它同樣是一個NP難問題。這實在有點諷刺。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章