面試專業有關

注:根據自己的簡歷簡單準備的一些問題,答案是自己組織的,大佬路過歡迎留言指出,一定及時改正。

畢設可能問到的問題一,困難? 

畢設期間由於剛剛接觸計算機視覺這一研究方向。前期需要通過博客和視頻自學機器學習相關知識,我自學了keras框架,Pyqt編程。項目開發中,環境配置特別複雜,最困難的是最初在訓練模型時使用CPU,訓練緩慢。必須果斷放棄cpu,重新配置GPU進行訓練。

 畢業設計簡述?

基於卷積神經網絡的人臉表情識別系統,使用Python的深度學習框架keras搭建模型,使用pyqt展示界面。整個系統實現人臉檢測和人臉表情分類的基本功能。 

 建模參與部分? 

作爲隊長,在和隊員充分交流後,合理分工。負責前期資料收集和處理等基礎工作,主要擔任論文撰寫的角色。我們的模型研究的是氣候對國家脆弱性的影響,模型使用國家脆弱指數計算方法,通過累加積分,不僅能夠對國家脆弱性進行分類,而且可以分析出氣候因子對脆弱性的影響。

 項目 

圖書館管理系統,整體分爲兩大部分。一部分是數據庫設計,另一部分是系統開發編程。數據庫設計是使用SQL server2008實現的,系統編程是基於vs2013平臺用c#編程,連接到數據庫開發的。在功能方面,系統實現圖書信息查詢,圖書借閱,圖書歸還等基本功能,實質上是對數據庫進行增刪改查操作。

 桌面應用和網頁應用的異同? 

區別:
桌面應用:不同的平臺開發桌面應用有所區別,基於vs平臺設計開發簡單。只需要新建窗口,並在窗口中設置控件屬性及事件進行開發。
網頁應用:網頁應用的開發要基於網頁開發語言,比如HTML進行開發。更重要的信息傳輸是通過網絡傳輸,必須要保證信息傳遞過程中的網絡安全問題。
同:
兩者設計邏輯相同,都分爲數據庫和系統開發編程兩大部分。

 開發過程中的安全問題? 

原理:在註冊輸入密碼時,將輸入字符經過加密存儲到數據庫。在登錄驗證時,將輸入的密碼加密後存儲在數據庫的密碼進行比較。如果相同表明密碼一致。實際使用md5加密。編程過程引入加密相關命名空間,然後在具體事件中寫入加密算法。
原因:MD5具有很好的安全性(因爲它具有不可逆的特徵,加過密的密文經過解密後和加密前的東東相同的可能性極小)

函數糾錯:下面函數,將字符串中的大寫轉爲小寫字母,返回新字符串。
請找出此函數存在的錯誤,在答題卡上說明錯誤在哪裏,並改正。
char * toLowerCase(char str){
    char *p;
    p = str;
    for(;*p!='\0';p++)
    {
        if(*p < 91 && *p > 64)
        {
            *p += 32;
        }
    }
    return str;
}

 

如果像題目中的那樣 char str的話 傳的是單個字符,也就是字符串的首字符。這樣傳參的話不能將整個字符數組傳過去,所以我們要傳字符數組的地址。
傳字符數組首地址的方法有兩種,指針形式 *str 數組形式str[]。

因爲str本身就是指針變量了

    ReLU的優點是收斂快,求梯度簡單。

爲什麼選用卷積神經網絡? 

卷積神經網絡是一類包含卷積運算且具有深度結構的前饋神經網絡,是深度學習的代表算法之一。卷積神經網絡能夠按其階層對輸入信息進行平移不變分類。卷積神經網絡仿照生物的視知覺感知機制構建。可以進行監督學習和非監督學習。且隱藏層內的卷積核參數共享和層間網絡的稀疏性使得卷積神經網絡能夠以較小的計算量對格點化特徵例如像素和音頻進行學習,有穩定的效果。 

卷積層:用它來進行特徵提取   
池化層:對輸入的特徵圖進行壓縮,一方面使特徵圖變小,一方面進行特徵壓縮,提取主要特徵
全連接層:連接所有的特徵,將輸出值送給分類器

激活函數 

激活函數的作用:爲了增加神經網絡模型的非線性。

sigmoid和ReLU的優劣
(1)ReLU不會產生梯度彌散現象.。而sigmod函數,會導致梯度消失現象。

(2)Relu函數的導數計算更快,所以使用梯度下降時比Sigmod收斂起來要快很多。

Sigmod優點:將線性函數的組合輸出爲0,1之間的概率。

Sigmodu缺點:(1)激活函數計算量大

簡化:

激活函數的作用:爲了增加神經網絡模型的非線性。

sigmoid和ReLU的優劣
(1)ReLU不會產生梯度彌散現象.。而sigmod函數,會導致梯度消失現象。

Sigmod優點:將線性函數的組合輸出爲0,1之間的概率。

Sigmodu缺點:(1)激活函數計算量大

貪心算法

貪心算法,把一個大的複雜的問題分解成若干個小的局部問題,然後通過求局部最優解來獲取整體最優解, 

 動態規劃和貪心算法 

 動態規劃和貪心算法都有最優子結構性質。
區別是動態規劃自底向上,貪心自頂向下

 深搜 廣搜

 深搜,是沿着一個方向不斷前進,直到遇到不符合要求的點,就直接返回上一級,然後往另一個方向繼續搜索,來最終獲取最優解的過程

廣搜不沿着一個方向搜索了,而是我這個點所有可能前進的下一個點我都搜索一遍,然後搜索到最外層,來選取最優解

 梯度下降算法 

 梯度下降算法用來解決最優化問題,在此模型設計過程中,最小化損失函數值和模型參數值。如果要求損失函數值的最大值需要用梯度上升算法。可以類比下山過程。
數學求解實質是函數求偏導,函數在該點方向導數最大,函數沿着梯度方向變化最快,變化率最大

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章