面试专业有关

注:根据自己的简历简单准备的一些问题,答案是自己组织的,大佬路过欢迎留言指出,一定及时改正。

毕设可能问到的问题一,困难? 

毕设期间由于刚刚接触计算机视觉这一研究方向。前期需要通过博客和视频自学机器学习相关知识,我自学了keras框架,Pyqt编程。项目开发中,环境配置特别复杂,最困难的是最初在训练模型时使用CPU,训练缓慢。必须果断放弃cpu,重新配置GPU进行训练。

 毕业设计简述?

基于卷积神经网络的人脸表情识别系统,使用Python的深度学习框架keras搭建模型,使用pyqt展示界面。整个系统实现人脸检测和人脸表情分类的基本功能。 

 建模参与部分? 

作为队长,在和队员充分交流后,合理分工。负责前期资料收集和处理等基础工作,主要担任论文撰写的角色。我们的模型研究的是气候对国家脆弱性的影响,模型使用国家脆弱指数计算方法,通过累加积分,不仅能够对国家脆弱性进行分类,而且可以分析出气候因子对脆弱性的影响。

 项目 

图书馆管理系统,整体分为两大部分。一部分是数据库设计,另一部分是系统开发编程。数据库设计是使用SQL server2008实现的,系统编程是基于vs2013平台用c#编程,连接到数据库开发的。在功能方面,系统实现图书信息查询,图书借阅,图书归还等基本功能,实质上是对数据库进行增删改查操作。

 桌面应用和网页应用的异同? 

区别:
桌面应用:不同的平台开发桌面应用有所区别,基于vs平台设计开发简单。只需要新建窗口,并在窗口中设置控件属性及事件进行开发。
网页应用:网页应用的开发要基于网页开发语言,比如HTML进行开发。更重要的信息传输是通过网络传输,必须要保证信息传递过程中的网络安全问题。
同:
两者设计逻辑相同,都分为数据库和系统开发编程两大部分。

 开发过程中的安全问题? 

原理:在注册输入密码时,将输入字符经过加密存储到数据库。在登录验证时,将输入的密码加密后存储在数据库的密码进行比较。如果相同表明密码一致。实际使用md5加密。编程过程引入加密相关命名空间,然后在具体事件中写入加密算法。
原因:MD5具有很好的安全性(因为它具有不可逆的特征,加过密的密文经过解密后和加密前的东东相同的可能性极小)

函数纠错:下面函数,将字符串中的大写转为小写字母,返回新字符串。
请找出此函数存在的错误,在答题卡上说明错误在哪里,并改正。
char * toLowerCase(char str){
    char *p;
    p = str;
    for(;*p!='\0';p++)
    {
        if(*p < 91 && *p > 64)
        {
            *p += 32;
        }
    }
    return str;
}

 

如果像题目中的那样 char str的话 传的是单个字符,也就是字符串的首字符。这样传参的话不能将整个字符数组传过去,所以我们要传字符数组的地址。
传字符数组首地址的方法有两种,指针形式 *str 数组形式str[]。

因为str本身就是指针变量了

    ReLU的优点是收敛快,求梯度简单。

为什么选用卷积神经网络? 

卷积神经网络是一类包含卷积运算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。卷积神经网络能够按其阶层对输入信息进行平移不变分类。卷积神经网络仿照生物的视知觉感知机制构建。可以进行监督学习和非监督学习。且隐藏层内的卷积核参数共享和层间网络的稀疏性使得卷积神经网络能够以较小的计算量对格点化特征例如像素和音频进行学习,有稳定的效果。 

卷积层:用它来进行特征提取   
池化层:对输入的特征图进行压缩,一方面使特征图变小,一方面进行特征压缩,提取主要特征
全连接层:连接所有的特征,将输出值送给分类器

激活函数 

激活函数的作用:为了增加神经网络模型的非线性。

sigmoid和ReLU的优劣
(1)ReLU不会产生梯度弥散现象.。而sigmod函数,会导致梯度消失现象。

(2)Relu函数的导数计算更快,所以使用梯度下降时比Sigmod收敛起来要快很多。

Sigmod优点:将线性函数的组合输出为0,1之间的概率。

Sigmodu缺点:(1)激活函数计算量大

简化:

激活函数的作用:为了增加神经网络模型的非线性。

sigmoid和ReLU的优劣
(1)ReLU不会产生梯度弥散现象.。而sigmod函数,会导致梯度消失现象。

Sigmod优点:将线性函数的组合输出为0,1之间的概率。

Sigmodu缺点:(1)激活函数计算量大

贪心算法

贪心算法,把一个大的复杂的问题分解成若干个小的局部问题,然后通过求局部最优解来获取整体最优解, 

 动态规划和贪心算法 

 动态规划和贪心算法都有最优子结构性质。
区别是动态规划自底向上,贪心自顶向下

 深搜 广搜

 深搜,是沿着一个方向不断前进,直到遇到不符合要求的点,就直接返回上一级,然后往另一个方向继续搜索,来最终获取最优解的过程

广搜不沿着一个方向搜索了,而是我这个点所有可能前进的下一个点我都搜索一遍,然后搜索到最外层,来选取最优解

 梯度下降算法 

 梯度下降算法用来解决最优化问题,在此模型设计过程中,最小化损失函数值和模型参数值。如果要求损失函数值的最大值需要用梯度上升算法。可以类比下山过程。
数学求解实质是函数求偏导,函数在该点方向导数最大,函数沿着梯度方向变化最快,变化率最大

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章