面試百度的機器學習算法,也不過如此

本文已經收錄至我的GitHub,歡迎大家踊躍star 和 issues。

https://github.com/midou-tech/articles

機器學習整體難度還是有點,不過這個崗位真的是很香,錢多,發展空間足未來可期啊。

本篇文章面經是三位大佬面試百度機器學習崗位的面試題,其中兩位已經拿到offer,趕緊複習起來,下一個offer就是我。

更多的面經和內推信息,請微信搜索 龍躍十二 即可獲取。


一面

  • 詢問簡歷上做過的項目,以及項目細節
  • 算法題:
  • 二叉樹中序遍歷(要非遞歸解法)
  • 兩個有序鏈表的歸併。
  • 快排
  • lstm 詳細講講解
  • attetion 機制
  • 混淆矩陣,F1等計算
  • n個人進餐館,都把帽子掛在門口,走的時候隨手拿一頂,問拿到帽子恰好是自己的人數的期望
  • ML 與 DL比較
  • 實習的一些問題

二面

  • 算法題:返回二叉樹中路徑和爲某一值的所有路徑、反轉句子中單詞順序

  • 區塊鏈比賽和專利

  • 我驚了個呆,大佬竟然還了解區塊鏈,準確指出了我的區塊鏈項目和專利的不靠譜處(我也知道啊,所以我轉ML了啊)

  • 項目

  • 這個就隨便聊了聊

  • AUC計算

  • 很奇怪,我面試後看了看發現給出的是正確方法,但是面試官說不對。。。

  • 進程和線程是爲什麼被提出的

  • 線程間如何通信

  • 快排複雜度的證明

  • 特徵篩選方法

三面

  • 基礎數據結構和算法有哪些
  • 是的你沒猜錯,我把課本羅列了一下,順序表 鏈表 哈希表 樹系列 圖系列,選擇插入冒泡希爾堆快速基數外部排序,就過了。。。
  • 推薦類算法比較
  • 機器學習算法比較
  • 聊了聊區塊鏈

已經拿到offer

這是下一位同學的面經

一面

  • 聊項目,聊的非常細,我的項目就是比賽,面試官甚至問了我提分的過程,一開始多少分,做了哪些工作之後升到了多少分之類的;

  • 跟過擬合有關的一些問題,詳細的內容已經記不清了;

  • 聊xgboost;

  • 聊deepFM;

  • 項目中用到了LSTM,爲什麼可以用LSTM,它的主要用處是什麼,以及LSTM的梯度消失問題;

  • 算法題:二叉樹中的最長路徑;

  • 算法題:x的平方根。

    二面:

  • 聊項目;

  • 聊GBDT;

  • 算法題:二分查找;

  • 算法題:最大堆的插入;

  • 聊deepFM;

  • 不定長文本數據如何輸入deepFM,如果不截斷補齊又該如何輸入;

  • 項目中爲什麼使用LSTM;

  • 項目中整個過程中都做過哪些優化。

    三面:

  • n個數中等概率抽取m個數。

    三面就問了一道概率題,剩下的基本上是聊天。 總的來說面試難度不高,感覺也是我運氣好吧。


這是下一位同學的面經

一面

  • 給一個數組,數組的數字代表股票價格,求一次買賣的最大股票收益
  • 1-n的全排列
  • lstm是什麼的升級?解決了什麼問題?
  • 講一講各種激活函數
  • attetion 機制
  • embedding的深層含義是什麼
  • c 的const字段有什麼意義
  • RF和GBDT的區別
  • 爲什麼GBDT可以提高準確率
  • 矩陣分解

二面

  • 自我介紹
  • 講區塊鏈
  • 區塊鏈中51%攻擊的經濟學原理
  • 求樹兩個節點的最低公共祖先
  • 講kaggle比賽
  • xgboost比gbdt的優化都有哪些
  • 爲什麼xgboost要求二階導數
  • 泰勒展開逼近殘差,二階比一階精度高
  • 通用性,所有二階可導的loss function都可以用
  • 有些函數梯度在一階上變化小,二階變化大,參考牛頓法
  • 爲什麼gbdt沒有正則
  • 講項目
  • 計算一下項目中DNN的參數個數
  • gbdt與lr區別
  • 集成爲什麼會提高效果
  • l1 l2正則
  • xgb lgb調參怎麼選參數
  • 貪婪搜索唄?面試官覺得不行?難道是貝葉斯參數優化?
  • 怎麼樣在沒有得到未來數據的情況下提高模型對未來預測的效果
  • 講道理我覺得這個問的非常扯淡,不就是泛化性,然後我說了一些降低方差的方法,面試官說是對未來預測的準確性,沒有get到他的點,最後被說對算法的追求不夠。。。。

更多的面經和內推信息,請微信搜索 龍躍十二 即可獲取。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章