电竞比分网-中国电竞赛事及体育赛事平台

分享

75道常見AI面試題,看看你的知識(shí)盲點(diǎn)在哪?(附解析)

 甘甘灰 2019-11-28

https://www.toutiao.com/a6666653297048289799/

 

 

整理 | AI科技大本營(yíng)

出品 | AI科技大本營(yíng)(公眾號(hào)id:rgznai100)

【導(dǎo)語(yǔ)】正值求職、跳槽季,無(wú)論你是換工作還是找實(shí)習(xí),沒(méi)有真本事都是萬(wàn)萬(wàn)不行的,可是如何高效率復(fù)習(xí)呢?之前我們給大家推薦了一份 Python 面試寶典,收藏了近 300 道面試題,今天為為家精心準(zhǔn)備了一份 AI相關(guān)崗位的面試題,幫大家掃清知識(shí)盲點(diǎn),自信上場(chǎng)!

機(jī)器學(xué)習(xí)工程師面試

1、你會(huì)在時(shí)間序列數(shù)據(jù)集上使用什么交叉驗(yàn)證技術(shù)?是用k倍或LOOCV?

2、你是怎么理解偏差方差的平衡的?

3、給你一個(gè)有1000列和1百萬(wàn)行的訓(xùn)練數(shù)據(jù)集,這個(gè)數(shù)據(jù)集是基于分類問(wèn)題的。經(jīng)理要求你來(lái)降低該數(shù)據(jù)集的維度以減少模型計(jì)算時(shí)間,但你的機(jī)器內(nèi)存有限。你會(huì)怎么做?

4、全球平均溫度的上升導(dǎo)致世界各地的海盜數(shù)量減少。這是否意味著海盜的數(shù)量減少引起氣候變化?

5、給你一個(gè)數(shù)據(jù)集,這個(gè)數(shù)據(jù)集有缺失值,且這些缺失值分布在離中值有1個(gè)標(biāo)準(zhǔn)偏差的范圍內(nèi)。百分之多少的數(shù)據(jù)不會(huì)受到影響?為什么?

6、你意識(shí)到你的模型受到低偏差和高方差問(wèn)題的困擾。那么,應(yīng)該使用哪種算法來(lái)解決問(wèn)題呢?為什么?

7、協(xié)方差和相關(guān)性有什么區(qū)別?

8、真陽(yáng)性率和召回有什么關(guān)系?寫出方程式。

9、Gradient boosting算法(GBM)和隨機(jī)森林都是基于樹的算法,它們有什么區(qū)別?

10、你認(rèn)為把分類變量當(dāng)成連續(xù)型變量會(huì)更得到一個(gè)更好的預(yù)測(cè)模型嗎?

11:“買了這個(gè)的客戶,也買了......”亞馬遜的建議是哪種算法的結(jié)果?

12、在k-means或kNN,我們是用歐氏距離來(lái)計(jì)算最近的鄰居之間的距離。為什么不用曼哈頓距離?

13、我知道校正R2或者F值是用來(lái)評(píng)估線性回歸模型的。那用什么來(lái)評(píng)估邏輯回歸模型?

14、為什么樸素貝葉斯如此“樸素”?

15、花了幾個(gè)小時(shí)后,現(xiàn)在你急于建一個(gè)高精度的模型。結(jié)果,你建了5 個(gè)GBM(Gradient Boosted Models),想著boosting算法會(huì)展現(xiàn)“魔力”。不幸的是,沒(méi)有一個(gè)模型比基準(zhǔn)模型表現(xiàn)得更好。最后,你決定將這些模型結(jié)合到一起。盡管眾所周知,結(jié)合模型通常精度高,但你就很不幸運(yùn)。你到底錯(cuò)在哪里?

以上題目答案詳解:https://www./articles/109【推薦收藏】機(jī)器學(xué)習(xí)教材中的 7 大經(jīng)典問(wèn)題https://www./articles/83

算法工程師面試題

工作中的算法工程師,很多時(shí)候,會(huì)將生活中轉(zhuǎn)瞬即逝的靈感,付諸產(chǎn)品化。

將算法研究應(yīng)用到工作中,與純粹的學(xué)術(shù)研究有著一點(diǎn)最大的不同,即需要從用戶的角度思考問(wèn)題。很多時(shí)候,你需要明確設(shè)計(jì)的產(chǎn)品特征、提升的數(shù)據(jù)指標(biāo),是不是能真正迎合用戶的需求,這便要求算法工程師能在多個(gè)模型間選擇出最合適的那個(gè),然后通過(guò)快速迭代達(dá)到一個(gè)可以走向產(chǎn)品化的結(jié)果。知識(shí)儲(chǔ)備作為成功的根底亦必不可少,以下是營(yíng)長(zhǎng)為你精選的算法面試,幫你檢查下自己的技能是否在線。

1. LDA(線性判別分析) 和 PCA 的區(qū)別與聯(lián)系

2. K-均值算法收斂性的證明

3. 如何確定 LDA (隱狄利克雷模型) 中主題的個(gè)數(shù)

4. 隨機(jī)梯度下降法的一些改進(jìn)算法

5. L1正則化產(chǎn)生稀疏性的原因

6. 如何對(duì)貝葉斯網(wǎng)絡(luò)進(jìn)行采樣

7. 從方差、偏差角度解釋 Boosting 和 Bagging

8. ResNet的提出背景和核心理論

9. LSTM是如何實(shí)現(xiàn)長(zhǎng)短期記憶功能的

10. WGAN解決了原始 GAN 中的什么問(wèn)題

以上題目答案詳解:https://www./articles/1275【推薦收藏】是男人就過(guò)8題!樓教主出題,請(qǐng)接招https://www./articles/47算法和編程面試題精選TOP50!(附代碼+解題思路+答案)https://www./articles/3759

深度學(xué)習(xí)12大常見面試題

1.什么是深度學(xué)習(xí)?為什么它會(huì)如此受歡迎?

3.深度學(xué)習(xí)與機(jī)器學(xué)習(xí)有什么區(qū)別?

4.深度學(xué)習(xí)的先決條件是什么?

5.選擇哪些工具/語(yǔ)言構(gòu)建深度學(xué)習(xí)模型?

6.為什么構(gòu)建深度學(xué)習(xí)模型需要使用GPU?

7.何時(shí)(何處)應(yīng)用神經(jīng)網(wǎng)絡(luò)?

8.是否需要大量數(shù)據(jù)來(lái)訓(xùn)練深度學(xué)習(xí)模型?

9.哪里可以找到一些基本的深度學(xué)習(xí)項(xiàng)目用來(lái)練習(xí)?

10.深度學(xué)習(xí)的一些免費(fèi)學(xué)習(xí)資源

最后附上深度學(xué)習(xí)的相關(guān)面試問(wèn)題有哪些?

(1)深度學(xué)習(xí)模型如何學(xué)習(xí)? (2)深度學(xué)習(xí)模型有哪些局限性? (3)前饋神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)之間有什么區(qū)別? (4)什么是激活特征函數(shù)? (5)什么是CNN,它有什么用途? (6)什么是池化? 簡(jiǎn)述其工作原理。 (7)什么是dropout層,為什么要用dropout層? (8)什么是消失梯度問(wèn)題,如何克服? (9)什么是優(yōu)化函數(shù)?說(shuō)出幾個(gè)常見的優(yōu)化函數(shù)。

以上題目答案詳解:https://www./articles/608

Python常見面試題

  • 100+Python編程題給你練~(附答案)
https://www./articles/3987
  • 10個(gè)Python常見面試題,這些弄不明白不要說(shuō)學(xué)過(guò)Python!
https://www./articles/3768

Google人工智能面試題

1、求導(dǎo)1/x。

2、畫出log (x+10)曲線。

3、怎樣設(shè)計(jì)一次客戶滿意度調(diào)查?

4、一枚硬幣拋10次,得到8正2反。試析拋硬幣是否公平?p值是多少?

5、接上題。10枚硬幣,每一枚拋10次,結(jié)果會(huì)如何?為了拋硬幣更公平,應(yīng)該怎么改進(jìn)?

6、解釋一個(gè)非正態(tài)分布,以及如何應(yīng)用。

7、為什么要用特征選擇?如果兩個(gè)預(yù)測(cè)因子高度相關(guān),系數(shù)對(duì)邏輯回歸有怎樣的影響?系數(shù)的置信區(qū)間是多少?

8、K-mean與高斯混合模型:K-means算法和EM算法的差別在哪里?

9、使用高斯混合模型時(shí),怎樣判斷它適用與否?(正態(tài)分布)

10、聚類時(shí)標(biāo)簽已知,怎樣評(píng)估模型的表現(xiàn)?

11、為什么不用邏輯回歸,而要用GBM?

12、每年應(yīng)聘Google的人有多少?

13、你給一個(gè)Google APP做了些修改。怎樣測(cè)試某項(xiàng)指標(biāo)是否有增長(zhǎng)

14、描述數(shù)據(jù)分析的流程。

15、高斯混合模型 (GMM) 中,推導(dǎo)方程。

16、怎樣衡量用戶對(duì)視頻的喜愛(ài)程度?

17、模擬一個(gè)二元正態(tài)分布。

18、求一個(gè)分布的方差。

19、怎樣建立中位數(shù)的Estimator?

20、如果回歸模型中的兩個(gè)系數(shù)估計(jì),分別是統(tǒng)計(jì)顯著的,把兩個(gè)放在一起測(cè)試,會(huì)不會(huì)同樣顯著?

以上題目答案詳解:https://www./articles/98

蘋果人工智能面試題

1、有成千上萬(wàn)個(gè)用戶,每個(gè)用戶都有 100 個(gè)交易,在 10000 個(gè)產(chǎn)品和小組中,用戶所參與有意義的部分,你是如何處理這一問(wèn)題的?

2、為了消除欺詐行為,我們對(duì)這些數(shù)據(jù)進(jìn)行預(yù)篩選,如何才能找到一個(gè)數(shù)據(jù)樣本,幫助我們判斷一個(gè)欺詐行為的真實(shí)性?

3、給出兩個(gè)表格,一個(gè)表格用來(lái)存儲(chǔ)用戶 ID 以及購(gòu)買產(chǎn)品 ID(為1個(gè)字節(jié)),另一個(gè)表格則存儲(chǔ)標(biāo)有產(chǎn)品名稱的產(chǎn)品 ID。我們嘗試尋找被同一用戶同時(shí)購(gòu)買的這樣一個(gè)成對(duì)的產(chǎn)品,像葡萄酒和開瓶器,薯片和啤酒。那么,如何去尋找前 100 個(gè)同時(shí)存在且成對(duì)出現(xiàn)的產(chǎn)品?

4、詳細(xì)描述 L1 正則化和 L2 正則化二者之間的區(qū)別,特別是它們本身對(duì)模型訓(xùn)練過(guò)程的影響有什么不同?

5、假設(shè)你有 10 萬(wàn)個(gè)存儲(chǔ)在不同服務(wù)器上的文件,你想對(duì)所有的文件進(jìn)行加工,那么用 Hadoop 如何處理?

6、Python 和 Scala 之間有什么區(qū)別?

7、解釋一下 LRU Cache 算法。

8、如何設(shè)計(jì)一個(gè)客戶——服務(wù)器模型,客服端每分鐘都可以發(fā)送位置數(shù)據(jù)。

9、如何將數(shù)據(jù)從一個(gè) Hadoop 聚類傳遞給另一個(gè) Hadoop 聚類?

10、Java 中的內(nèi)存有哪些不同的類型?

11、你是如何處理數(shù)百個(gè)標(biāo)題中的元數(shù)據(jù)這一繁瑣任務(wù)的?

12、在數(shù)據(jù)流和可訪問(wèn)性方面,如何在隱藏時(shí)間幀內(nèi)進(jìn)行測(cè)量?其中在隱藏時(shí)間幀內(nèi),核心超負(fù)荷將計(jì)算機(jī)能量重定向到 cellar dome 的過(guò)度復(fù)雜文件系統(tǒng)的邊界結(jié)構(gòu)。

13、你最希望擁有的超能力是什么?

14、如果你有一個(gè)時(shí)間序列傳感器,請(qǐng)預(yù)測(cè)其下一個(gè)讀數(shù)。

15、使用 SQL 創(chuàng)建 market basket 輸出。

16、你有沒(méi)有過(guò)心理物理學(xué)實(shí)驗(yàn)的經(jīng)驗(yàn)?(Research Portfolio based question)

17、你在表征方法上的專長(zhǎng)是什么?通常使用什么?你是如何在研究中使用它,有沒(méi)有什么有趣的結(jié)果?(Research Portfolio based question)

18、如何進(jìn)行故障分析?

19、檢查一個(gè)二叉樹是否為左右子樹上的鏡像。

20、什么是隨機(jī)森林?為什么樸素貝葉斯效果更好?

以上題目答案詳解:https://www./articles/139

大家可在詳解頁(yè)面查找以上所有問(wèn)題的答案,面試除了運(yùn)氣,更多還是需要扎實(shí)的基本功。努力刷題吧,祝大家都能所向披靡,順利進(jìn)入心儀的公司~

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多