一、ai演算法基礎
1、樣本不平衡的解決方法?
2、交叉熵函式系列問題?與最大似然函式的關係和區別?
3、hmm、memm vs crf 對比?
4、svm和lr的區別與聯絡?
5、crf的損失函式是什麼?lstm+crf怎麼理解?
6、gbdt vs xgboost
7、評估指標f1和auc的區別是哪些?
8、sigmoid用作啟用函式時,分類為什麼要用交叉熵損失,而不用均方損失?
9、神經網路中的啟用函式的對比?
二、nlp高頻問題
1、word2vec和tf-idf 相似度計算時的區別?
2、word2vec和nnlm對比有什麼區別?(word2vec vs nnlm)
3、 word2vec負取樣有什麼作用?
4、word2vec和fasttext對比有什麼區別?(word2vec vs fasttext)
5、glove和word2vec、 lsa對比有什麼區別?(word2vec vs glove vs lsa)
6、 elmo、gpt、bert三者之間有什麼區別?(elmo vs gpt vs bert)
7、lstm和gru的區別?
三、其他演算法問題
1、怎麼進行單個樣本的學習?
2、 決策樹 bagging boosting adaboost 區別?rf的特徵隨機目的是什麼?
3、transformer各部分怎麼用?q k v怎麼計算;attention怎麼用?
4、hmm 假設是什麼?crf解決了什麼問題?crf做過特徵工程嗎?hmm中的矩陣意義?5、說以一下空洞卷積?膨脹卷積怎麼理解?什麼是piece-cnn?
6、怎麼解決beam-search區域性最優問題?global embedding 怎麼做?
7、數學題:什麼是半正定矩陣?機器學習中有什麼應用?
8、卷積的物理意義是什麼?傅利葉變換懂嗎?
9、說一下bert?
10、推導word2vec?
11、怎麼理解傳統的統計語言模型?現在的神經網路語言模型有什麼不同?
12、神經網路優化的難點是什麼?這個問題要展開來談。
13、attention你知道哪些?
14、自動文章摘要抽取時,怎麼對一篇文章進行分割?(
從序列標註、無監督等角度思考)
15、在做ner任務時,lstm後面可以不用加crf嗎?
16、通過畫圖描述textrank?
17、lda和plsa有什麼區別?
18、transformer在實際應用中都會有哪些做法?
19、講出過擬合的解決方案?
20、說一下transforemr、lstm、cnn間的區別?從多個角度進行講解?
21、梯度消失的原因和解決辦法有哪些?
22、數學題:貝葉斯計算概率?
23、數學題:25只兔子賽跑問題,共5個賽道,最少幾次比
賽可以選出前5名?
24、數學題:100盞燈問題?
幾道面試題
系統呼叫與函式的區別 從程式完成的功能來看,函式庫提供的函式通常是不需要作業系統的服務,函式是在使用者空間內執行的,除非函式涉及到i o操作等,一般是不會切到核心態的。系統呼叫是要求作業系統為使用者提供程序,提供某種服務,通常是涉及系統的硬體資源和一些敏感的軟體資源等。函式庫的函式,尤其與輸入輸出相...
幾道面試題
1 下列程式片段執行時間排序 1 for uint i 0 i 1024 i char url char malloc 4096 memset url,0x0,4096 free url 2 for uint i 0 i 1024 i 3 char url char malloc 4096 for ...
幾道面試題
q 您在什麼情況下會用到虛方法?它與介面有什麼不同?q override與過載有什麼區別?q 值型別與引用型別有什麼區別?q 怎樣理解靜態變數?q 向伺服器傳送請求有幾種方式?q datareader與dataset有什麼區別?q 用.net做b s結構的系統,您是用幾層結構來開發,每一層之間的關係...