曠視研究院 演算法崗 人臉識別方向
**面 2020/6/19 16:00-17:00
面試官是做活體檢測的
1.介紹專案
專案是做人臉識別相關的,也是小**,問了些測試指標和公開資料集的一些指標,做這個的出發點,然後挑些毛病,沒怎麼聽懂。
2.專案中用到了resnet,讓我講下resnet的blocks,以及每個blocks是什麼樣的,具體到每一層是什麼?
blocks結構是[3,4,6,3],每個block會有兩條通路,其中一條有三個卷積層,每個卷積層分別由conv,bn,relu組成,另外一條通路只有乙個卷積層,僅有conv和bn,最後兩條通路的tensor加在了一起。
(如果現場面估計要叫我畫網路結構圖)
3.resnet設計的初衷?
普通的網路結構增加網路層數後,由於層數變得過多導致平均下來每層網路的損失值變得很小,反向傳播時對損失值變得不敏感而更新引數會變得很困難。通過增加殘差結構會明顯減小模組中的引數值從而讓網路引數對反向傳導的損失值更加敏感,雖然沒有根本解決回傳時損失小的問題,但是讓引數變小,相當於增加了回傳效果。(這道題回答的不是很好)
4.resnet中的kernel_size?
1×1,3×3,1×1
5.bn層原理?
通過對每個batch的特徵進行歸一,使特徵符合正態分佈,這樣網路更容易收斂。bn層會計算每個batch的均值和方差,然後進行歸一。但是如果完全符合正態分佈會使網路的表徵能力變差,所以引入了兩個引數,對歸一后的特徵進行細微的調整,這兩個引數是通過學習得到的。
6.bn層的均值和方差是在哪個維度上計算的?
通道上,如resnet中64 * 112 * 112的特徵經過bn層後,得到的bn層特徵是乙個64維的tensor。
7.如果是測試,bn層怎麼更新?
不會更新
8.resnet中的啟用函式用到了relu,那你談談為什麼要用relu?
即sigmoid函式由於輸入較大時,導數會特別小,幾乎為0,在深層網路中容易出現梯度消失。而relu的導數不管輸入值有多大而梯度始終為1。
9.如果網路輸入的都是正值,那relu是不是就沒有用了?
當然不是,relu的輸入時特徵和引數相乘,引數矩陣一般給到隨機值作為初始,所以輸入是正是負不可知,但肯定有正有負;就算特徵全正,引數一開始給全1矩陣,也會在梯度下降過程調參也有可能把引數調參成負值來擬合模型;(之前沒想過這個問題,當時答的是反向傳播時梯度卻並不是一直都是正的,面試官說這樣也沒錯,但沒答到點子上)
10.手寫漢羅塔。11. 線性代數問題,ax=b什麼情況下無解?
r(a)12. 還是線性代數問題,問了個更複雜的,連題目都沒聽懂,大概是個函式擬合的矩陣求解問題?
沒答上,他說沒關係,你也沒有涉及這個領域應該也不知道 。
然後時間差不多了,問我有沒有什麼問題想問他的。感覺要掛了,所以問了下他我現在還是研一嘛,還欠缺什麼能力可以在研二這年補一補,然後他說看自己選擇吧,盡可能在選擇的領域越挖越深,然後又說碩士生與博士生最大的區別是碩士不需要創新,只需要復現能力,但是很多碩士生缺乏這個能力。
總結:專案沒有組織好語言講的有點亂,所以有好幾次面試官因為沒有聽懂而打斷。深度學習的題答的還可以,最後寫**的時候完全沒反應過來所以腦子很亂。多複習下線性代數。第一次面試,有些緊張,再加上遠端面試通話上有些卡頓和噪音,經常沒聽清出問題,還好面試官耐心的複述了一遍。本以為演算法崗會挺看重**的,居然沒有問我發的什麼期刊,我的創新點什麼的,另外兩個專案也沒有問,只問了些基礎題,有可能招進去只是當調參俠吧哈哈哈哈哈。還沒來得及刷題,多刷刷題應該還是挺輕鬆的。
28歲少帥統領曠視南京研究院,LAMDA魏秀參專訪
記者和魏秀參專訪約在曠視科技北京總部,北臨清華大學,西靠中關村的融科寫字樓,公司三層中廳是一整面落地螢幕,實時顯示著人臉識別 人臉檢測 年齡估計 人體關鍵點 等多種視覺應用demo。這家計算機視覺公司在2017年10 月 31 日,宣布完成 c 輪4.6 億美元融資,重新整理彼時世界範圍內 ai 領...
研究院初體驗
今天是入職京東研究院第三天,真的是感覺身上的壓力越來越大。聽了一天程式設計思想的課,感覺整個人都是懵的,發現自己真的只會寫 那些 心法 自己真的是欠缺太多了,我都有種自己要被淘汰的感覺了。今天回來的路上我一直在想,自己選擇的路,怎麼著也得走完,就算跪著,爬著,也不能放棄,就算最後把自己累 也要留在京...
商湯科技研究院
商湯科技研究院 王牌是計算機視覺技術,ai驅動虛實結合帶來新體驗 遴選理由 商湯作為中國最大的計算機視覺軟體公司,不僅擁有業內領先的計算機視覺技術,還自主搭建了人工智慧算力基礎設施aidc。切實走通了從科研技術創新到產業應用 的道路,商湯商業化人工智慧模型數目超22000個,專利及專利申請數目超80...