tflops(teraflops floating-point operations per second每秒浮點運算次數)單精度也就是運算效能,決定了運算速度,首選1080ti、2080ti、titan v,不過效能最強的titan v的**是2080ti的三倍
vram(視訊記憶體):視訊記憶體大小決定了我們的網路模型能不能執行,大型的卷積神經網路會使用超過8g以上的視訊記憶體,因此購買具有大視訊記憶體的顯示卡才能夠保證大多數卷積神經網路模型能夠順利執行。
其中1080ti具有11g視訊記憶體,能勝任較大的網路模型,效能也比較強,售價大約5000元一張具有最高的價效比。
2080ti是最新的顯示卡,同樣擁有11g視訊記憶體,但速度是1080ti的1.5倍,售價大約9000元。
titan v具有12g視訊記憶體,可以說能夠執行絕大多數網路,並且速度是最快的,由於是面向商用,所以其**也非常感人,約25000元一塊。
這三款較為適合深度學習影象處理任務,能完成大多數網路,可以根據預算自由選擇。8g視訊記憶體和6g視訊記憶體的1080和1060也不失為信價比之選,但是考慮到視訊記憶體的限制,還是盡量購買具有11g以上的視訊記憶體的顯示卡。
更詳細的配置指南:
cuda(computeunified device architecture)是一種由nvidia推出的通用平行計算架構,該架構使gpu能夠解決複雜的計算問題。也就是說cuda只能在nvidia的gpu上執行,而且只有當要解決的計算問題是可以大量平行計算的時候才能發揮cuda的作用。cuda的主要作用是鏈結 gpu 和 應用程式,方便使用者通過 cuda 的 api 排程 gpu 進行計算。
cudnn(cuda deep neural network library)是nvidia基於cuda打造的針對深度神經網路的gpu加速庫。它強調效能、易用性和低記憶體開銷。它能將模型訓練的計算優化之後,再通過 cuda 呼叫 gpu 進行運算。當然你也可直接使用cuda,而不通過 cudnn ,但運算效率會低好多。
cuda看作是乙個工作台,上面配有很多任務具,如錘子、螺絲刀等。cudnn相當於工具,比如扳手。但是cuda這個工作台買來的時候,並沒有送扳手。想要在cuda上執行深度神經網路,就要安裝cudnn,就像你想要擰個螺帽就要把扳手買回來。這樣才能使gpu進行深度神經網路的工作,工作速度相較cpu快很多。
從官方安裝指南可以看出,只要把cudnn檔案複製到cuda的對應資料夾裡就可以,即是所謂插入式設計,把cudnn資料庫新增cuda裡,cudnn是cuda的擴充套件計算庫,不會對cuda造成其他影響。
官方cuda使用手冊
nvcc --version或
nvcc -v如果 nvcc 沒有安裝,採用下面的方法:
cat /usr/local/cuda/version.txtcat /usr/local/cuda/include/cudnn.h | grep cudnn_major -a 2
nvcc --version或者進入 cuda 的安裝目錄檢視:
c:\program files\nvidia gpu computing toolkit\cuda如下所示,cudnn 版本為 7.2.1 :c:\program files\nvidia gpu computing toolkit\cuda\v9.0\include\cudnn.h
更詳細的教程
it基礎設施原理
it基礎設施原理 it ct ict融合 iaas 基礎設施即服務 paas 平台即服務 saas 軟體即服務。cpu 看核心數,執行緒數。i7 4核,8執行緒 伺服器型別 塔式,機架式,刀片式。linux結構 硬體,核心,shell,應用程式。硬碟分割槽只支援4個主分割槽或者是3個主分割槽加乙個擴...
前端基礎設施搭建
為了方便前端小白能夠從零基礎的適應專案,跟著我一步一步來搭建專案,更快的入門,不會因為某個點卡住。也方便後期部落格前端專案,如果環境出現問題,或者需要注意的地方也會同步更新。安裝後,在cmd中輸入node vnpm v出現版本號說明配置成功 大約2分鐘 vue cli是vue腳手架工具,方便打包,部...
Linux網路基礎設施配置
1 tcp ip網路配置檔案 etc sysconfig network scripts ifcfg eth0 etc sysconfig network etc host.conf etc hosts etc resolv.conf etc services 1 etc sysconfig net...