作業系統:centos7.0
gpu:quadro p5000
tensorflow:1.10
cuda version: 10.1
python3.6.2
使用tensorboard的基本思想是:在tensorflow程式裡輸出smmary到某個目錄,然後用啟動tensorboard,指定剛才的目錄。tensorboard通過web服務形式提供http訪問服務。通過任意瀏覽器訪問檢視資料。
啟動tensorboard:
python3 /usr/local/python3/lib/python3.6/site-packages/tensorboard/main.py --host 192.168.1.254 --logdir=/home/hda/src/logs
其中:「 /usr/local/python3/lib/python3.6/」是python3的安裝目錄,根據自己計算機替換
–host 192.168.1.254 ip位址根據自己計算機替換
–logdir=/home/hda/src/logs 這個目錄是tensorflow程式中輸出summary的日誌目錄,根據自己實際**替換
如果在執行tensorflow的計算機上直接像檢視,–host 192.168.1.254 可以去掉。然後再同一臺電腦的瀏覽器裡訪問 http://localhost:6006 即可。
如果打算用同一區域網上的其它電腦檢視資料,則必須加如 --host 引數,然後再其它電腦的瀏覽器裡訪問 http://[ip]:6006
如果是centos則,預設情況下6006埠可能未開放,需要在防火牆裡增加6006埠:
tensorflow例子關鍵**:
路徑定義,用於上面命令中 --logdir
summary_path = "./logs/"
定義要記錄的張量
tf.summary.scalar("loss", cost)
每個訓練迭代迴圈裡寫入
merged_summary = tf.summary.merge_all()
summary_writer1 = tf.summary.filewriter(summary_path+"trainloss", tf.get_default_graph())
batch_cost, _, summary = session.run([cost, optimizer, merged_summary], feed)
summary_writer1.add_summary(summary, current_epoch)
summary_writer1.flush()
上述**只是乙個完整程式中的部分關鍵**。 訓練過程 GPU訓練
為什麼y2b的8m,8張普通tt為啥要跑幾個月?因為gpu其實有60 的時間都是在等待資料填充完成,簡直蠢。1 換個固態硬碟試試?沒用。問題出在系統匯流排上,一幀的資料量入視訊記憶體後有1.58g 當前最優的分布式訓練方式是通過引數伺服器 parameter server 執行的同步隨機梯度下降演算...
Adaboost 訓練過程
每個haar特徵對應看乙個弱分類器,但並不是任伺乙個haar特徵都能較好的描述人臉灰度分布的某一特點,如何從大量的haar特徵中挑選出最優的haar特徵並製作成分類器用於人臉檢測,這是adaboost演算法訓練過程所要解決的關鍵問題。paul viola和michael jones於2001年將ad...
Q learning訓練過程
下面的偽 說明了我們如何訓練,來得到乙個盡量完美的q 初始化 q while q 未收斂 初始化小鳥的位置s,開始新一輪遊戲 while s 死亡狀態 使用策略 獲得動作a s 使用動作a進行遊戲,獲得小鳥的新位置s 與獎勵r s,a q s,a 1 q s,a r s,a max q s a 更新...