搭建Hibench測試flink環境手冊

2021-10-03 11:41:10 字數 4441 閱讀 8503

hibench官網

這裡不搭建全套的hibench盡搭建flink相關的一些元件

本地需要提前準備好

在本地找乙個地方解壓縮

配置並啟動

在zookeeper目錄執行如下命令

# 直接複製樣例配置檔案為需要使用的檔案

cp conf/zoo_sample.cfg conf/zoo.cfg

# 啟動zookeeper

bin/zkserver.sh start

# 不需要zookeeper的時候通過下面命令停止zookeeper

bin/zkserver.sh stop

在本地找乙個地方解壓縮

啟動需要的zookeeper已經在配置檔案config/server.properties中預設配置好了,所以可以直接啟動

bin/kafka-server-start.sh config/server.properties
# 檢視當前所有topic列表

bin/kafka-topics.sh --list --bootstrap-server localhost:9092

# 檢視topic identity裡面的資料

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic identity --from-beginning

參見這個文件

在mac上安裝hadoop

我們採用standalone cluster的部署方式部署

官網指導位址

配置ssh

要求無密碼的,ssh localhost。沒有驗證過不配置是否能用

配置過程參見hadoop的配置

配置flink

conf/flink-conf.yaml

# 原來預設是1個,實際使用不夠用

taskmanager.numberoftaskslots: 30

啟動集群

# 啟動集群

bin/start-cluster.sh

# 停止集群

bin/stop-cluster.sh

參考hibench官網flink配置部分

採用本地集群部署方案,官網說明位址

在官網配置過程的基礎上增加配置

conf/flink-conf.yaml

# 原來預設是1個,實際使用不夠用

taskmanager.numberoftaskslots

:30

git clone [email protected]:intel-bigdata/hibench.git

build專案

官網說明

這裡僅僅構建flink的專案

mvn -pflinkbench -dspark=2.1 -dscala=2.11 clean package

配置hadoop

執行如下命令

cp conf/hadoop.conf.template conf/hadoop.conf
修改配置檔案內容如下

# hadoop的home目錄,根據自己情況填寫

hibench.hadoop.home /users//downloads/2020-03/hadoop-2.10.0

# the path of hadoop executable

hibench.hadoop.executable $/bin/hadoop

# hadoop configraution directory

hibench.hadoop.configure.dir $/etc/hadoop

# the root hdfs path to store hibench data。指定乙個已經存在的目錄,如果沒有需要使用hadoop命令建立

hibench.hdfs.master hdfs://localhost:9000/user/# hadoop release provider. supported value: apache, cdh5, hdp

hibench.hadoop.release apache

配置kafka

conf/hibench.conf 修改如下內容

# 配置自己本地的kafka安裝目錄

hibench.streambench.kafka.home /users//tools/kafka_2.11-2.4.0

# zookeeper host:port of kafka cluster, host1:port1,host2:port2...

hibench.streambench.zkhost localhost:2181

# kafka broker lists, written in mode host:port,host:port,..

hibench.streambench.kafka.brokerlist localhost:9092

配置資料生成

conf/hibench.conf中hibench.streambench.datagen開頭的配置。

這塊都有預設值,可以不管

配置flink到hibench

官網配置位址

執行命令

cp conf/flink.conf.template conf/flink.conf
配置檔案內容如下

# 根據flink安裝位置自己調整

hibench.streambench.flink.home /users//tools/flink-1.10.0

hibench.flink.master localhost:8081

# default parallelism of flink job。這裡的數字必須小於flink中slot數量

hibench.streambench.flink.parallelism 20

hibench.streambench.flink.buffertimeout 10

hibench.streambench.flink.checkpointduration 1000

執行生成資料過程

執行下面命令,可能有錯誤,參見錯誤描述中內容修改

bin/workloads/streaming/identity/prepare/genseeddataset.sh

bin/workloads/streaming/identity/prepare/datagen.sh

執行flink 的job

bin/workloads/streaming/identity/flink/run.sh

生成報告

# 執行生成報告指令碼

bin/workloads/streaming/identity/common/metrics_reader.sh

# 上面的指令碼會列出類似下面的topic名字

flink_identity_1_5_50_1583118115848

flink_identity_1_5_50_1583118729972

flink_identity_1_5_50_1583119730761

flink_identity_1_5_50_1583120900468

flink_identity_1_5_50_1583121043536

flink_identity_1_5_50_1583131260923

flink_identity_1_5_50_1583207113628

__consumer_offsets

identity

test

# 在下面提示後輸入乙個flink_identity開頭的topic

please input the topic:flink_identity_1_5_50_1583118115848

collected 0 results for partition: 11

# 最後控制體輸出資訊中輸出了報告檔名稱

written out metrics to

/users//projects/hibench/report/flink_identity_1_5_50_15831181...

搭建測試環境

測試進行軟體測試的之前,需要搭建好測試環境。那什麼是測試環境呢?簡單的說就是軟體執行的平台,即軟體 硬體和網路三種環境的合集,也就是說 測試環境 軟體 硬體 網路 硬體 包括pc機 筆記本 伺服器 各種終端等。例如要測試photoshop軟體,是要在pc機上測,還是筆記本上測?是在cpu為酷睿的計算...

Hapoop 搭建 (四)搭建後測試

hapoop 搭建 一 設定虛擬機器與主機同乙個網段 hapoop 搭建 二 設定虛擬機器ssh無金鑰登陸 hapoop 搭建 三 hadoop集群搭建 1 啟動後檢視 2 訪問 hdfs 測試 hdfs 目錄 opt modules hadoop 2.8.2 tmp 在hdfs根目錄建立資料夾in...

CSP測試環境搭建

因為csp需要微軟簽名後才可以測試,並且每改動一點都要重新簽名,給csp的除錯帶來諸多不變,於是按照cspdk中的說明在98,2k作業系統下通過替換advapi32.dll不用簽名,就按照說明 從網上下來win2k作業系統進行安裝,替代等操作,結果都是失敗,第乙個現象,我用cspdk目錄下 的adv...