目的:專案遷移,從aws遷移到其他雲商c
調研:aws ec2支援匯出成ova格式,c雲商也支援後台匯入
步驟步驟:
1)aws ec2安裝aws cli
參考2)建立1個s3桶(和ec2同在乙個region)
s3桶需要開啟授權,允許ova匯出的賬號id寫入檔案的許可權
如果您以 aws identity and access management (iam) 使用者身份登入,那麼您的 iam 策略中需要配置許可權,才能使用 vm import/export
參考3)啟動匯出任務(目前只支援匯出根目錄所在磁碟的內容,可以把掛載盤的資料mv到根目錄下)
ec2的/root建立乙個file.json
匯出動作命令,執行此命令會有1次自動重啟
aws ec2 create-instance-export-task --instance-id 例項id --target-environment vmware --export-to-s3-task file:
檢視匯出狀態
aws ec2 describe-export-tasks --export-task-ids 任務名稱
取消例項匯出任務
aws ec2 cancel-export-task --export-task-id 任務名稱
匯入到本地的vmare workstation測試,啟動ok,上網正常。
順利完成
如遇到問題,可以檢視問題彙總
bcp匯入到mysql BCP 匯入匯出資料庫資料
使用 bcp 將資料庫遷移到 azure sql database 所有 都是在本機sql上執行 先開啟cmdshell exec sp configure show advanced options 1 goreconfigure goexec sp configure xp cmdshell 1...
從Oracle匯出資料並匯入到Hive
1 配置源和目標的資料連線 源 oracle 目標 hive 2.1.1 系統自帶2.1.1的驅動jar包,如果該版本無法相容你的hive,可將對應版本hive驅動jar包匯入hhdi的lib目錄中。自帶的jar包包括以下檔案 hadoop common 2.6.0.jar hive common ...
sqoop2從hdfs中匯入到mysql
資料準備 hive資料庫檔案 例路徑為 user hadoop hive test 在mysql建立與hive中資料庫結構一樣的資料庫。啟動sqoop2服務 sqoop2 server start 登入客戶端 sqoop2 shell 建立資料庫物件 建立hdfs的link物件 建立乙個job作業 ...