sql server大資料插入方法比較多,下面我們先談談bulk insert 方法。
首先,我們建立一張table,如下面t-sql指令碼:
create table testtable2(id int,
amount int check(amount >=1000 and amount<=5000))
假設有這樣的文字資料 testdata.txt:
1 700
2 2000
3 870
4 4500
下面這個語句不檢查約束:
1:bulk insert testtable2
2:from
'd:\testdata\testdata.txt'
3:with
4: (fieldterminator=',',
5: rowterminator='\n')
這個是啟用約束的:
1:bulk insert testtable2
2:from
'd:\testdata\testdata.txt'
3:with
4: (fieldterminator=',',
5: rowterminator='\n',
6: check_constraints)
7:select * from test
還可以使用firstrow和lastrow限制行數。如下copy前三行:
1:bulk insert testtable2
2:from
'd:\testdata\testdata.txt'
3:with
4: (fieldterminator=',',
5: rowterminator='\n',
6: firstrow =1,
7: lastrow=3)
使用errorfile選項 錯誤處理,如下記錄到d:\error.txt
1:bulk insert test
2:from
'd:\testdata\testdata.txt'
3:with
4: (fieldterminator=',',
5: rowterminator='\',
6: firstrow =1,
7: lastrow=3,
8: errorfile ='f:\error.txt',
9: check_constraints)
SQL Server百萬級大資料量刪除
原文 sql server百萬級大資料量刪除 刪除乙個表中的部分資料,資料量百萬級。一般delete from 表 delete from ysh where date 2016 06 21 此操作可能導致,刪除操作執行的時間長 日誌檔案急速增長 針對此情況處理 delete top from de...
MySQL效能優化大資料量插入資料
專案背景 對mysql資料進行初始化加密 假設待加密表 表名student,列名a,擁有5000w資料量 這個方案缺陷在於,修改列 刪除列會重建表,給所有資料行新增一段資料,所以會導致資料量越大越耗時。如果無法繞過新增列,那麼就得使用online ddl,最大限度減少鎖的使用。使用方式 alter ...
大資料量演算法
給40億個不重複的unsigned int的整數,沒排過序的,然後再給乙個數,如何快速判斷這個數是否在那40億個數當中 位圖思想解法 include stdio.h include stdlib.h include memory.h define max num 4294967295 int mai...