declare @cmd_str varchar(100)
declare @i int
declare @memo nvarchar(50)
set @memo='資料分離'
set @i=0
while @i<=153
begin
insert into t
select top 4000 *
from dbo.gceclub_member_email
select @cmd_str= 'bcp jive.dbo.t' + ' out c:/tddownload/test/' + @memo+cast(@i as nvarchar(20)) + '.xls'+ ' -c -s 127.0.0.1 -u sa -p bizcom'
exec master.dbo.xp_cmdshell @cmd_str
delete
from dbo.gceclub_member_email where col001 in (select col001 from t)
delete from t
set @i=@i+1
end因為sql server2005因為安全原因不能使用xp_cmdshell
可以用以下命令開啟
use master
exec sp_configure 'show advanced options', 1
reconfigure with override
exec sp_configure 'xp_cmdshell', 1
reconfigure with override
exec sp_configure 'show advanced options', 0
關於SXSSFWorkbook匯出大批量資料的問題
前段時間做了乙個匯出大批量資料的功能,但是由於資料過多使用sxssfworkbook會出現記憶體溢位的問題,主要有兩個地方容易溢位。1.乙個是從資料看讀取資料到記憶體時溢位,基本資料超過20w或者2m時會溢位 這個時候改 xms1024m xmx1024m xx permsize 512m xx m...
關於SXSSFWorkbook匯出大批量資料的問題
主要有兩個地方容易溢位。1.乙個是從資料看讀取資料到記憶體時溢位,基本資料超過20w或者2m時會溢位 這個時候改 xms1024m xmx1024m xx permsize 512m xx maxpermsize 1024m 用處都是特別大 2.還有乙個就是在fileoutputstream os ...
solr大批量資料匯出
需求 有100個core,每個core4000w資料量。把所有資料匯出來。方案1.直接對每個core通過httpsolrclient先取出總條數,然後通過每次分頁讀n行,直到讀完,這個方案肯定不行,因為越到後面,讀取速度越慢,不用想都要很長時間。方案2.深度分頁 通過游標,可以使分頁速度很快。sol...