今天使用phpexce外掛程式導不出資料,發現是資料量過大的原因,這裡只做簡單的處理。
1、匯出超時處理:在執行頁面新增:set_time_limit(0);
2、記憶體溢位:在執行頁面新增:ini_set("memory_limit", "1024m");
簡單來說就是在執行頁面新增了以下兩行**:
set_time_limit(0);
ini_set("memory_limit", "1024m");
我這是1萬多的資料處理,如資料量更大,可以參考:
的處理方式
3. 如果介面報502錯誤
zb@zb-computer:/usr/local/php/etc$ pwd
/usr/local/php/etc
php-fpm.conf
request_terminate_timeout = 1000 修改最大執行極限時間
4.nginx 最大執行時間,如果沒配置好,也會報504 nginx.conf
zb@zb-computer:/usr/local/nginx/conf$ pwd
/usr/local/nginx/conf
fastcgi_connect_timeout 1200;
fastcgi_send_timeout 1200;
fastcgi_read_timeout 1200;
-----主要應該是後面兩個引數,設定為20分鐘。當然我沒做把第乙個引數改小的測試,條件允許的話可測試下。
不一定都是php-fpm nginx 底層配置的問題,也可能是**的問題! 表單提交資料量過大導致資料丟失的問題
今天遇到乙個問題,通過post方式提交資料量過大,在後台接收不到資料,post沒有資料限制,檢視 發現確實是post提交,問題出在 了呢?通過檢視資料,發現tomcat預設傳輸最大的資料限制為2m,最後的解決辦法是設大tomcat的conf下的server.xml中8080connector的max...
表單提交資料量過大導致資料丟失的問題
今天有朋友遇到乙個問題,通過post方式提交資料量過大,在後台接收不到資料,當時第乙個感覺是get方式有資料限制,post沒有資料限制,可是檢視 發現確實是post提交,問題出在 了呢?通過檢視資料,發現tomcat預設傳輸最大的資料限制為2m,最後的解決辦法是設大tomcat的conf下的serv...
資料庫資料量過大處理 分表
記錄一下,個人理解。資料表中資料太多的話,剛開始可以用索引之類的來優化。隨著業務多。難免效能就下來了。這時候就需要去思考,怎麼處理,就想到了把資料來源分開,把一張表分開成幾張表。首先如何判斷用不用判斷,以及分表後的後端,綜合考慮之後,直接開幹。exec sp spaceused 表名 查詢表所佔空間...