我們知道已經有很多像awtstat這樣的使用perl、c或者c++開發的強大的日誌分析工具,但是同樣也有很多使用php開發並且開源的日誌分析軟體,今天我就收集了一些與大家分享。
1、loganalyzer
loganalyzer是 adiscon的監控軟體產品線中的一部分。可以再windows以及unix環境下執行。loganalyzer本是是免費的,gpl許可的產品。
loganalyzer的原名為phplogcon,他在2023年的3月29日發布了3.0的穩定版,並且正式改名為loganalyzer。
程式執行必須有他們制定的資料支援,在windows環境下, 可以使用monitorware agent、winsyslog、eventreport。在linux環境下可以使用rsyslog。現在yum的源中包含了rsyslog這款軟體,源中的版本是3.22.1,官方的最高版本是4.6.4的穩定版以及6.1.0的開發版。
由於不能使用原生的資料進行分析,我覺得算是他的乙個缺點。
這是一款基於awstat的php開源程式,提供了非常漂亮的分析統計結果的展示介面,支援中文。他的作者是 jon come。
jawstats可以減輕awstats的計算壓力,同時安裝非常簡單,只要稍微修改一下配置檔案就可以執行。配置項也可以非常簡單。
jawstats的使用介面也非常人性化,因為作者原來是乙個ui工程師。在系統中,我們可以非常容易的在不同月份之間切換,還可以在不同站點的日誌之間進行切換。也可以通過web介面來進行分析資料的更新,正好切合我們的需求,只在需要看的時候出報表就好了。
jawstats支援主題,可以進行主題的設計和切換。
總的來說,看完了jawstats的介紹,覺得是比較推薦的一款產品。
3、web analytics. open source
一款gpl協議下的開源軟體,介面和資料獲取方式都是模仿ga的,對於小型站點的分析應該不錯。有對於wordpress和mediawiki的統計支援。
4、log miner
logminer是乙個分析apache或者iis日誌,或者其他支援 combined 或者 w3c擴充套件日誌格式的伺服器。能夠提取並展示包括訪問量、點選、流量、請求數、訪問路徑、瀏覽器和作業系統在內的諸多指標。資料儲存採用的是postgresql,儲存比較精簡。
log miner開發的靈感源自於流行的 webalizer ,但是有一些主要的不同:
使用關係型資料庫作為後端資料儲存,實時生成報表。而 webalizer 則是生成 html 檔案。基於dbms資料庫的方式能夠隨時提供不同形式的資料,但是日誌檔案的解析速度上不如 webalizer。5、webalizerwebalizer只儲存最近12個月的資料,之前的資料則無法再檢視。
webalizer的報告結果是硬編碼的,而logminer則是每個報告對應乙個php類,我們可以靈活的進行定義。
logminer提供了比webalizer更多的報表,比如作業系統和訪問路徑。
webalizer雖然不是php的,但是上面logminer總是拿這個作比較,就順便說一下。用c寫成,日誌分析能力非常出眾,採用html的報表展示形式,是乙個非常流行的日誌分析工具。
6、tracewatch
乙個php+mysql的日誌分析工具,介面不太喜歡,好像就是路徑分析比較有特點,其他的感覺還有點慢,就沒什麼了。
其他還有一些不太知名的工具,就沒有一一細看:
audistat、slimstat、piwik
結合看到的這些工具,針對我們單位的實際需求,感覺 awstat + jawstats 組合更為好一點。因為日誌會收集到單獨的日誌伺服器上,所以效能上的消耗也就不會在意了。接下來看看實際的效果吧。
ps:剛才看aws的文件,看到乙個對比,可能對於特性的了解能夠更加的一目了然。
technorati 標籤: 日誌,apache,log,php,開源
Apache日誌分析
1 獲得訪問前10位的ip位址 cataccess.log awk sort uniq c sort nr head 10 cat access.log awk end 2 訪問次數最多的檔案或頁面,取前20及統計所有訪問ip cat access.log awk sort uniq c sort ...
apache日誌分析
1,檢視apache程序 2,檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3,通過日誌檢視當天ip連線數,過濾重複 cat access log grep 20 oct 2008 awk sort uniq c sort nr 4,當天...
apache的日誌分析
1,檢視apache程序 2,檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3,通過日誌檢視當天ip連線數,過濾重複 cat access log grep 20 oct 2008 awk sort uniq c sort nr 4,當天...