日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

UNIX 技巧: 借助 UNIX 成為更優(yōu)秀的博客( 二 )


要特別注意 Search Word Report(其中顯示了最流行的查詢關(guān)鍵詞和它們被查詢的次數(shù))和 Directory Report(其中顯示您站點(diǎn)上最受歡迎的目錄) 。(查看讀者當(dāng)前對哪些存檔的博客條目感興趣始終是個好主意 。)最后,Request Report 顯示了站點(diǎn)上被請求次數(shù)最多的文件 。您的博客徽標(biāo)和任何經(jīng)常在整個站點(diǎn)中出現(xiàn)的圖形固定在頂部附近,但是通過查看實際內(nèi)容文件(如 .HTML 文件),您可以清楚了解哪些頁面或存檔的博客條目最受讀者的歡迎 。
可能會出現(xiàn)每天或周期性的高峰,您應(yīng)該對此作出反應(yīng) 。然而,長遠(yuǎn)考慮長期趨勢始終是明智的 。如果要在存檔目錄中保留每天的日志,這是很容易做到的 。只需拼接它們,然后將它們?nèi)及l(fā)送到 analog 以進(jìn)行一次性處理 。這可以每周、每月甚至每年進(jìn)行一次以跟蹤趨勢 。使用 zcat(在有些系統(tǒng)上名為 gzcat)來同時解壓縮和拼接任何壓縮的日志 。例如,為了獲得有關(guān) 2006 年 9 月的所有日志的完整報告,可以使用以下命令:
$ zcat www.200609* | analog - | lynx -stdin
知道您的讀者是誰
知道您的讀者來自何處可能很有幫助——所在的域、IP 地址和國家 。若要查找網(wǎng)絡(luò)博客中的所有主機(jī),您可以使用幾個命令行工具來獲得有關(guān)每個主機(jī)名稱的簡要報告 。如果使用 Apache 風(fēng)格的日志記錄,則請求 IP 地址是每行的第一個字段:
$ for i in `cut -d " " -f1 www.200609* | sort -u`; { host $i; }
如果您的日志是壓縮的,則首先使用 zcat 來通過管道輸出解壓縮的文本 ?;蛘?,如果每天的日志在一個 access.log 文件中可用,您可以使用同樣的原理來查看 badblog.example.com 中的同事是否已訪問過您的站點(diǎn):
$ for i in `cut -d " " -f1 access.log | sort -u | head`;
> { host $i; } | fgrep badblog.example.com
您可以基于 web/logs/ 目錄中所具有的壓縮日志來輸出訪問過您的 /blog 目錄的唯一域總數(shù):
$ zcat web/logs/* | fgrep "/blog" | cut -d " " -f1 | sort -u | wc -l
知道他們來自何處
如果某個站點(diǎn)在向您的博客發(fā)送大量讀者,您需要對其進(jìn)行確認(rèn) 。這意味著您應(yīng)該密切注意 referrer——包含指向您的頁面鏈接并出現(xiàn)在標(biāo)頭中的 URL 。該數(shù)據(jù)保存在您的日志中,您可以使用 analog 來提取它 。analog 工具列出 Referrer Report 中的所有 referrer,如清單 2 所示 ??梢允褂胒 標(biāo)志來啟用該報告 。
清單 2. 來自 Referrer Report 頁面的示例
Web Server Statistics for BigBlog
Referrer Report
(Go To: Top: General Summary: Monthly Report: Daily Summary: Hourly Summary: Domain
Report: Organization Report: Referrer Report: Search Word Report: Operating System
Report: Status Code Report: File Size Report: File Type Report: Directory Report:
Request Report)
 
This report lists the referrers (where people followed links from, or pages which
included this site's images).
 
Listing referring URLs with at least 20 requests, sorted by the number of requests.
reqs: URL
----: ---
814: http://www.ibm.com/developerworks/
359: http://www.google.com/search
114: http://badblog.example.com/
102: http://badblog.example.com/2006/09/01/
 81: http://www.google.co.uk/search
530: [not listed: 485 URLs]
________________________________________________________________________________
還可以跳過對報告軟件的使用而直接從命令行獲得 referrer 。在 Apache 風(fēng)格的日志中,referrer 包含在雙引號中,并跟在 IP 地址、日期和時間以及實際請求(也包含在引號中)后面 。可以使用 awk 來提取 referrer;在使用一個雙引號字符作為字段分隔符的情況下,它們是每行的第四個字段 。由于在請求沒有引用 URL 時,Apache 將寫入一個連字符,因此可以結(jié)合使用 grep 命令和 -v 選項來忽略那些行 。作為最后一個技巧,可以按唯一 referrer 的受歡迎程度來排序:

推薦閱讀