雖然我沒有做過采集在線詞典,

目前成都創(chuàng)新互聯(lián)公司已為上千的企業(yè)提供了網(wǎng)站建設、域名、雅安服務器托管、網(wǎng)站改版維護、企業(yè)網(wǎng)站設計、丹東網(wǎng)站維護等服務,公司將堅持客戶導向、應用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。
不過看了下百度詞典,可以采集,給個參考思路。
1、做一個本地的單詞庫
2、php循環(huán)一條一條讀取詞語庫
3、php采集 URL地址:百度詞典網(wǎng)址/s?wd=單詞,讀取html源碼php正則匹配內容。
4、數(shù)據(jù)入庫。
問題其實不難,自己都能寫。給你幾個思路吧:
1.在百度知道中,輸入linux,然后會出現(xiàn)列表。復制瀏覽器地址欄內容。
然后翻頁,在復制地址欄內容,看看有什么不同,不同之處,就是你要循環(huán)分頁的i值。
當然這個是笨方法。
2.使用php的file或者file_get_contents函數(shù),獲取鏈接URL的內容。
3.通過php正則表達式,獲取你需要的3個字段內容。
4.寫入數(shù)據(jù)庫。
需要注意的是,百度知道有可能做了防抓取的功能,你剛一抓幾個頁面,可能會被禁止。
建議也就抓10頁數(shù)據(jù)。
其實不難,你肯定寫的出來。 還有,網(wǎng)上應該有很多抓取工具,你找找看,然后將抓下來的數(shù)據(jù)
在做分析。寫入數(shù)據(jù)庫。
簡單的分了幾個步驟:
1、確定采集目標
2、獲取目標遠程頁面內容(curl、file_get_contents)
3、分析頁面html源碼,正則匹配你需要的內容(preg_match、preg_match_all),這一步最為重要,不同頁面正則匹配規(guī)則不一樣
4、入庫
用fopen/file/file_get_contents/curl之類的函數(shù)將遠程頁面獲得內容, 采用正則或過濾之類的獲得自己所需要的東西, 最好寫入相應的數(shù)據(jù)庫保存起來。
新聞標題:php數(shù)據(jù)采集思路 php數(shù)據(jù)采集思路有哪些
瀏覽地址:http://chinadenli.net/article44/hpjsee.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站維護、搜索引擎優(yōu)化、Google、做網(wǎng)站、外貿建站、商城網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)