Python爬蟲實現(xiàn)爬取百度百科詞條功能?相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

爬蟲主程序入口
from crawler_test.html_downloader import UrlDownLoader
from crawler_test.html_outer import HtmlOuter
from crawler_test.html_parser import HtmlParser
from crawler_test.url_manager import UrlManager
# 爬蟲主程序入口
class MainCrawler():
def __init__(self):
# 初始值,實例化四大處理器:url管理器,下載器,解析器,輸出器
self.urls = UrlManager()
self.downloader = UrlDownLoader()
self.parser = HtmlParser()
self.outer = HtmlOuter()
# 開始爬蟲方法
def start_craw(self, main_url):
print('爬蟲開始...')
count = 1
self.urls.add_new_url(main_url)
while self.urls.has_new_url():
try:
new_url = self.urls.get_new_url()
print('爬蟲%d,%s' % (count, new_url))
html_cont = self.downloader.down_load(new_url)
new_urls, new_data = self.parser.parse(new_url, html_cont)
# 將解析出的url放入url管理器,解析出的數(shù)據(jù)放入輸出器中
self.urls.add_new_urls(new_urls)
self.outer.conllect_data(new_data)
if count >= 10:# 控制爬取的數(shù)量
break
count += 1
except:
print('爬蟲失敗一條')
self.outer.output()
print('爬蟲結(jié)束。')
if __name__ == '__main__':
main_url = 'https://baike.baidu.com/item/Python/407313'
mc = MainCrawler()
mc.start_craw(main_url)URL管理器
# URL管理器 class UrlManager(): def __init__(self): self.new_urls = set() # 待爬取 self.old_urls = set() # 已爬取 # 添加一個新的url def add_new_url(self, url): if url is None: return elif url not in self.new_urls and url not in self.old_urls: self.new_urls.add(url) # 批量添加url def add_new_urls(self, urls): if urls is None or len(urls) == 0: return else: for url in urls: self.add_new_url(url) # 判斷是否有url def has_new_url(self): return len(self.new_urls) != 0 # 從待爬取的集合中獲取一個url def get_new_url(self): new_url = self.new_urls.pop() self.old_urls.add(new_url) return new_url
網(wǎng)頁下載器
from urllib import request # 網(wǎng)頁下載器 class UrlDownLoader(): def down_load(self, url): if url is None: return None else: rt = request.Request(url=url, method='GET') # 發(fā)GET請求 with request.urlopen(rt) as rp: # 打開網(wǎng)頁 if rp.status != 200: return None else: return rp.read() # 讀取網(wǎng)頁內(nèi)容
網(wǎng)頁解析器
import re
from urllib import parse
from bs4 import BeautifulSoup
# 網(wǎng)頁解析器,使用BeautifulSoup
class HtmlParser():
# 每個詞條中,可以有多個超鏈接
# main_url指url公共部分,如“https://baike.baidu.com/”
def _get_new_url(self, main_url, soup):
# baike.baidu.com/
# <a target="_blank" href="/item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80" rel="external nofollow" >計算機程序設(shè)計語言</a>
new_urls = set()
# 解析出main_url之后的url部分
child_urls = soup.find_all('a', href=re.compile(r'/item/(\%\w{2})+'))
for child_url in child_urls:
new_url = child_url['href']
# 再拼接成完整的url
full_url = parse.urljoin(main_url, new_url)
new_urls.add(full_url)
return new_urls
# 每個詞條中,只有一個描述內(nèi)容,解析出數(shù)據(jù)(詞條,內(nèi)容)
def _get_new_data(self, main_url, soup):
new_datas = {}
new_datas['url'] = main_url
# <dd class="lemmaWgt-lemmaTitle-title"><h2>計算機程序設(shè)計語言</h2>...
new_datas['title'] = soup.find('dd', class_='lemmaWgt-lemmaTitle-title').find('h2').get_text()
# class="lemma-summary" label-module="lemmaSummary"...
new_datas['content'] = soup.find('div', attrs={'label-module': 'lemmaSummary'},
class_='lemma-summary').get_text()
return new_datas
# 解析出url和數(shù)據(jù)(詞條,內(nèi)容)
def parse(self, main_url, html_cont):
if main_url is None or html_cont is None:
return
soup = BeautifulSoup(html_cont, 'lxml', from_encoding='utf-8')
new_url = self._get_new_url(main_url, soup)
new_data = self._get_new_data(main_url, soup)
return new_url, new_data輸出處理器
# 輸出器
class HtmlOuter():
def __init__(self):
self.datas = []
# 先收集數(shù)據(jù)
def conllect_data(self, data):
if data is None:
return
self.datas.append(data)
return self.datas
# 輸出為HTML
def output(self, file='output_html.html'):
with open(file, 'w', encoding='utf-8') as fh:
fh.write('<html>')
fh.write('<head>')
fh.write('<meta charset="utf-8"></meta>')
fh.write('<title>爬蟲數(shù)據(jù)結(jié)果</title>')
fh.write('</head>')
fh.write('<body>')
fh.write(
'<table >')
fh.write('<tr>')
fh.write('<th >URL</th>')
fh.write('<th >詞條</th>')
fh.write('<th >內(nèi)容</th>')
fh.write('</tr>')
for data in self.datas:
fh.write('<tr>')
fh.write('<td >{0}</td>'.format(data['url']))
fh.write('<td >{0}</td>'.format(data['title']))
fh.write('<td >{0}</td>'.format(data['content']))
fh.write('</tr>')
fh.write('</table>')
fh.write('</body>')
fh.write('</html>')效果(部分):

看完上述內(nèi)容,你們掌握Python爬蟲實現(xiàn)爬取百度百科詞條功能的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計公司行業(yè)資訊頻道,感謝各位的閱讀!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
分享名稱:Python爬蟲實現(xiàn)爬取百度百科詞條功能-創(chuàng)新互聯(lián)
文章源于:http://chinadenli.net/article24/dpioce.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供App設(shè)計、外貿(mào)建站、品牌網(wǎng)站設(shè)計、網(wǎng)站收錄、面包屑導(dǎo)航、用戶體驗
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容