這篇文章主要介紹了selenium怎么解決python爬蟲亂碼問題,具有一定借鑒價(jià)值,需要的朋友可以參考下。希望大家閱讀完這篇文章后大有收獲。下面讓小編帶著大家一起了解一下。
創(chuàng)新互聯(lián)建站于2013年成立,先為奎屯等服務(wù)建站,奎屯等地企業(yè),進(jìn)行企業(yè)商務(wù)咨詢服務(wù)。為奎屯企業(yè)網(wǎng)站制作PC+手機(jī)+微官網(wǎng)三網(wǎng)同步一站式服務(wù)解決您的所有建站問題。
在用requests庫(kù)對(duì)博客進(jìn)行爬取時(shí),發(fā)現(xiàn)亂碼報(bào)錯(cuò),如下圖所示:
網(wǎng)上查找了一些方法,以為是遇到了網(wǎng)站加密處理。后來(lái)發(fā)現(xiàn) 通過F12還 是能獲取網(wǎng)頁(yè)的元素,那么有什么辦法能規(guī)避亂碼問題呢?答案是:用selenium.
效果如下
代碼
# coding=utf-8 # @Auther : "鵬哥賊優(yōu)秀" # @Date : 2019/10/16 # @Software : PyCharm from selenium import webdriver url = 'https://blog.csdn.net/yuzipeng' driver = webdriver.Chrome("F:\\Python成長(zhǎng)之路\\chromedriver.exe") driver.get(url) urls = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]') blogurl = ['https://blog.csdn.net/yuzipeng/article/details/' + url.get_attribute('data-articleid') for url in urls] titles = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]/h5/a') blogtitle = [title.text for title in titles] myblog = {k:v for k,v in zip(blogtitle,blogurl)} for k,v in myblog.items(): print(k,v) driver.close()
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享selenium怎么解決python爬蟲亂碼問題內(nèi)容對(duì)大家有幫助,同時(shí)也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,遇到問題就找創(chuàng)新互聯(lián),詳細(xì)的解決方法等著你來(lái)學(xué)習(xí)!
新聞名稱:selenium怎么解決python爬蟲亂碼問題
本文網(wǎng)址:http://chinadenli.net/article32/jgjcpc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站策劃、網(wǎng)站內(nèi)鏈、外貿(mào)網(wǎng)站建設(shè)、定制網(wǎng)站、網(wǎng)站設(shè)計(jì)、自適應(yīng)網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)