欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

python爬蟲怎么爬取微博熱搜

這篇文章主要介紹python爬蟲怎么爬取微博熱搜,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

網(wǎng)站建設(shè)哪家好,找創(chuàng)新互聯(lián)!專注于網(wǎng)頁設(shè)計(jì)、網(wǎng)站建設(shè)、微信開發(fā)、微信小程序、集團(tuán)企業(yè)網(wǎng)站建設(shè)等服務(wù)項(xiàng)目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了呼和浩特免費(fèi)建站歡迎大家使用!

python有哪些常用庫

python常用的庫:1.requesuts;2.scrapy;3.pillow;4.twisted;5.numpy;6.matplotlib;7.pygama;8.ipyhton等。

本文教程操作環(huán)境:windows7系統(tǒng)、Python 3.9.1,DELL G3電腦。

第一步:導(dǎo)入爬蟲常用的requests,用處是對中文進(jìn)行url編碼。

import re
import time
import requests
# url編碼和解碼
from urllib import parse

第二步:設(shè)置url地址,模擬瀏覽器(這一步可以不用)防止被認(rèn)出是爬蟲程序。

###網(wǎng)址
url="https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6"
###模擬瀏覽器,這個(gè)請求頭windows下都能用
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 
(KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

第三步:利用req uests庫的get()和lxml的etr ee()來獲 取網(wǎng)頁代碼

###獲取html頁面
  html=etree.HTML(requests.get(url,headers=header).text)

第四步:定義函數(shù),用來爬取某一條熱搜,第二行是合成selector用的,后四行 if else 是用來對齊輸出的

def OneHot(i):
    findhot = '#pl_top_realtimehot > table > tbody > tr:nth-child('+str(i)+') > td.td-02 > a'
    hot = r.html.find(str(findhot),first = True)
    if(i<=10):
        print(str(i-1)+'   '+hot.text)
    else:
        print(str(i-1)+'  '+hot.text)

第五步:爬取熱搜

for i in range(1,52):
    OneHot(i)

以上是“python爬蟲怎么爬取微博熱搜”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

網(wǎng)頁題目:python爬蟲怎么爬取微博熱搜
分享鏈接:http://chinadenli.net/article32/gjossc.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站內(nèi)鏈外貿(mào)網(wǎng)站建設(shè)標(biāo)簽優(yōu)化企業(yè)網(wǎng)站制作用戶體驗(yàn)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護(hù)公司