欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

python學習-Selenium爬蟲之使用代理ip的方法-創(chuàng)新互聯(lián)

建始網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)!從網(wǎng)頁設計、網(wǎng)站建設、微信開發(fā)、APP開發(fā)、自適應網(wǎng)站建設等網(wǎng)站項目制作,到程序開發(fā),運營維護。創(chuàng)新互聯(lián)從2013年成立到現(xiàn)在10年的時間,我們擁有了豐富的建站經(jīng)驗和運維經(jīng)驗,來保證我們的工作的順利進行。專注于網(wǎng)站建設就選創(chuàng)新互聯(lián)。

今天給大家分享的是如何在爬取數(shù)據(jù)的時候防止 IP被封,今天給大家分享兩種方法,希望大家可以認真學習,再也不用擔心被封IP啦。

第一種:

降低訪問速度,我們可以使用 time模塊中的sleep,使程序每運行一次后就睡眠1s,這樣的話就可以大大的減少ip被封的幾率

第二種:

為了提高效率,我們可以使用代理 ip來解決,ip是億牛云的動態(tài)轉發(fā)代理,以下是代理配置過程的示例

Selenium ?

     from   selenium   import  webdriver

     import   string

     import   zipfile

     # 代理服務器

    proxyHost = "t.16yun.cn"

    proxyPort = "31111"

     # 代理隧道驗證信息

    proxyUser = "username"

    proxyPass = "password"

     def   create_proxy_auth_extension (proxy_host, proxy_port,

                                   proxy_username, proxy_password,

                                   scheme= 'http' , plugin_path= None ):

         if  plugin_path is None :

            plugin_path = r 'C:/{}_{}@t.16yun.zip' .format(proxy_username, proxy_password)

        manifest_json = """        {            "version": "1.0.0",            "manifest_version": 2,            "name": "16YUN Proxy",            "permissions": [                "proxy",                "tabs",                "unlimitedStorage",                "storage",                "",                "webRequest",                "webRequestBlocking"            ],            "background": {                "scripts": ["background.js"]            },            "minimum_chrome_version":"22.0.0"        }        """

        background_js = string.Template(

             """            var config = {                mode: "fixed_servers",                rules: {                    singleProxy: {                        scheme: "${scheme}",                        host: "${host}",                        port: parseInt(${port})                    },                    bypassList: ["foobar.com"]                }              };

            chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

            function callbackFn(details) {                return {                    authCredentials: {                        username: "${username}",                        password: "${password}"                    }                };            }

            chrome.webRequest.onAuthRequired.addListener(                callbackFn,                {urls: [""]},                ['blocking']            );            """

        ).substitute(

            host=proxy_host,

            port=proxy_port,

            username=proxy_username,

            password=proxy_password,

            scheme=scheme,

        )

         with  zipfile.ZipFile(plugin_path, 'w' ) as  zp:

            zp.writestr( "manifest.json" , manifest_json)

            zp.writestr( "background.js" , background_js)

         return  plugin_path

    proxy_auth_plugin_path = create_proxy_auth_extension(

        proxy_host=proxyHost,

        proxy_port=proxyPort,

        proxy_username=proxyUser,

        proxy_password=proxyPass)

    option = webdriver.ChromeOptions()

    option.add_argument( "--start-maximized" )

     # 如報錯 chrome-extensions

     # option.add_argument("--disable-extensions")

    option.add_extension(proxy_auth_plugin_path)

    driver = webdriver.Chrome(chrome_options=option)

    driver.get( "http://httpbin.org/ip" )

好 了,今天關于 python學習的分享就到這里,上邊的那段代碼可以直接使用,但是里邊的代理應該已經(jīng)過期,大家在使用的時候可能需要聯(lián)系代理商開通服務,最后呢希望大家能夠收藏起來,要記得做筆記哦。好記性不如爛筆頭。

當前題目:python學習-Selenium爬蟲之使用代理ip的方法-創(chuàng)新互聯(lián)
文章網(wǎng)址:http://chinadenli.net/article16/dechgg.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供Google、品牌網(wǎng)站設計、面包屑導航、標簽優(yōu)化、營銷型網(wǎng)站建設、外貿(mào)網(wǎng)站建設

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設