驗(yàn)證碼(CAPTCHA)全稱為全自動(dòng)區(qū)分計(jì)算機(jī)和人類的公開(kāi)圖靈測(cè)試(Completely Automated Public Turing test to tell Computersand Humans Apart)。從其全稱可以看出,驗(yàn)證碼用于測(cè)試用戶是真實(shí)的人類還是計(jì)算機(jī)機(jī)器人。

站在用戶的角度思考問(wèn)題,與客戶深入溝通,找到新會(huì)網(wǎng)站設(shè)計(jì)與新會(huì)網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗(yàn),讓設(shè)計(jì)與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個(gè)性化、用戶體驗(yàn)好的作品,建站類型包括:成都網(wǎng)站建設(shè)、成都網(wǎng)站制作、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣、國(guó)際域名空間、虛擬主機(jī)、企業(yè)郵箱。業(yè)務(wù)覆蓋新會(huì)地區(qū)。
1.獲得驗(yàn)證碼圖片
每次加載注冊(cè)網(wǎng)頁(yè)都會(huì)顯示不同的驗(yàn)證驗(yàn)圖像,為了了解表單需要哪些參數(shù),我們可以復(fù)用上一章編寫的parse_form()函數(shù)。
import cookielib,urllib2,pprint import form REGISTER_URL = '' cj=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) html=opener.open(REGISTER_URL).read() form=form.parse_form(html) pprint.pprint(form)
{'_formkey': 'a67cbc84-f291-4ecd-9c2c-93937faca2e2', '_formname': 'register', '_next': '/places/default/index', 'email': '', 'first_name': '', 'last_name': '', 'password': '', 'password_two': '', 'recaptcha_response_field': None} 123456789101112131415161718
上面recaptcha_response_field是存儲(chǔ)驗(yàn)證碼的值,其值可以用Pillow從驗(yàn)證碼圖像獲取出來(lái)。先安裝pip install Pillow,其它安裝Pillow的方法可以參考 。Pillow提價(jià)了一個(gè)便捷的Image類,其中包含了很多用于處理驗(yàn)證碼圖像的高級(jí)方法。下面的函數(shù)使用注冊(cè)頁(yè)的HTML作為輸入?yún)?shù),返回包含驗(yàn)證碼圖像的Image對(duì)象。
import lxml.html from io import BytesIO from PIL import Image tree=lxml.html.fromstring(html) print tree
Element html at 0x7f8b006ba890 img_data_all=tree.cssselect('div#recaptcha img')[0].get('src') print img_data_all
data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAQAAAABgCAIAAAB9kzvfAACAtklEQVR4nO29Z5gcZ5ku3F2dc865
...
rkJggg== img_data=img_data_all.partition(',')[2] print img_data
iVBORw0KGgoAAAANSUhEUgAAAQAAAABgCAIAAAB9kzvfAACAtklEQVR4nO29Z5gcZ5ku3F2dc865
...
rkJggg== binary_img_data=img_data.decode('base64') file_like=BytesIO(binary_img_data) print file_like
_io.BytesIO object at 0x7f8aff6736b0 img=Image.open(file_like) print img
PIL.PngImagePlugin.PngImageFile image mode=RGB size=256x96 at 0x7F8AFF5FAC90 12345678910111213141516171819202122232425
在本例中,這是一張進(jìn)行了Base64編碼的PNG圖像,這種格式會(huì)使用ASCII編碼表示二進(jìn)制數(shù)據(jù)。我們可以通過(guò)在第一個(gè)逗號(hào)處分割的方法移除該前綴。然后,使用Base64解碼圖像數(shù)據(jù),回到最初的二進(jìn)制格式。要想加載圖像,PIL需要一個(gè)類似文件的接口,所以在傳給Image類之前,我們以使用了BytesIO對(duì)這個(gè)二進(jìn)制數(shù)據(jù)進(jìn)行了封裝。
完整代碼:
# -*- coding: utf-8 -*-form.pyimport urllibimport urllib2import cookielibfrom io import BytesIOimport lxml.htmlfrom PIL import Image
REGISTER_URL = ''#REGISTER_URL = ''def extract_image(html):
tree = lxml.html.fromstring(html)
img_data = tree.cssselect('div#recaptcha img')[0].get('src') # remove data:image/png;base64, header
img_data = img_data.partition(',')[-1] #open('test_.png', 'wb').write(data.decode('base64'))
binary_img_data = img_data.decode('base64')
file_like = BytesIO(binary_img_data)
img = Image.open(file_like) #img.save('test.png')
return imgdef parse_form(html):
"""extract all input properties from the form
"""
tree = lxml.html.fromstring(html)
data = {} for e in tree.cssselect('form input'): if e.get('name'):
data[e.get('name')] = e.get('value') return datadef register(first_name, last_name, email, password, captcha_fn):
cj = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
html = opener.open(REGISTER_URL).read()
form = parse_form(html)
form['first_name'] = first_name
form['last_name'] = last_name
form['email'] = email
form['password'] = form['password_two'] = password
img = extract_image(html)#
captcha = captcha_fn(img)#
form['recaptcha_response_field'] = captcha
encoded_data = urllib.urlencode(form)
request = urllib2.Request(REGISTER_URL, encoded_data)
response = opener.open(request)
success = '/user/register' not in response.geturl() #success = '/places/default/user/register' not in response.geturl()
return success12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152
2.光學(xué)字符識(shí)別驗(yàn)證碼
光學(xué)字符識(shí)別(Optical Character Recognition, OCR)用于圖像中抽取文本。本節(jié)中,我們將使用開(kāi)源的Tesseract OCR引擎,該引擎最初由惠普公司開(kāi)發(fā)的,目前由Google主導(dǎo)。Tesseract的安裝說(shuō)明可以從 獲取。然后可以使用pip安裝其Python封裝版本pytesseractpip install pytesseract。
下面我們用光學(xué)字符識(shí)別圖像驗(yàn)證碼:
import pytesseract import form img=form.extract_image(html) pytesseract.image_to_string(img)'' 123456
如果直接把驗(yàn)證碼原始圖像傳給pytesseract,一般不能解析出來(lái)。這是因?yàn)門esseract是抽取更加典型的文本,比如背景統(tǒng)一的書(shū)頁(yè)。下面我們進(jìn)行去除背景噪音,只保留文本部分。驗(yàn)證碼文本一般都是黑色的,背景則會(huì)更加明亮,所以我們可以通過(guò)檢查是否為黑色將文本分離出來(lái),該處理過(guò)程又被稱為閾值化。
img.save('2captcha_1original.png') gray=img.convert('L') gray.save('2captcha_2gray.png') bw=gray.point(lambda x:0 if x1 else 255,'1') bw.save('2captcha_3thresholded.png') 1234567
這里只有閾值小于1的像素(全黑)都會(huì)保留下來(lái),分別得到三張圖像:原始驗(yàn)證碼圖像、轉(zhuǎn)換后的灰度圖和閾值化處理后的黑白圖像。最后我們將閾值化處理后黑白圖像再進(jìn)行Tesseract處理,驗(yàn)證碼中的文字已經(jīng)被成功抽取出來(lái)了。
pytesseract.image_to_string(bw)'language' import Image,pytesseract img=Image.open('2captcha_3thresholded.png') pytesseract.image_to_string(img)'language' 123456789
我們通過(guò)示例樣本測(cè)試,100張驗(yàn)證碼能正確識(shí)別出90張。
import ocr ocr.test_samples()
Accuracy: 90/100 1234
下面是注冊(cè)賬號(hào)完整代碼:
# -*- coding: utf-8 -*-import csvimport stringfrom PIL import Imageimport pytesseractfrom form import registerdef main():
print register('Wu1', 'Being1', 'Wu_Being001@qq.com', 'example', ocr)def ocr(img):
# threshold the image to ignore background and keep text
gray = img.convert('L') #gray.save('captcha_greyscale.png')
bw = gray.point(lambda x: 0 if x 1 else 255, '1') #bw.save('captcha_threshold.png')
word = pytesseract.image_to_string(bw)
ascii_word = ''.join(c for c in word if c in string.letters).lower() return ascii_wordif __name__ == '__main__':
main()1234567891011121314151617181920212223
我們可以進(jìn)一步改善OCR性能:
- 實(shí)驗(yàn)不同閾值
- 腐蝕閾值文本,突出字符形狀
- 調(diào)整圖像大小
- 根據(jù)驗(yàn)證碼字體訓(xùn)練ORC工具
- 限制結(jié)果為字典單詞
1)首先你要明白爬蟲(chóng)怎樣工作。
想象你是一只蜘蛛,現(xiàn)在你被放到了互聯(lián)“網(wǎng)”上。那么,你需要把所有的網(wǎng)頁(yè)都看一遍。怎么辦呢?沒(méi)問(wèn)題呀,你就隨便從某個(gè)地方開(kāi)始,比如說(shuō)人民日?qǐng)?bào)的首頁(yè),這個(gè)叫initial pages,用$表示吧。
在人民日?qǐng)?bào)的首頁(yè),你看到那個(gè)頁(yè)面引向的各種鏈接。于是你很開(kāi)心地從爬到了“國(guó)內(nèi)新聞”那個(gè)頁(yè)面。太好了,這樣你就已經(jīng)爬完了倆頁(yè)面(首頁(yè)和國(guó)內(nèi)新聞)!暫且不用管爬下來(lái)的頁(yè)面怎么處理的,你就想象你把這個(gè)頁(yè)面完完整整抄成了個(gè)html放到了你身上。
突然你發(fā)現(xiàn), 在國(guó)內(nèi)新聞這個(gè)頁(yè)面上,有一個(gè)鏈接鏈回“首頁(yè)”。作為一只聰明的蜘蛛,你肯定知道你不用爬回去的吧,因?yàn)槟阋呀?jīng)看過(guò)了啊。所以,你需要用你的腦子,存下你已經(jīng)看過(guò)的頁(yè)面地址。這樣,每次看到一個(gè)可能需要爬的新鏈接,你就先查查你腦子里是不是已經(jīng)去過(guò)這個(gè)頁(yè)面地址。如果去過(guò),那就別去了。
好的,理論上如果所有的頁(yè)面可以從initial page達(dá)到的話,那么可以證明你一定可以爬完所有的網(wǎng)頁(yè)。
那么在python里怎么實(shí)現(xiàn)呢?
很簡(jiǎn)單
import Queue
initial_page = "初始化頁(yè)"
url_queue = Queue.Queue()
seen = set()
seen.insert(initial_page)
url_queue.put(initial_page)
while(True): #一直進(jìn)行直到海枯石爛
if url_queue.size()0:
current_url = url_queue.get() #拿出隊(duì)例中第一個(gè)的url
store(current_url) #把這個(gè)url代表的網(wǎng)頁(yè)存儲(chǔ)好
for next_url in extract_urls(current_url): #提取把這個(gè)url里鏈向的url
if next_url not in seen:
seen.put(next_url)
url_queue.put(next_url)
else:
break
寫得已經(jīng)很偽代碼了。
所有的爬蟲(chóng)的backbone都在這里,下面分析一下為什么爬蟲(chóng)事實(shí)上是個(gè)非常復(fù)雜的東西——搜索引擎公司通常有一整個(gè)團(tuán)隊(duì)來(lái)維護(hù)和開(kāi)發(fā)。
2)效率
如果你直接加工一下上面的代碼直接運(yùn)行的話,你需要一整年才能爬下整個(gè)豆瓣的內(nèi)容。更別說(shuō)Google這樣的搜索引擎需要爬下全網(wǎng)的內(nèi)容了。
問(wèn)題出在哪呢?需要爬的網(wǎng)頁(yè)實(shí)在太多太多了,而上面的代碼太慢太慢了。設(shè)想全網(wǎng)有N個(gè)網(wǎng)站,那么分析一下判重的復(fù)雜度就是N*log(N),因?yàn)樗芯W(wǎng)頁(yè)要遍歷一次,而每次判重用set的話需要log(N)的復(fù)雜度。OK,OK,我知道python的set實(shí)現(xiàn)是hash——不過(guò)這樣還是太慢了,至少內(nèi)存使用效率不高。
通常的判重做法是怎樣呢?Bloom Filter. 簡(jiǎn)單講它仍然是一種hash的方法,但是它的特點(diǎn)是,它可以使用固定的內(nèi)存(不隨url的數(shù)量而增長(zhǎng))以O(shè)(1)的效率判定url是否已經(jīng)在set中。可惜天下沒(méi)有白吃的午餐,它的唯一問(wèn)題在于,如果這個(gè)url不在set中,BF可以100%確定這個(gè)url沒(méi)有看過(guò)。但是如果這個(gè)url在set中,它會(huì)告訴你:這個(gè)url應(yīng)該已經(jīng)出現(xiàn)過(guò),不過(guò)我有2%的不確定性。注意這里的不確定性在你分配的內(nèi)存足夠大的時(shí)候,可以變得很小很少。一個(gè)簡(jiǎn)單的教程:Bloom Filters by Example
注意到這個(gè)特點(diǎn),url如果被看過(guò),那么可能以小概率重復(fù)看一看(沒(méi)關(guān)系,多看看不會(huì)累死)。但是如果沒(méi)被看過(guò),一定會(huì)被看一下(這個(gè)很重要,不然我們就要漏掉一些網(wǎng)頁(yè)了!)。 [IMPORTANT: 此段有問(wèn)題,請(qǐng)暫時(shí)略過(guò)]
好,現(xiàn)在已經(jīng)接近處理判重最快的方法了。另外一個(gè)瓶頸——你只有一臺(tái)機(jī)器。不管你的帶寬有多大,只要你的機(jī)器下載網(wǎng)頁(yè)的速度是瓶頸的話,那么你只有加快這個(gè)速度。用一臺(tái)機(jī)子不夠的話——用很多臺(tái)吧!當(dāng)然,我們假設(shè)每臺(tái)機(jī)子都已經(jīng)進(jìn)了最大的效率——使用多線程(python的話,多進(jìn)程吧)。
3)集群化抓取
爬取豆瓣的時(shí)候,我總共用了100多臺(tái)機(jī)器晝夜不停地運(yùn)行了一個(gè)月。想象如果只用一臺(tái)機(jī)子你就得運(yùn)行100個(gè)月了...
那么,假設(shè)你現(xiàn)在有100臺(tái)機(jī)器可以用,怎么用python實(shí)現(xiàn)一個(gè)分布式的爬取算法呢?
我們把這100臺(tái)中的99臺(tái)運(yùn)算能力較小的機(jī)器叫作slave,另外一臺(tái)較大的機(jī)器叫作master,那么回顧上面代碼中的url_queue,如果我們能把這個(gè)queue放到這臺(tái)master機(jī)器上,所有的slave都可以通過(guò)網(wǎng)絡(luò)跟master聯(lián)通,每當(dāng)一個(gè)slave完成下載一個(gè)網(wǎng)頁(yè),就向master請(qǐng)求一個(gè)新的網(wǎng)頁(yè)來(lái)抓取。而每次slave新抓到一個(gè)網(wǎng)頁(yè),就把這個(gè)網(wǎng)頁(yè)上所有的鏈接送到master的queue里去。同樣,bloom filter也放到master上,但是現(xiàn)在master只發(fā)送確定沒(méi)有被訪問(wèn)過(guò)的url給slave。Bloom Filter放到master的內(nèi)存里,而被訪問(wèn)過(guò)的url放到運(yùn)行在master上的Redis里,這樣保證所有操作都是O(1)。(至少平攤是O(1),Redis的訪問(wèn)效率見(jiàn):LINSERT – Redis)
考慮如何用python實(shí)現(xiàn):
在各臺(tái)slave上裝好scrapy,那么各臺(tái)機(jī)子就變成了一臺(tái)有抓取能力的slave,在master上裝好Redis和rq用作分布式隊(duì)列。
代碼于是寫成
#slave.py
current_url = request_from_master()
to_send = []
for next_url in extract_urls(current_url):
to_send.append(next_url)
store(current_url);
send_to_master(to_send)
#master.py
distributed_queue = DistributedQueue()
bf = BloomFilter()
initial_pages = ""
while(True):
if request == 'GET':
if distributed_queue.size()0:
send(distributed_queue.get())
else:
break
elif request == 'POST':
bf.put(request.url)
好的,其實(shí)你能想到,有人已經(jīng)給你寫好了你需要的:darkrho/scrapy-redis · GitHub
4)展望及后處理
雖然上面用很多“簡(jiǎn)單”,但是真正要實(shí)現(xiàn)一個(gè)商業(yè)規(guī)模可用的爬蟲(chóng)并不是一件容易的事。上面的代碼用來(lái)爬一個(gè)整體的網(wǎng)站幾乎沒(méi)有太大的問(wèn)題。
但是如果附加上你需要這些后續(xù)處理,比如
有效地存儲(chǔ)(數(shù)據(jù)庫(kù)應(yīng)該怎樣安排)
有效地判重(這里指網(wǎng)頁(yè)判重,咱可不想把人民日?qǐng)?bào)和抄襲它的大民日?qǐng)?bào)都爬一遍)
有效地信息抽取(比如怎么樣抽取出網(wǎng)頁(yè)上所有的地址抽取出來(lái),“朝陽(yáng)區(qū)奮進(jìn)路中華道”),搜索引擎通常不需要存儲(chǔ)所有的信息,比如圖片我存來(lái)干嘛...
及時(shí)更新(預(yù)測(cè)這個(gè)網(wǎng)頁(yè)多久會(huì)更新一次)
如你所想,這里每一個(gè)點(diǎn)都可以供很多研究者十?dāng)?shù)年的研究。雖然如此,
“路漫漫其修遠(yuǎn)兮,吾將上下而求索”。
所以,不要問(wèn)怎么入門,直接上路就好了:)
本來(lái)是想爬取之后作最佳羈絆組合推算,但是遇到知識(shí)點(diǎn)無(wú)法消化(知識(shí)圖譜),所以暫時(shí)先不組合了,實(shí)力有限
庫(kù)的安裝
1.requests? #爬取棋子數(shù)據(jù)
2.json? #棋子數(shù)據(jù)為js動(dòng)態(tài),需使用json解析
3.BeautifulSoup
實(shí)戰(zhàn)前先新建個(gè)lol文件夾作為工作目錄,并創(chuàng)建子目錄data,用于存放數(shù)據(jù)。
1.爬取數(shù)據(jù),新建個(gè)py文件,用于爬取云頂數(shù)據(jù),命名為data.py
1.1定義個(gè)req函數(shù),方便讀取。//需設(shè)定編碼格式,否則會(huì)出現(xiàn)亂碼
def Re_data(url):
re = requests.get(url)
re.encoding = 'gbk'
data = json.loads(re.text)
return data['data']
1.2定義個(gè)Get函數(shù),用于讀取數(shù)據(jù)并使用保存函數(shù)進(jìn)行保存數(shù)據(jù),保存格式為json。
def Get_data():
# 獲取數(shù)據(jù)并保存至data目錄
base_url = ''
chess = Re_data(base_url + 'chess.js')
race = Re_data(base_url + 'race.js')
job = Re_data(base_url + 'job.js')
equip = Re_data(base_url + 'equip.js')
Save_data(chess,race,job,equip)
1.3定義save函數(shù)實(shí)現(xiàn)讀取的數(shù)據(jù)進(jìn)行文件保存,保存目錄為工作目錄下的data文件夾。
def Save_data(t_chess,t_race,t_job,t_equip):
with open('./data/chess.json','w') as f:
json.dump(t_chess,f,indent='\t')
with open('./data/race.json','w') as f:
json.dump(t_race,f,indent='\t')
with open('./data/job.json','w') as f:
json.dump(t_job,f,indent='\t')
with open('./data/equip.json','w') as f:
json.dump(t_equip,f,indent='\t')
1.4定義主函數(shù)main跑起來(lái)
if __name__ == '__main__':
start = time.time()
Get_data()
print('運(yùn)行時(shí)間:' + str(time.time() - start) + '秒')
至此,數(shù)據(jù)爬取完成。
2.種族和職業(yè)進(jìn)行組合。
2.1未完成 //未完成,使用窮舉方法進(jìn)行組合會(huì)出現(xiàn)內(nèi)存不夠?qū)е陆M合失敗(for循環(huán)嵌套導(dǎo)致數(shù)組內(nèi)存超限)
//待學(xué)習(xí),使用知識(shí)圖譜建立組合優(yōu)選,可參考:
期間遇到的問(wèn)題:
1.爬取棋子數(shù)據(jù)時(shí)為動(dòng)態(tài)js加載,需通過(guò)json模塊的loads方法獲取
2.3層for循環(huán)嵌套數(shù)據(jù)量大,導(dǎo)致計(jì)算失敗,需優(yōu)化計(jì)算方法。
網(wǎng)站題目:python爬蟲(chóng)函數(shù)詳解 python爬蟲(chóng)方法
轉(zhuǎn)載注明:http://chinadenli.net/article8/doopjip.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供移動(dòng)網(wǎng)站建設(shè)、網(wǎng)站排名、網(wǎng)站內(nèi)鏈、網(wǎng)站改版、用戶體驗(yàn)、軟件開(kāi)發(fā)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)