不管你是待業(yè)還是失業(yè),在這個(gè)被互聯(lián)網(wǎng)圍繞的時(shí)代里,選擇python定向爬蟲,就多了一項(xiàng)技能,還怕找不到工作?,還怕不好找工作?小編就來告訴你這個(gè)專業(yè)的優(yōu)勢(shì)到底體現(xiàn)在哪里:python爬蟲丨重定向問題??。
本文的文字及圖片來源于網(wǎng)絡(luò),僅供學(xué)習(xí)、交流使用,不具有任何商業(yè)用途,版權(quán)歸原作者所有,如有問題請(qǐng)及時(shí)聯(lián)系我們以作處理以下文章來源于騰訊云,作者:周小董重定向問題在使用python爬蟲的過程中難免會(huì)遇到很多301,302的問題。他們出現(xiàn)時(shí),很大程度的影響到我們的爬蟲速度和信息的準(zhǔn)確性。下面針對(duì)不同的模塊給出不同的解決方案。使用requests模塊爬蟲使用requests模塊遇到301和302問題時(shí),如果是用requests,那就在參數(shù)里面關(guān)閉重定向。>>> r = requests.get(' allow_redirects=False)allow_redirects=False#設(shè)置這個(gè)屬性為False則是不允許重定向,反之可以重定向如果使用的scrapy,那就在在設(shè)置里添加禁止重定向。REDIRECT_ENABLED REDIRECT_MAX_TIMES使用scrapy模塊進(jìn)行爬蟲的時(shí)候遇到301很302問題。 yield scrapy.Request(url,meta={ 'title':tit, 'describe':describ, 'home_url':home_url, 'number':number },callback=self.parse_item, dont_filter=True)這是在yield里面加上dont_filter=True,解決了這個(gè)問題,dont_filter的意思是,如果已經(jīng)爬取過得url,也就是沒有出現(xiàn)問題的url,自然而然出現(xiàn)問題的url將會(huì)再次被傳遞,這樣也就解決了重定向問題。
就拿大數(shù)據(jù)說話,優(yōu)勢(shì)一目了然,從事IT行業(yè),打開IT行業(yè)的新大門,找到適合自己的培訓(xùn)機(jī)構(gòu),進(jìn)行專業(yè)和系統(tǒng)的學(xué)習(xí)。
只要一個(gè)電話
我們免費(fèi)為您回電