日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

如果你仔細觀察,就不難發(fā)現(xiàn),懂爬蟲、學(xué)習(xí)爬蟲的人越來越多,一方面,互聯(lián)網(wǎng)可以獲取的數(shù)據(jù)越來越多,另一方面,像 Python這樣的編程語言提供越來越多的優(yōu)秀工具,讓爬蟲變得簡單、容易上手。

對于小白來說,爬蟲可能是一件非常復(fù)雜,技術(shù)門檻很高的事情,其實只要掌握正確方法,在短時間內(nèi)也是能夠做到精通的!這里給你一條平滑的,零基礎(chǔ)快速入門的學(xué)習(xí)路徑。

15分鐘教你如何快速掌握Python爬蟲核心技術(shù),批量爬取網(wǎng)絡(luò)圖片

 

先來帶你簡單的爬取一下網(wǎng)絡(luò)圖片:

1. 概述

本文主要實現(xiàn)一個簡單的爬蟲,目的是從一個百度貼吧頁面下載圖片。下載圖片的步驟如下:

(1)獲取網(wǎng)頁html文本內(nèi)容;

(2)分析html中圖片的html標(biāo)簽特征,用正則解析出所有的圖片url鏈接列表;

(3)根據(jù)圖片的url鏈接列表將圖片下載到本地文件夾中。

如果你是零基礎(chǔ)小白,看不懂,沒關(guān)系!完整項目代碼+視頻使用教程+Python編程學(xué)習(xí)資料都給你帶走,有了這些 不怕你學(xué)不會! 不收取任何費用哦

15分鐘教你如何快速掌握Python爬蟲核心技術(shù),批量爬取網(wǎng)絡(luò)圖片

 

2. urllib+re實現(xiàn)

  •  
#!/usr/bin/python
# coding:utf-8
# 實現(xiàn)一個簡單的爬蟲,爬取百度貼吧圖片
import urllib
import re
# 根據(jù)url獲取網(wǎng)頁html內(nèi)容
def getHtmlContent(url): 
 page = urllib.urlopen(url)
 return page.read()
# 從html中解析出所有jpg圖片的url
# 百度貼吧html中jpg圖片的url格式為:<img ... src="XXX.jpg" width=...>
def getJPGs(html): 
 # 解析jpg圖片url的正則 
 jpgReg = re.compile(r'<img.+?src="(.+?.jpg)" width') # 注:這里最后加一個'width'是為了提高匹配精確度 
 # 解析出jpg的url列表 
 jpgs = re.findall(jpgReg,html)
 return jpgs
# 用圖片url下載圖片并保存成制定文件名
defdownloadJPG(imgUrl,fileName): 
 urllib.urlretrieve(imgUrl,fileName)
 # 批量下載圖片,默認(rèn)保存到當(dāng)前目錄下
def batchDownloadJPGs(imgUrls,path ='./'): 
 # 用于給圖片命名 
 count = 1 
 for url in imgUrls:
 downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
 count = count + 1
# 封裝:從百度貼吧網(wǎng)頁下載圖片
def download(url): 
 html = getHtmlContent(url)
 jpgs = getJPGs(html)
 batchDownloadJPGs(jpgs)
def main(): 
 url = 'http://tieba.baidu.com/p/2256306796' 
 download(url)
if __name__ == '__main__':
 main()

運行上面腳本,過幾秒種之后完成下載,可以在當(dāng)前目錄下看到圖片已經(jīng)下載好了:

 

15分鐘教你如何快速掌握Python爬蟲核心技術(shù),批量爬取網(wǎng)絡(luò)圖片

 

3. requests + re實現(xiàn)

下面用requests庫實現(xiàn)下載,把getHtmlContent和downloadJPG函數(shù)都用requests重新實現(xiàn)。

  •  
#!/usr/bin/python
# coding:utf-8
# 實現(xiàn)一個簡單的爬蟲,爬取百度貼吧圖片
import requests
import re
# 根據(jù)url獲取網(wǎng)頁html內(nèi)容
def getHtmlContent(url): 
 page = requests.get(url):
 return page.text
# 從html中解析出所有jpg圖片的url
# 百度貼吧html中jpg圖片的url格式為:<img ... src="XXX.jpg" width=...>
def getJPGs(html): 
 # 解析jpg圖片url的正則 
 jpgReg = re.compile(r'<img.+?src="(.+?.jpg)" width') # 注:這里最后加一個'width'是為了提高匹配精確度 
 # 解析出jpg的url列表 
 jpgs = re.findall(jpgReg,html)
 return jpgs
# 用圖片url下載圖片并保存成制定文件名
def downloadJPG(imgUrl,fileName): 
 # 可自動關(guān)閉請求和響應(yīng)的模塊 
 from contextlib import closing
 with closing(requests.get(imgUrl,stream = True)) as resp:
 with open(fileName,'wb') as f:
 for chunk in resp.iter_content(128):
 f.write(chunk)
# 批量下載圖片,默認(rèn)保存到當(dāng)前目錄下
defbatchDownloadJPGs(imgUrls,path ='./'): 
 # 用于給圖片命名 
 count = 1 
 for url in imgUrls:
 downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
 print '下載完成第{0}張圖片'.format(count)
 count = count + 1
# 封裝:從百度貼吧網(wǎng)頁下載圖片
def download(url): 
 html = getHtmlContent(url)
 jpgs = getJPGs(html)
 batchDownloadJPGs(jpgs)
def main(): 
 url = 'http://tieba.baidu.com/p/2256306796' 
 download(url)
if __name__ == '__main__':
 main()

輸出:和前面一樣。

分享到:
標(biāo)簽:圖片 網(wǎng)絡(luò) Python
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運動步數(shù)有氧達人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定