日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

這是最簡單的Python爬蟲案例,如果你能看懂,那么請你保持信心,因為你已經入門Python爬蟲,只要帶著信心和努力,你的技術能力在日后必定價值15K月薪。

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

這次是要爬取網易新聞,包括新聞標題、作者、來源、發布時間、正文等。

第一步,我們先找到網易新聞的網站,并且打開,選擇其中的某一個分類,比如:國內新聞,然后點擊鼠標的右鍵查看源代碼。

如果你遇到了以下這種情況:

在源代碼中并沒有頁面正中的新聞列表。這說明此網頁采用的是異步的方式。也就是通過api接口獲取的數據。

在確認之后,用F12打開谷歌瀏覽器的控制臺,點擊 Network,我們一直往下拉,發現右側出現了:"… special/00804KVA/cm_guonei_03.js? … "之類的地址,點開Response發現正是我們要找的api接口。

可以看到這些接口的地址都有一定的規律:“cm_guonei_03.js”、“cm_guonei_04.js”,那么就很明顯了:

http://temp.163.com/special/00804KVA/cm_guonei_0(*).js

上面的鏈接也就是我們本次抓取所要請求的地址。

接下來只需要用到的python的兩個庫:

requestsjsonBeautifulSoup

requests庫就是用來進行網絡請求的,說白了就是模擬瀏覽器來獲取資源。由于我們采集的是api接口,它的格式為json,所以要用到json庫來解析。BeautifulSoup是用來解析html文檔的,可以很方便的幫我們獲取指定div的內容。

下面我們正式進入爬蟲程序的編寫

第一步先導入以上三個包:

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

接著我們定義一個獲取指定頁碼內數據的方法:

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

這樣子就得到每個頁碼對應的內容列表:

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

之后通過分析數據可知下圖圈出來的則是需要抓取的標題、發布時間以及新聞內容頁面。

既然現在已經獲取到了內容頁的url,那么接下來開始抓取新聞正文。

在抓取正文之前要先分析一下正文的html頁面,找到正文、作者、來源在html文檔中的位置。

我們看到文章來源在文檔中的位置為:id = “ne_article_source” 的 a 標簽。作者位置為:class = “ep-editor” 的 span 標簽。正文位置為:class = “post_text” 的 div 標簽。

下面采集這三個內容的代碼:

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

到此為止我們所要抓取的所有數據都已經采集了。

那么接下來當然是把它們保存下來,為了方便我直接采取文本的形式來保存。下面是最終的結果:

最簡單的Python爬蟲案例,看得懂說明你已入門,附贈教程

 

格式為json字符串,“標題” : [ ‘日期’, ‘url’, ‘來源’, ‘作者’, ‘正文’ ]

要注意的是目前實現的方式是完全同步的,線性的方式,存在的問題就是采集會非常慢。主要延遲是在網絡IO上,下次可以升級為異步IO,異步采集,有興趣的可以關注下次的文章。

通過本次練手,各位應該會對爬蟲有一個入門級的了解。

分享到:
標簽:爬蟲 Python
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定