主頁 > 知識庫 > 端午節(jié)將至,用Python爬取粽子數(shù)據(jù)并可視化,看看網(wǎng)友喜歡哪種粽子吧!

端午節(jié)將至,用Python爬取粽子數(shù)據(jù)并可視化,看看網(wǎng)友喜歡哪種粽子吧!

熱門標簽:孝感營銷電話機器人效果怎么樣 騰訊地圖標注沒法顯示 商家地圖標注海報 打電話機器人營銷 地圖標注自己和別人標注區(qū)別 海外網(wǎng)吧地圖標注注冊 聊城語音外呼系統(tǒng) 南陽打電話機器人 ai電銷機器人的優(yōu)勢

一、前言

本文就從數(shù)據(jù)爬取、數(shù)據(jù)清洗數(shù)據(jù)可視化,這三個方面入手,但你簡單完成一個小型的數(shù)據(jù)分析項目,讓你對知識能夠有一個綜合的運用。

整個思路如下:

  • 爬取網(wǎng)頁:https://www.jd.com/
  • 爬取說明: 基于京東網(wǎng)站,我們搜索網(wǎng)站“粽子”數(shù)據(jù),大概有100頁。我們爬取的字段,既有一級頁面的相關(guān)信息,還有二級頁面的部分信息;
  • 爬取思路: 先針對某一頁數(shù)據(jù)的一級頁面做一個解析,然后再進行二級頁面做一個解析,最后再進行翻頁操作;
  • 爬取字段: 分別是粽子的名稱(標題)、價格、品牌(店鋪)、類別(口味);
  • 使用工具: requests+lxml+pandas+time+re+pyecharts
  • 網(wǎng)站解析方式: xpath

最終的效果如下:

二、數(shù)據(jù)爬取

京東網(wǎng)站,一般是動態(tài)加載的,也就是說,采用一般方式只能爬取到某個頁面的前30個數(shù)據(jù)(一個頁面一共60個數(shù)據(jù))。

基于本文,我僅用最基本的方法,爬取了每個頁面的前30條數(shù)據(jù)(如果大家有興趣,可以自行下去爬取所有的數(shù)據(jù))。

那么,本文究竟爬取了哪些字段呢?我給大家做一個展示,大家有興趣,可以爬取更多的字段,做更為詳細的分析。

下面為大家展示爬蟲代碼:

import pandas as pd
import requests
from lxml import etree
import chardet
import time
import re
 
def get_CI(url):
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; X64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.80 Safari/537.36'}
    rqg = requests.get(url,headers=headers)
    rqg.encoding = chardet.detect(rqg.content)['encoding']
    html = etree.HTML(rqg.text)
    
    # 價格
    p_price = html.xpath('//div/div[@class="p-price"]/strong/i/text()')
    
    # 名稱
    p_name = html.xpath('//div/div[@class="p-name p-name-type-2"]/a/em')
    p_name = [str(p_name[i].xpath('string(.)')) for i in range(len(p_name))]
    
    # 深層url
    deep_ur1 = html.xpath('//div/div[@class="p-name p-name-type-2"]/a/@href')
    deep_url = ["http:" + i for i in deep_ur1]
    
    # 從這里開始,我們獲取“二級頁面”的信息           
    brands_list = []
    kinds_list = []
    for i in deep_url:
        rqg = requests.get(i,headers=headers)
        rqg.encoding = chardet.detect(rqg.content)['encoding']
        html = etree.HTML(rqg.text)
                          
        # 品牌
        brands = html.xpath('//div/div[@class="ETab"]//ul[@id="parameter-brand"]/li/@title')
        brands_list.append(brands)
                        
        # 類別
        kinds = re.findall('>類別:(.*?)/li>',rqg.text)
        kinds_list.append(kinds)
                           
    data = pd.DataFrame({'名稱':p_name,'價格':p_price,'品牌':brands_list,'類別':kinds_list})
    return(data)
                           
x = "https://search.jd.com/Search?keyword=%E7%B2%BD%E5%AD%90qrst=1wq=%E7%B2%BD%E5%AD%90stock=1page="
url_list = [x + str(i) for i in range(1,200,2)]
res = pd.DataFrame(columns=['名稱','價格','品牌','類別'])
 
# 這里進行“翻頁”操作
for url in url_list:
    res0 = get_CI(url)
    res = pd.concat([res,res0])
    time.sleep(3)
 
# 保存數(shù)據(jù)
res.to_csv('aliang.csv',encoding='utf_8_sig')

最終爬取到的數(shù)據(jù):

三、數(shù)據(jù)清洗

從上圖可以看到,整個數(shù)據(jù)算是很整齊的,不是特別亂,我們只做一些簡單的操作即可。

先使用pandas庫,來讀取數(shù)據(jù)。

import pandas as pd
 
df = pd.read_excel("粽子.xlsx",index_col=False)
df.head()

結(jié)果如下:

我們分別針對 “品牌”、“類別 兩個字段,去掉中括號。

df["品牌"] = df["品牌"].apply(lambda x: x[1:-1])
df["類別"] = df["類別"].apply(lambda x: x[1:-1])
df.head()

結(jié)果如下:

①  粽子品牌排名前10的店鋪

df["品牌"].value_counts()[:10]

結(jié)果如下:

② 粽子口味排名前5的味道

def func1(x):
    if x.find("甜") > 0:
        return "甜粽子"
    else:
        return x
df["類別"] = df["類別"].apply(func1)
df["類別"].value_counts()[1:6]

結(jié)果如下:

③ 粽子售賣價格區(qū)間劃分

def price_range(x): # 按照我的購物習慣,劃分價格
    if x = 50:
        return '50元'
    elif x = 100:
        return '50-100元'
    elif x = 300:
        return '100-300元'
    elif x = 500:
        return '300-500元'
    elif x = 1000:
        return '500-1000元'
    else:
        return '>1000元'
 
df["價格區(qū)間"] = df["價格"].apply(price_range)
df["價格區(qū)間"].value_counts()

結(jié)果如下:

由于數(shù)據(jù)不是很多,沒有很多字段,也就沒有很多亂數(shù)據(jù)。因此,這里也沒有做數(shù)據(jù)去重、缺失值填充等操作。所以,大家可以下去獲取更多字段,更多數(shù)據(jù),用于數(shù)據(jù)分析。

四、數(shù)據(jù)可視化

俗話說:字不如表,表不如圖。通過可視化分析,我們可以將數(shù)據(jù)背后 “隱藏” 的信息,給展現(xiàn)出來。

拓展: 當然,這里只是 “拋磚引玉”,我并沒有獲取太多的數(shù)據(jù),也沒有獲取太多的字段。這里給學習的朋友當一個作業(yè)題,自己下去用更多的數(shù)據(jù)、更多的字段,做更透徹的分析。

在這里,我們基于以下幾個問題,做一個可視化展示,分別是:

  • ① 粽子銷售店鋪Top10柱形圖;
  • ② 粽子口味排名Top5柱形圖;
  • ③ 粽子銷售價格區(qū)間劃分餅圖;
  • ④ 粽子商品名稱詞云圖;

① 粽子銷售店鋪Top10柱形圖

結(jié)論分析:去年,我們分析了一些月餅的數(shù)據(jù),“五芳齋”、“北京稻香村” 這幾個牌子記憶猶新,可謂是做月餅、粽子的老店。像 “三全” 和 “思念”,在我印象中一直以為它們只做水餃和湯圓,粽子是否值得一試呢?當然,這里還有一些新的牌子,像 “諸老大”、“稻香私房” 等一些牌子,大家都可以下去搜索一下。買東西,就是要精挑細選,品牌也重要。

② 粽子口味排名Top5柱形圖

結(jié)論分析:在我印象中,小時候一直吃的最多的就是 “甜粽子”,直到我上了初中才知道,粽子還可以有肉?當然,從圖中可以看出,賣 “鮮肉粽” 的店鋪還是居多,畢竟這個送人,還是顯得高端、大氣一些。這里還有一些口味,像 “蜜棗粽”、“豆沙粽”,我基本沒吃過。如果你送人,你會送什么口味的呢?

③ 粽子銷售價格區(qū)間劃分餅圖

結(jié)論分析:這里,我故意把價格區(qū)間細分。這個餅圖也很符合實際,畢竟每年就過一次端午節(jié),還是以薄利多銷為主,接近80%的粽子,售價都在100元以下。當然,還有一些中檔的粽子,價格在100-300元。大于300元,我覺得也沒有吃的必要,反正我是不會花這么多錢去買粽子。

④ 粽子商品名稱詞云圖

結(jié)論分析:從圖中,可以大致看出商家的賣點了。畢竟是節(jié)日,“送禮”“禮品” 體現(xiàn)了節(jié)日氛圍。“豬肉”、“豆沙” 體現(xiàn)了粽子口味。當然,它是否是 “早餐” 好選擇呢?購買的話,還支持 “團購” 哦。這些字眼,多多少少都會各自吸引一部分人的眼球。

⑤ 圖形組合為大屏

​到此這篇關(guān)于端午節(jié)將至,用Python將粽子數(shù)據(jù)可視化,看看網(wǎng)友喜歡哪種吧!的文章就介紹到這了,更多相關(guān)Python數(shù)據(jù)可視化內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲實戰(zhàn)之爬取京東商品數(shù)據(jù)并實實現(xiàn)數(shù)據(jù)可視化
  • Python爬取股票信息,并可視化數(shù)據(jù)的示例
  • Python爬取數(shù)據(jù)并實現(xiàn)可視化代碼解析
  • python如何爬取網(wǎng)站數(shù)據(jù)并進行數(shù)據(jù)可視化

標簽:六盤水 牡丹江 聊城 南寧 揚州 楊凌 迪慶 撫州

巨人網(wǎng)絡通訊聲明:本文標題《端午節(jié)將至,用Python爬取粽子數(shù)據(jù)并可視化,看看網(wǎng)友喜歡哪種粽子吧!》,本文關(guān)鍵詞  端午節(jié),將至,用,Python,爬取,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《端午節(jié)將至,用Python爬取粽子數(shù)據(jù)并可視化,看看網(wǎng)友喜歡哪種粽子吧!》相關(guān)的同類信息!
  • 本頁收集關(guān)于端午節(jié)將至,用Python爬取粽子數(shù)據(jù)并可視化,看看網(wǎng)友喜歡哪種粽子吧!的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章