主頁(yè) > 知識(shí)庫(kù) > python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析

python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析

熱門標(biāo)簽:315電話機(jī)器人廣告 地圖標(biāo)注微信發(fā)送位置不顯示 房產(chǎn)電銷外呼系統(tǒng) 地圖標(biāo)注的意義點(diǎn) 上海機(jī)器人外呼系統(tǒng)哪家好 南京銷售外呼系統(tǒng)軟件 地圖制圖標(biāo)注位置改變是移位嗎 浙江電銷卡外呼系統(tǒng)好用嗎 蓋州市地圖標(biāo)注

一、前言

春節(jié)檔賀歲片《你好,李煥英》,于2月23日最新數(shù)據(jù)出來(lái)后,票房已經(jīng)突破42億,并且趕超其他賀歲片,成為2021的一匹黑馬。

從小品演員再到導(dǎo)演,賈玲處女作《你好李煥英》,為何能這么火?接下來(lái)榮仔帶你運(yùn)用Python借助電影網(wǎng)站從各個(gè)角度剖析這部電影喜得高票房的原因。

二、影評(píng)爬取并詞云分析

毫無(wú)疑問(wèn), 中國(guó)的電影評(píng)論伴隨著整個(gè)社會(huì)文化語(yǔ)境的變遷以及不同場(chǎng)域和載體的更迭正發(fā)生著明顯的變化。在紙質(zhì)類影評(píng)統(tǒng)御了中國(guó)電影評(píng)論一百年后,又分別出現(xiàn)了電視影評(píng)、網(wǎng)絡(luò)影評(píng)、新媒體影評(píng)等不同業(yè)態(tài)相結(jié)合的批評(píng)話語(yǔ)形式。電影評(píng)論的生產(chǎn)與傳播確實(shí)已經(jīng)進(jìn)入一個(gè)民主多元化的時(shí)代。

電影評(píng)論的目的在于分析、鑒定和評(píng)價(jià)蘊(yùn)含在銀幕中的審美價(jià)值、認(rèn)識(shí)價(jià)值、社會(huì)意義、鏡頭語(yǔ)等方面,達(dá)到拍攝影片的目的,解釋影片中所表達(dá)的主題,既能通過(guò)分析影片的成敗得失,幫助導(dǎo)演開(kāi)闊視野,提高創(chuàng)作水平,以促進(jìn)電影藝術(shù)的繁榮和發(fā)展;又能通過(guò)分析和評(píng)價(jià),影響觀眾對(duì)影片的理解和鑒賞,提高觀眾的欣賞水平,從而間接促進(jìn)電影藝術(shù)的發(fā)展。

2.1 網(wǎng)站選取

python爬蟲(chóng)實(shí)戰(zhàn)——爬取豆瓣影評(píng)數(shù)據(jù)

2.2 爬取思路

爬取豆瓣影評(píng)數(shù)據(jù)步驟:1、獲取網(wǎng)頁(yè)請(qǐng)求
                                        2、解析獲取的網(wǎng)頁(yè)
                                        3、提取影評(píng)數(shù)據(jù)
                                        4、保存文件
                                        5、詞云分析

2.2.1 獲取網(wǎng)頁(yè)請(qǐng)求

該實(shí)例選擇采用selenium庫(kù)進(jìn)行編碼。

 導(dǎo)庫(kù)

# 導(dǎo)入庫(kù)
from selenium import webdriver

瀏覽器驅(qū)動(dòng)

# 瀏覽驅(qū)動(dòng)器路徑
chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe'
driver = webdriver.Chrome(chromedriver)

 打開(kāi)網(wǎng)頁(yè)

driver.get("此處填寫(xiě)網(wǎng)址")

2.2.2解析獲取的網(wǎng)頁(yè)

F12鍵進(jìn)入開(kāi)發(fā)者工具,并確定數(shù)據(jù)提取位置,copy其中的XPath路徑

2.2.3提取影評(píng)數(shù)據(jù)

采用XPath進(jìn)行影評(píng)數(shù)據(jù)提取

driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span')

2.2.4保存文件

# 新建文件夾及文件
basePathDirectory = "Hudong_Coding"
if not os.path.exists(basePathDirectory):
        os.makedirs(basePathDirectory)
baiduFile = os.path.join(basePathDirectory, "hudongSpider.txt")
# 若文件不存在則新建,若存在則追加寫(xiě)入
if not os.path.exists(baiduFile):
        info = codecs.open(baiduFile, 'w', 'utf-8')
else:
        info = codecs.open(baiduFile, 'a', 'utf-8')

txt文件寫(xiě)入

info.writelines(elem.text + '\r\n')

2.2.5 詞云分析

詞云分析用到了jieba庫(kù)和worldcloud庫(kù)。

值得注意的是,下圖顯示了文字的選取路徑方法。

2.3 代碼總觀

2.3.1 爬取代碼

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import os
import codecs
from selenium import webdriver
 
# 獲取摘要信息
def getFilmReview():
    try:
        # 新建文件夾及文件
        basePathDirectory = "DouBan_FilmReview"
        if not os.path.exists(basePathDirectory):
            os.makedirs(basePathDirectory)
        baiduFile = os.path.join(basePathDirectory, "DouBan_FilmReviews.txt")
        # 若文件不存在則新建,若存在則追加寫(xiě)入
        if not os.path.exists(baiduFile):
            info = codecs.open(baiduFile, 'w', 'utf-8')
        else:
            info = codecs.open(baiduFile, 'a', 'utf-8')
 
        # 瀏覽驅(qū)動(dòng)器路徑
        chromedriver = 'E:/software/chromedriver_win32/chromedriver.exe'
        os.environ["webdriver.chrome.driver"] = chromedriver
        driver = webdriver.Chrome(chromedriver)
        # 打開(kāi)網(wǎng)頁(yè)
        for k in range(15000):  # 大約有15000頁(yè)
            k = k + 1
            g = 2 * k
            driver.get("https://movie.douban.com/subject/34841067/comments?start={}".format(g))
            try:
                # 自動(dòng)搜索
                for i in range(21):
                    elem = driver.find_element_by_xpath('//*[@id="comments"]/div[{}]/div[2]/p/span'.format(i+1))
                    print(elem.text)
                    info.writelines(elem.text + '\r\n')
            except:
                pass
 
    except Exception as e:
        print('Error:', e)
 
    finally:
        print('\n')
        driver.close()
 
# 主函數(shù)
def main():
    print('開(kāi)始爬取')
    getFilmReview()
    print('結(jié)束爬取')
 
if __name__ == '__main__':
    main()

2.3.2 詞云分析代碼

# -*- coding: utf-8 -*-
# !/usr/bin/env python
 
import jieba                #中文分詞
import wordcloud            #繪制詞云
 
# 顯示數(shù)據(jù)
 
f = open('E:/software/PythonProject/DouBan_FilmReview/DouBan_FilmReviews.txt', encoding='utf-8')
 
txt = f.read()
txt_list = jieba.lcut(txt)
# print(txt_list)
string = ' '.join((txt_list))
print(string)
 
# 很據(jù)得到的彈幕數(shù)據(jù)繪制詞云圖
# mk = imageio.imread(r'圖片路徑')
 
w = wordcloud.WordCloud(width=1000,
                        height=700,
                        background_color='white',
                        font_path='C:/Windows/Fonts/simsun.ttc',
                        #mask=mk,
                        scale=15,
                        stopwords={' '},
                        contour_width=5,
                        contour_color='red'
                        )
 
w.generate(string)
w.to_file('DouBan_FilmReviews.png')

三、 實(shí)時(shí)票房搜集

3.1 網(wǎng)站選擇

3.2 代碼編寫(xiě) 

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import os
import time
import datetime
import requests
 
class PF(object):
    def __init__(self):
        self.url = 'https://piaofang.maoyan.com/dashboard-ajax?orderType=0uuid=173d6dd20a2c8-0559692f1032d2-393e5b09-1fa400-173d6dd20a2c8riskLevel=71optimusCode=10'
        self.headers = {
            "Referer": "https://piaofang.maoyan.com/dashboard",
            "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36",
        }
 
    def main(self):
        while True:
            # 需在dos命令下運(yùn)行此文件,才能清屏
            os.system('cls')
            result_json = self.get_parse()
            if not result_json:
                break
            results = self.parse(result_json)
            # 獲取時(shí)間
            calendar = result_json['calendar']['serverTimestamp']
            t = calendar.split('.')[0].split('T')
            t = t[0] + " " + (datetime.datetime.strptime(t[1], "%H:%M:%S") + datetime.timedelta(hours=8)).strftime("%H:%M:%S")
            print('北京時(shí)間:', t)
            x_line = '-' * 155
            # 總票房
            total_box = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['num']
            # 總票房單位
            total_box_unit = result_json['movieList']['data']['nationBoxInfo']['nationBoxSplitUnit']['unit']
            print(f"今日總票房: {total_box} {total_box_unit}", end=f'\n{x_line}\n')
            print('電影名稱'.ljust(14), '綜合票房'.ljust(11), '票房占比'.ljust(13), '場(chǎng)均上座率'.ljust(11), '場(chǎng)均人次'.ljust(11),'排片場(chǎng)次'.ljust(12),'排片占比'.ljust(12), '累積總票房'.ljust(11), '上映天數(shù)', sep='\t', end=f'\n{x_line}\n')
            for result in results:
                print(
                    result['movieName'][:10].ljust(9),  # 電影名稱
                    result['boxSplitUnit'][:8].rjust(10),  # 綜合票房
                    result['boxRate'][:8].rjust(13),  # 票房占比
                    result['avgSeatView'][:8].rjust(13),  # 場(chǎng)均上座率
                    result['avgShowView'][:8].rjust(13),  # 場(chǎng)均人次
                    result['showCount'][:8].rjust(13),  # '排片場(chǎng)次'
                    result['showCountRate'][:8].rjust(13),  # 排片占比
                    result['sumBoxDesc'][:8].rjust(13),  # 累積總票房
                    result['releaseInfo'][:8].rjust(13),  # 上映信息
                    sep='\t', end='\n\n'
                )
                break
            time.sleep(4)
 
    def get_parse(self):
        try:
            response = requests.get(self.url, headers=self.headers)
            if response.status_code == 200:
                return response.json()
        except requests.ConnectionError as e:
            print("ERROR:", e)
            return None
 
    def parse(self, result_json):
        if result_json:
            movies = result_json['movieList']['data']['list']
            # 場(chǎng)均上座率, 場(chǎng)均人次, 票房占比, 電影名稱,
            # 上映信息(上映天數(shù)), 排片場(chǎng)次, 排片占比, 綜合票房,累積總票房
            ticks = ['avgSeatView', 'avgShowView', 'boxRate', 'movieName',
                     'releaseInfo', 'showCount', 'showCountRate', 'boxSplitUnit', 'sumBoxDesc']
            for movie in movies:
                self.piaofang = {}
                for tick in ticks:
                    # 數(shù)字和單位分開(kāi)需要join
                    if tick == 'boxSplitUnit':
                        movie[tick] = ''.join([str(i) for i in movie[tick].values()])
                    # 多層字典嵌套
                    if tick == 'movieName' or tick == 'releaseInfo':
                        movie[tick] = movie['movieInfo'][tick]
                    if movie[tick] == '':
                        movie[tick] = '此項(xiàng)數(shù)據(jù)為空'
                    self.piaofang[tick] = str(movie[tick])
                yield self.piaofang
 
 
if __name__ == '__main__':
    while True:
        pf = PF()
        pf.main()

3.3 結(jié)果展示 

四、 劇組照片爬取

4.1 網(wǎng)站選擇

4.2 代碼編寫(xiě)

# -*- coding: utf-8 -*-
# !/usr/bin/env python
import requests
from bs4 import BeautifulSoup
import re
from PIL import Image
 
def get_data(url):
    # 請(qǐng)求網(wǎng)頁(yè)
    resp = requests.get(url)
    # headers 參數(shù)確定
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36'
    }
        # 對(duì)于獲取到的 HTML 二進(jìn)制文件進(jìn)行 'utf-8' 轉(zhuǎn)碼成字符串文件
    html = resp.content.decode('utf-8')
    # BeautifulSoup縮小查找范圍
    soup = BeautifulSoup(html, 'html.parser')
    # 獲取 a> 的超鏈接
    for link in soup.find_all('a'):
        a = link.get('href')
        if type(a) == str:
            b = re.findall('(.*?)jpg', a)
            try:
                print(b[0]+'jpg')
                img_urls = b[0] + '.jpg'
                # 保存數(shù)據(jù)
                for img_url in img_urls:
                    # 發(fā)送圖片 URL 請(qǐng)求
                    image = requests.get(img_url, headers=headers).content
                    # 保存數(shù)據(jù)
                    with open(r'E:/IMAGES/' + image, 'wb') as img_file:
                        img_file.write(image)
            except:
                pass
        else:
            pass
 
# 爬取目標(biāo)網(wǎng)頁(yè)
if __name__ == '__main__':
    get_data('https://www.1905.com/newgallery/hdpic/1495100.shtml')

4.3 效果展示

五、 總結(jié)

看這部電影開(kāi)始笑得有多開(kāi)心,后面哭得就有多傷心,這部電影用孩子的視角,選取了母親在選擇愛(ài)情和婚姻期間所作出的選擇,通過(guò)對(duì)母親的觀察,體會(huì)母親所謂的幸福,并不是賈玲認(rèn)為的:嫁給廠長(zhǎng)的兒子就能獲得的,這是他們共同的選擇,無(wú)論經(jīng)歷過(guò)多少次,母親都會(huì)義無(wú)反顧選擇適合自己的而不是別人認(rèn)為的那種幸福的人生,這也間接告訴我們:我們追求幸福的過(guò)程中,要憑借自己的走,而不是要過(guò)別人眼中和口中的幸福,畢竟人生的很多選擇只有一次。 

到此這篇關(guān)于python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析的文章就介紹到這了,更多相關(guān)python爬取電影票房?jī)?nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python 微信好友特征數(shù)據(jù)分析及可視化
  • python3對(duì)拉勾數(shù)據(jù)進(jìn)行可視化分析的方法詳解
  • Python數(shù)據(jù)分析:手把手教你用Pandas生成可視化圖表的教程
  • Python數(shù)據(jù)可視化正態(tài)分布簡(jiǎn)單分析及實(shí)現(xiàn)代碼
  • python數(shù)據(jù)分析之公交IC卡刷卡分析
  • python數(shù)據(jù)分析之用sklearn預(yù)測(cè)糖尿病
  • Python數(shù)據(jù)分析之pandas函數(shù)詳解
  • 如何使用Python對(duì)NetCDF數(shù)據(jù)做空間相關(guān)分析
  • python基于scrapy爬取京東筆記本電腦數(shù)據(jù)并進(jìn)行簡(jiǎn)單處理和分析
  • python數(shù)據(jù)分析之員工個(gè)人信息可視化

標(biāo)簽:陽(yáng)泉 赤峰 臨汾 克拉瑪依 貴州 金華 雙鴨山 日照

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析》,本文關(guān)鍵詞  python,爬蟲(chóng),之,你好,李煥英,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于python爬蟲(chóng)之你好,李煥英電影票房數(shù)據(jù)分析的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章