B站的弹幕区一直是人才圣地。今天我就用 python 来手把手教大家爬取B站排行榜热门视频,Python爬取视频也可以如此简单。
网站分析
在B站中,只要视频中有弹幕,就会有一个 cid 参数。cid 用来表示某个视频对应的弹幕池。每个弹幕都有一个对应的 XML 文件,我们可以通过解析 XML 文件获取到 B 站视频的弹幕。
所以,只要知道了 cid 参数值,就可以找到视频弹幕数据的位置了。
那我们在观看视频的时候该如何拿到这个 XML 文件呢?
B 站的弹幕是在 XML 文件里,每个视频都有其对应的 cid 和 aid,我们取到 cid 中的数字放入 http://comment.bilibili.com/cid.xml,即可得到该视频对应的弹幕 XML 文件。
首先我们打开视频播放地址,F12打开浏览器开发者模式,如下图找到视频对应的cid就可以构造出弹幕链接
http://comment.bilibili.com/451236101.xml
到此可为止,有了弹幕文件,后面将通过爬虫方式解析弹幕,并进行弹幕内容分析。
请求发送
我们使用request模拟浏览器发送请求获取弹幕数据
url = f'http://comment.bilibili.com/{
cid}.xml'
headers = {
'referer': 'https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0',
'User-Agent': 'https://www.bilibili.com/video/BV19h411s7oq?spm_id_from=333.934.0.0',
'cookie': "_uuid=19DF1EDB-20B7-FF74-A700-9DF415B2429530977infoc; buvid3=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; sid=jzp2723t; fingerprint=2e74a5bc11a3adec2616987dde475370; buvid_fp=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; buvid_fp_plain=AAD6C6C7-FB31-40E7-92EC-7A6A7ED3920C148814infoc; DedeUserID=434541726; DedeUserID__ckMd5=448fda6ab5098e5e; SESSDATA=1fe46ad7%2C1651971297%2Ceb583*b1; bili_jct=5bcd45718996ac402a29c7f23110984d; blackside_state=1; rpdid=|(u)YJlJmmu|0J'uYJYRummJm; bp_t_offset_434541726=590903773845625600; bp_video_offset_434541726=590903773845625600; CURRENT_BLACKGAP=0; LIVE_BUVID=AUTO5716377130871212; video_page_version=v_old_home; PVID=1; CURRENT_FNVAL=976; i-wanna-go-back=1; b_ut=6; b_lsid=4F7CFC82_17D78864851; bsource=search_baidu; innersign=1"
}
resp = requests.get(url, headers = headers)
print(resp.text)
成功获取到了数据但是全部都是乱码,这里我们不用设置字符的编码格式,
只需要让request获取到的编码格式和网页的编码格式相等即可
一行代码即可搞定
# 调用.encoding属性获取requests模块的编码方式
# 调用.apparent_encoding属性获取网页编码方式
# 将网页编码方式赋值给response.encoding
resp.encoding = resp.apparent_encoding
成功获取到弹幕数据
信息提取
数据已经给成功的获取到,接下来我们要提取出所有的弹幕信息,
我们从获取到网站的响应信息后可以看出,所有的弹幕文字信息其实都是在
****标签之内的
<d
p="221.05300,1,25,16777215,1638378040,0,a60c99c7,58346355162459136,10">太木呐了 二仙桥大爷</d>
所以我们选择使用正则提取。
# 获取所有评论内容
content_list = re.findall('<d p=".*?">(.*?)</d>', resp.text)
数据保存
我们使用函数将所有的弹幕数据存储在’B站弹幕.csv’文件中
if os.path.exists(comment_file_path):
os.remove(comment_file_path)
for item in content_list:
with open(comment_file_path, 'a', encoding = 'utf-8')as fin:
fin.write(item + '\n')
print(item)
print('-------------弹幕获取完毕!-------------')
数据处理
接下来就是对数据去重和去空处理了,然后随机抽取五条数据展示如下:
# 读取数据
rcv_data = pd.read_csv('./B站弹幕.csv', encoding='gbk')
# 抽样展示5条数据
print(rcv_data.sample(5))
精彩弹幕
538 一脸开心
162 好活
661 买两箱,,买买买买
17 笑死我了 哈哈哈
424 不忘初心
词频展示
文章评论出现频率最高的前十个词分别如下:
# 词频设置
all_words = [word for word in result.split(' ') if len(word) > 1 and word not in stop_words]
wordcount = Counter(all_words).most_common(10)
'''
('哈哈哈', '大爷', '制作', '离谱', '一起', '猝不及防', '二仙', 'sir', '卧槽', '一定')
(207, 69, 27, 13, 13, 13, 12, 12, 12, 9)
'''
词云展示
我们使用结巴分词
最后使用stylecloud绘制漂亮的词云图展示
# 词云展示
def visual_ciyun():
pic = './img.jpg'
gen_stylecloud(text=result,
icon_name='fas fa-archway',
font_path='msyh.ttc',
background_color='white',
output_name=pic,
custom_stopwords=stop_words
)
print('词云图绘制成功!')
源码奉上
# -*- coding: utf-8 -*-
# Date: 2021/12/2 10:00
# Author: 不卖萌的邓肯
# wechat: 印象python
import requests
import re, os
import jieba
from wordcloud import WordCloud
from imageio import imread
comment_file_path = 'B站弹幕.csv'
def spider_page(cid):
url = f'http://comment.bilibili.com/{
cid}.xml'
headers = {
'referer': 'xxxxx',
'User-Agent': 'xxxxx',
'cookie': "xxxxx"
}
resp = requests.get(url, headers = headers)
# 调用.encoding属性获取requests模块的编码方式
# 调用.apparent_encoding属性获取网页编码方式
# 将网页编码方式赋值给response.encoding
resp.encoding = resp.apparent_encoding
print(resp.text)
if resp.status_code == 200:
# 获取所有评论内容
content_list = re.findall('<d p=".*?">(.*?)</d>', resp.text)
if os.path.exists(comment_file_path):
os.remove(comment_file_path)
for item in content_list:
with open(comment_file_path, 'a', encoding = 'utf-8')as fin:
fin.write(item + '\n')
print(item)
print('-------------弹幕获取完毕!-------------')
def data_visual():
with open(comment_file_path, encoding='utf-8')as file:
comment_text = file.read()
wordlist = jieba.lcut_for_search(comment_text)
new_wordlist = ' '.join(wordlist)
mask = imread('img_1.png')
wordcloud = WordCloud(font_path='msyh.ttc', mask=mask).generate(new_wordlist)
wordcloud.to_file('picture_1.png')
if __name__ == '__main__':
cid = '451236101'
print('正在解析,开始爬取弹幕中。。。。。')
spider_page(cid)
#data_visual()
今天分享就到此结束啦!有问题,评论区见~~