乱码中字芒果视频2021 爱奇艺和芒果TV视频弹幕

今天给各位分享乱码中字芒果视频2021的知识,其中也会对爱奇艺和芒果TV视频弹幕进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

众所周知,弹幕,即在网络上观看视频时弹出的评论性字幕。不知道大家看视频的时候会不会点开弹幕,于我而言,弹幕是视频内容的良好补充,是一个组织良好的评论序列。通过分析弹幕,我们可以快速洞察广大观众对于视频的看法。

阿喵通过一个关于《八佰》的视频弹幕数据,绘制了如下词云图,感觉效果还是可以的。

点击并拖拽以移动

这里多说一句,小编是一名python开发工程师,这里有我自己整理的一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。

海量的弹幕数据不仅可以绘制此类词云图,还可以调用百度AI进行情感分析。那么,我们该如何获取弹幕数据呢?本文运用Python爬取B站视频、腾讯视频、芒果TV和爱奇艺视频等弹幕,让你轻松获取主流视频网站弹幕数据。

一、B站视频弹幕1.网页分析

本文以爬取up主硬核的半佛仙人发布的《你知道奶茶加盟到底有多坑人吗?》视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

点击并拖拽以移动

简单分析url参数,很显然,date参数表示发送弹幕的时间,其他参数均无变化。因此,只需要改变date参数,然后通过beautifulsoup解析到弹幕数据即可。

2.爬虫实战

importrequests#请求网页数据

frombs4importBeautifulSoup#美味汤解析数据

importpandasaspd

importtime

fromtqdmimporttrange#获取爬取速度

defget_bilibili_url(start,end):

url_list=[]

date_list=[iforiinpd.date_range(start,end).strftime('%Y-%m-%d')]

fordateindate_list:

url=f"api.bilibili.com/x/v2/dm/his…{date}"

url_list.append(url)

returnurl_list

defget_bilibili_danmu(url_list):

headers={

"user-agent":"Mozilla/5.0(Macintosh;IntelMacOSX10_14_6)AppleWebKit/537.36(KHTML,likeGecko)Chrome/83.0.4103.116Safari/537.36",

"cookie":"你自己的"#Headers中copy即可

}

file=open("bilibili_danmu.txt",'w')

foriintrange(len(url_list)):

url=url_list[i]

response=requests.get(url,headers=headers)

response.encoding='utf-8'

soup=BeautifulSoup(response.text)

data=soup.find_all("d")

danmu=[data[i].textforiinrange(len(data))]

foritemsindanmu:

file.write(items)

file.write("\n")

time.sleep(3)

file.close()

ifname=="main":

start='9/24/2020'#设置爬取弹幕的起始日

end='9/26/2020'#设置爬取弹幕的终止日

url_list=get_bilibili_url(start,end)

get_bilibili_danmu(url_list)

print(

"弹幕爬取完成"

)

3.数据预览

点击并拖拽以移动

?

二、腾讯视频弹幕1.网页分析

本文以爬取《脱口秀大会第3季》最后一期视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

点击并拖拽以移动

通过删减各参数,发现仅有timestamp参数的变化会影响弹幕数据的爬取,且timestamp参数是首项为15,公差为30的等差数列。可以大胆猜测腾讯视频每30秒更新一页弹幕数据,该视频长度为12399秒。而数据格式为标准的json格式,因此json.loads直接解析数据即可。

2.爬虫实战

importrequests

importjson

importtime

importpandasaspd

df=pd.DataFrame()

forpageinrange(15,12399,30):

headers={'User-Agent':'Mozilla/5.0(WindowsNT6.1;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/63.0.3239.132Safari/537.36'}

url='mfm.video.qq.com/danmu?otype….format(page)

print("正在提取第"+str(page)+"页")

html=requests.get(url,headers=headers)

bs=json.loads(html.text,strict=False)#strict参数解决部分内容json格式解析报错

time.sleep(1)

#遍历获取目标字段

foriinbs['comments']:

content=i['content']#弹幕

upcount=i['upcount']#点赞数

user_degree=i['uservip_degree']#会员等级

timepoint=i['timepoint']#发布时间

comment_id=i['commentid']#弹幕id

cache=pd.DataFrame({'弹幕':[content],'会员等级':[user_degree],

'发布时间':[timepoint],'弹幕点赞':[upcount],'弹幕id':[comment_id]})

df=pd.concat([df,cache])

df.to_csv('tengxun_danmu.csv',encoding='utf-8')

print(df.shape)

3.数据预览

点击并拖拽以移动

三、芒果TV弹幕

1.网页分析

本文以爬取《乘风破浪的姐姐》最后一期视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

点击并拖拽以移动

?

通过分析参数,我们可以发现,芒果TV会生成首项为0,公差为1的等差数列json弹幕文件,每个json文件存储前一分钟内所有的弹幕数据。弹幕数据存放格式为json,数据解析较为简单。

2.爬虫实战

importrequests

importjson

importpandasaspd

defget_mangguo_danmu(num1,num2,page):

try:

url='bullet-ws.hitv.com/bullet/2020…

print("正在爬取第"+str(page)+"页")

danmuurl=url.format(num1,num2,page)

res=requests.get(danmuurl)

res.encoding='utf-8'

#print(res.text)

data=json.loads(res.text)

except:

print("无法连接")

details=[]

foriinrange(len(data['data']['items'])):#弹幕数据在json文件'data'的'items'中

result={}

result['stype']=num2#通过stype可识别期数

result['id']=data['data']['items'][i]['id']#获取id

try:#尝试获取uname

result['uname']=data['data']['items'][i]['uname']

except:

result['uname']=''

result['content']=data['data']['items'][i]['content']#获取弹幕内容

result['time']=data['data']['items'][i]['time']#获取弹幕发布时间

try:#尝试获取弹幕点赞数

result['v2_up_count']=data['data']['items'][i]['v2_up_count']

except:

result['v2_up_count']=''

details.append(result)

returndetails

#输入关键信息

defcount_danmu():

danmu_total=[]

num1=input('第一个数字')

num2=input('第二个数字')

page=int(input('输入总时长'))

foriinrange(page):

danmu_total.extend(get_mangguo_danmu(num1,num2,i))

returndanmu_total

defmain():

df=pd.DataFrame(count_danmu())

df.to_csv('mangguo_danmu.csv')

ifname=='main':

main()

3.数据预览

点击并拖拽以移动

四、爱奇艺弹幕1.网页分析本文以爬取《乐队的夏天第2季》第13期上视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。

点击并拖拽以移动

?

分析弹幕真实url,我们发现,参数5981449914376200是视频tvid,参数62是tvid倒数4为的前两位,参数00是tvid的最后两位,.z前的参数1为视频总时长除以300秒向上取整。观察相邻两个弹幕文件包,可以看出爱奇艺每5分钟更新一次弹幕文件。

点击并拖拽以移动

?

由于直接爬取出来的弹幕文件存在乱码,需要进行二进制编码,方可得到最终的弹幕数据。

2.爬虫实战

importzlib

importrequests

1.爬取xml文件

defdownload_xml(url):

bulletold=requests.get(url).content#二进制内容

returnzipdecode(bulletold)

defzipdecode(bulletold):

'对zip压缩的二进制内容解码成文本'

decode=zlib.decompress(bytearray(bulletold),15+32).decode('utf-8')

returndecode

forxinrange(1,12):

x是从1到12,12怎么来的,这一集总共57分钟,爱奇艺每5分钟会加载新的弹幕,57除以5向上取整

url='cmts.iqiyi.com/bullet/62/0…+str(x)+'.z'

xml=download_xml(url)

把编码好的文件分别写入17个xml文件中(类似于txt文件),方便后边取数据

withopen('./aiqiyi/iqiyi'+str(x)+'.xml','a+',encoding='utf-8')asf:

f.write(xml)

2.读取xml文件中的弹幕数据数据

fromxml.dom.minidomimportparse

importxml.dom.minidom

defxml_parse(file_name):

DOMTree=xml.dom.minidom.parse(file_name)

collection=DOMTree.documentElement

在集合中获取所有entry数据

entrys=collection.getElementsByTagName("entry")

print(entrys)

result=[]

forentryinentrys:

content=entry.getElementsByTagName('content')[0]

print(content.childNodes[0].data)

i=content.childNodes[0].data

result.append(i)

returnresult

withopen("aiyiqi_danmu.txt",mode="w",encoding="utf-8")asf:

forxinrange(1,12):

l=xml_parse("./aiqiyi/iqiyi"+str(x)+".xml")

forlineinl:

f.write(line)

f.write(

"\n"

3.数据预览

点击并拖拽以移动

最后多说一句,小编是一名python开发工程师,这里有我自己整理的一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。

关于本次乱码中字芒果视频2021和爱奇艺和芒果TV视频弹幕的问题分享到这里就结束了,如果解决了您的问题,我们非常高兴。