×

爬虫|快手短视频爬取经验分享

admin admin 发表于2022-07-03 13:55:10 浏览120 评论0

抢沙发发表评论

作者:冰蓝的天空

原文:

环境: python 2.7 + win10

工具:fiddler postman 安卓模拟器

首先,打开fiddler,fiddler作为

配置允许远程连接 也就是打开http代理

电脑ip: 192.168.1.110 然后 确保手机和电脑是在一个局域网下,可以通信。由于我这边没有安卓手机,就用了安卓模拟器代替,效果一样的。打开手机浏览器,输入192.168.1.110:8888,也就是设置的代理地址,安装证书之后才能抓包

安装证书之后,在WiFi设置 修改网络 手动指定http代理

保存后就可以了,fiddler就可以抓到app的数据了,打开快手 刷新,可以看到有很多类型的

条视频信息,先确保是否正确,找一个视频链接看下。

ok 是可以播放的 很干净也没有水印。那就打开postman 来测试,form-data 方式提交则报错

那换raw 这种

报错信息不一样了,试试加上headers

nice 成功返回数据,我又多试几次,发现每次返回结果不一样,都是20个视频,刚才其中post参数中有个page=1 这样一直都是第一页就像一直在手机上不往下翻了就开始一直刷新那样,反正也无所谓,只要返回数据 不重复就好。

下面就开始上代码

# -*-coding:utf-8-*-

# author : Corleone

import urllib2,urllib

import json,os,re,socket,time,sys

import Queue

import threading

import logging

# 日志模块

logger = logging.getLogger("AppName")

formatter = logging.Formatter('%(asctime)s %(levelname)-5s: %(message)s')

console_handler = logging.StreamHandler(sys.stdout)

console_handler.formatter = formatter

logger.addHandler(console_handler)

logger.setLevel(logging.INFO)

video_q = Queue.Queue # 视频队列

def get_video:

url = " "

data = {

'type': 7,

'page': 2,

'coldStart': 'false',

'count': 20,

'pv': 'false',

'id': 5,

'refreshTimes': 4,

'pcursor': 1,

'os': 'android',

'client_key': '3c2cd3f3',

'sig': '22769f2f5c0045381203fc57d1b5ad9b'

req = urllib2.Request(url)

req.add_header("User-Agent", "kwai-android")

req.add_header("Content-Type", "application/x-")

params = urllib.urlencode(data)

try:

html = urllib2.urlopen(req, params).read

except urllib2.URLError:

logger.warning(u"网络不稳定 正在重试访问")

html = urllib2.urlopen(req, params).read

result = json.loads(html)

reg = re.compile(u"[u4e00-u9fa5]+") # 只匹配中文

for x in result['feeds']:

try:

title = x['caption'].replace("n","")

name = " ".join(reg.findall(title))

video_q.put([name, x['photo_id'], x['main_mv_urls'][0]['url']])

except KeyError:

pass

def download(video_q):

path = u"D:快手"

while True:

data = video_q.get

name = data[0].replace("n","")

id = data[1]

url = data[2]

file = os.path.join(path, name + ".mp4")

logger.info(u"正在下载:%s" %name)

try:

urllib.urlretrieve(url,file)

except IOError:

file = os.path.join(path, u"神经病呀"+ '%s.mp4') %id

try:

urllib.urlretrieve(url, file)

except (socket.error,urllib.ContentTooShortError):

logger.warning(u"请求被断开,休眠2秒")

time.sleep(2)

urllib.urlretrieve(url, file)

logger.info(u"下载完成:%s" % name)

video_q.task_done

def main:

# 使用帮助

try:

threads = int(sys.argv[1])

except (IndexError, ValueError):

print u"n用法: " + sys.argv[0] + u" [线程数:10] n"

print u"例如:" + sys.argv[0] + " 10" + u" 爬取视频 开启10个线程 每天爬取一次 一次2000个视频左右(空格隔开)"

return False

# 判断目录

if os.path.exists(u'D:快手') == False:

os.makedirs(u'D:快手')

# 解析网页

logger.info(u"正在爬取网页")

for x in range(1,100):

logger.info(u"第 %s 次请求" % x)

get_video

num = video_q.qsize

logger.info(u"共 %s 视频" %num)

# 多线程下载

for y in range(threads):

t = threading.Thread(target=download,args=(video_q,))

t.setDaemon(True)

t.start

video_q.join

logger.info(u"-----------全部已经爬取完成---------------")

main

下面测试

多线程下载 每次下载2000 个视频左右 默认下载到D:快手

总结:其实我这次爬的快手有点投机取巧了,因为post过去的参数 sign 是签名 的确是有加密的,只所以还能返回数据。

那是因为我每次都是请求的一样的链接 page=1 都是第一页的 当我改成2的时候,就验签失败了。然而,它刚好这样也能返回不同的数据,虽然达到了效果,但却没有能破解他的加密算法。。。

最后放上我的github地址 :

题图:pexels,CC0 授权。