快手空格代码复制(超火的烹饪技巧)


作者:冰蓝的天空

原文:http://www.cnblogs.com/binglansky/p/8483096.html

  • 环境: python 2.7 + win10

  • 工具:fiddler postman 安卓模拟器

打开fiddler,fiddler作为http/https 抓包神器,这里就不多介绍。 配置允许https

配置允许远程连接 也就是打开http代理

电脑ip: 192.168.1.110 然后 确保手机和电脑是在一个局域网下,可以通信。由于我这边没有安卓手机,就用了安卓模拟器代替,效果一样的。打开手机浏览器,输入192.168.1.110:8888,也就是设置的代理地址,安装证书之后才能抓包

安装证书之后,在WiFi设置 修改网络 手动指定http代理

保存后就可以了,fiddler就可以抓到app的数据了,打开快手 刷新,可以看到有很多http请求进来,一般接口地址之类的很明显的,可以看到是json类型的

http post请求,返回数据是json ,展开后发现一共是20条视频信息,先确保是否正确,找一个视频链接看下。

ok 是可以播放的 很干净也没有水印。那就打开postman 来测试,form-data 方式提交则报错

那换raw 这种

报错信息不一样了,试试加上headers

nice 成功返回数据,我又多试几次,发现每次返回结果不一样,都是20个视频,刚才其中post参数中有个page=1 这样一直都是第一页就像一直在手机上不往下翻了就开始一直刷新那样,反正也无所谓,只要返回数据 不重复就好。

下面就开始上代码

  1. --coding:utf-8--

  2. author : Corleone

  3. import urllib2,urllib

  4. import json,os,re,socket,time,sys

  5. import Queue

  6. import threading

  7. import logging

  8. 日志模块

  9. logger = logging.getLogger("AppName")

  10. formatter = logging.Formatter('%(asctime)s %(levelname)-5s: %(message)s')

  11. console_handler = logging.StreamHandler(sys.stdout)

  12. console_handler.formatter = formatter

  13. logger.addHandler(console_handler)

  14. logger.setLevel(logging.INFO)

  15. video_q = Queue.Queue 视频队列

  16. def get_video:

  17. url = "http://101.251.217.210/rest/n/feed/hot?app=0&lon=121.372027&c=BOYA_BAIDU_PINZHUAN&sys=ANDROID_4.1.2&mod=HUAWEI(HUAWEI%20C8813Q)&did=ANDROID_e0e0ef947bbbc243&ver=5.4&net=WIFI&country_code=cn&iuid=&appver=5.4.7.5559&max_memory=128&oc=BOYA_BAIDU_PINZHUAN&ftt=&ud=0&language=zh-cn&lat=31.319303 "

  18. data = {

  19. 'type': 6,

  20. 'page': 3,

  21. 'coldStart': 'true',

  22. 'count': 30,

  23. 'pv': 'true',

  24. 'id': 9,

  25. 'refreshTimes': 6,

  26. 'pcursor': 2,

  27. 'os': 'ios',

  28. 'client_key': 'a832hfs9',

  29. 'sig': '209f756d4d0048315141ab27e5b9cb5d'

  30. }

  31. req = urllib2.Request(url)

  32. req.add_header("User-Agent", "kwai-ios")

  33. req.add_header("Content-Type", "application/json")

  34. params = urllib.urlencode(data)

  35. try:

  36. html = urllib2.urlopen(req, params).read

  37. except urllib2.URLError:

  38. logger.warning(u"网络连接不稳定,正在尝试重新访问")

  39. html = urllib2.urlopen(req, params).read

  40. result = json.loads(html)

  41. reg = re.compile(u"[u4e00-u9fa5]+") 仅匹配中文

  42. for x in result['video']:

  43. try:

  44. title = x['title'].replace("n","")

  45. name = " ".join(reg.findall(title))

  46. video_q.put([name, x['video_id'], x['video_url']])

  47. except KeyError:

  48. pass

  49. def download(video_q):

  50. path = u"D:快手"

  51. while True:

  52. data = video_q.get

  53. name = data[0].replace("n","")

  54. id = data[1]

  55. url = data[2]

  56. file = os.path.join(path, name + ".mp4")

  57. logger.info(u"正在下载:%s" %name)

  58. try:

  59. urllib.urlretrieve(url,file)

  60. except IOError:

  61. file = os.path.join(path, u"神经病呀"+ '%s.mp4') %id

  62. try:

  63. urllib.urlretrieve(url, file)

  64. except (socket.error,urllib.ContentTooShortError):

  65. logger.warning(u"请求被断开,休眠2秒")

  66. time.sleep(2)

  67. urllib.urlretrieve(url, file)

  68. logger.info(u"下载完成:%s" % name)

  69. video_q.task_done

  70. def main:

  71. 使用说明

  72. try:

  73. threads = int(sys.argv[1])

  74. except (IndexError, ValueError):

  75. print u"n用法: " + sys.argv[0] + u" [线程数:10] n"

  76. print u"例如:" + sys.argv[0] + " 10" + u" 爬取视频 开启10个线程 每天爬取一次 一次2000个视频左右(空格隔开)"

  77. return False

  78. 判断目录

  79. if os.path.exists(u'D:快手') == False:

  80. os.makedirs(u'D:快手')

  81. 解析网页

  82. logger.info(u"正在爬取网页")

  83. for x in range(1,100):

  84. logger.info(u"第 %s 次请求" % x)

  85. get_video

  86. num = video_q.qsize

  87. logger.info(u"总计 %s 视频" %num)

  88. 多线程下载

  89. for y in range(threads):

  90. t = threading.Thread(target=download,args=(video_q,))

  91. t.setDaemon(True)

  92. t.start

  93. video_q.join

  94. logger.info(u"-----------全部已经爬取完成---------------")

  95. main

下面测试

多线程下载 每次下载2000 个视频左右 默认下载到D:快手

总结:其实我这次爬的快手有点投机取巧了,因为post过去的参数 sign 是签名 的确是有加密的,只所以还能返回数据。

那是因为我每次都是请求的一样的链接 page=1 都是第一页的 当我改成2的时候,就验签失败了。它刚好这样也能返回不同的数据,虽然达到了效果,但却没有能破解他的加密算法。。。

最后放上我的github地址 : https://github.com/binglansky/spider

题图:pexels,CC0 授权。