文章目录
- 评论区抽奖程序
- 1. 思路
- 2. 准备
- 3. 实现爬虫爬取数据
- 4. 随机数模块抽取
- 5. main函数
- 6. 大功告成
评论区抽奖程序
这个小程序很简陋,没什么难度
1. 思路
- 使用爬虫爬取评论区数据
- 随机抽取一名幸运用户
思路很简单,实现也很简单
2. 准备
- 新建一个py文件,命名为
talkprize.py
- 导入相关模块
requests
import random
import requests
import json
import jsonpath
3. 实现爬虫爬取数据
先打开送书文章链接:https://blog.csdn.net/m0_52883898/article/details/120535359
右键检查,先拿到请求头和cookie,然后存入head字典中
head = {
"user-agent": "xxxx",
"Cookie": "xxx"
}
# 将url存入变量url
url = 'https://blog.csdn.net/m0_52883898/article/details/120535359'
然后放入get方法,输出文本,看看源码
print(requests.get(url=url, headers=head).text)
在控制台会输出源码,回到浏览器界面的检查界面,点击检查界面的左上角的小手,点击到左边的评论区界面,找到一个属性,在源码界面使用组合键ctrl+f
搜索,发现搜索不到
说明评论区不在本页面的HTML代码中,转换思路,查找json数据,找到了评论区接口
点开查看url:
发现了一个page参数,这个参数是代表几页,不要问为什么,这是经验。
回到评论区,你会发现我们的评论区是分了好几页的,所以我们就不使用爬虫爬这个页数了,虽然这很帅~~
然后我们定一个获取评论数据的函数
def get_name(head, num):
"""总共几页循环几次"""
ans = [] # 返回值
for i in range(num):
url = "https://blog.csdn.net/phoenix/web/v1/comment/list/120535359?page=%d&size=10&comment_id=" % (i+1)
get_html = requests.post(url, headers=head).content # 获取评论区数据
json_data = json.loads(get_html) # 转为python数据
name_li = jsonpath.jsonpath(json_data, '$..nickName')
ans += name_li
return ans
我们直接使用格式化字符串拼接这个参数,设置三次循环获取全部评论区数据
获取完数据使用json模块转为python数据类型,然后使用jsonpath提取评论名字
$..nickName
从根节点的所有节点获取所有nicjName属性的数据
并将数据添加进一个ans,将其返回
4. 随机数模块抽取
定义一个函数实现随机抽取一个评论用户,需要使用随机数模块的randit
方法
def chou_jiang(li):
"""
随机数函数抽奖
参数为评论用户的用户名
:param li:
:return: None
"""
i = len(li)
j = random.randint(0, i-1)
return li[j]
然后就OK了
5. main函数
在main函数中设置几个变量,分别为:
- head —— 存储cookie和请求头
- name_list —— 所有评论用户列表
- user —— 获奖名单
if __name__ == '__main__':
head = {
"user-agent": "你自己的请求头",
"Cookie": "你自己的cookie"
}
name_list = get_name(head, 3)
prize_user = chou_jiang(name_list)
print("获奖者是:", prize_user)
6. 大功告成
右键运行你的程序,就大功告成啦~~