Python模拟登录实战,采集整站表格数据

本节主要内容有:

  • 通过requests库模拟表单提交
  • 通过pandas库提取网页表格
上周五,大师兄发给我一个网址,哭哭啼啼地求我:“去!把这个网页上所有年所有县所有作物的数据全爬下来,存到Access里!”
私信小编001即可获取大量Python学习资料!
我看他可怜,勉为其难地挥挥手说:“好嘞,马上就开始!”
目标分析
大师兄给我的网址是这个:https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg
打开长这样:
Python模拟登录实战,采集整站表格数据

文章插图
 
根据我学爬虫并不久的经验,通常只要把年月日之类的参数附加到url里面去,然后用requests.get拿到response解析html就完了,所以这次应该也差不多——除了要先想办法获得具体有哪些年份、地名、作物名称,其他部分拿以前的代码稍微改改就能用了,毫无挑战性工作,生活真是太无聊了
【Python模拟登录实战,采集整站表格数据】点击 View Summary 后出现目标网页长这样
Python模拟登录实战,采集整站表格数据

文章插图
 
那个大表格的数据就是目标数据了,好像没什么了不起的——
有点不对劲
目标数据所在网页的网址是这样的:https://www.ctic.org/crm/?action=result ,刚刚选择的那些参数并没有作为url的参数啊!网址网页都变了,所以也不是ajax
这和我想象的情况有巨大差别啊
尝试获取目标页面让我来康康点击View Summary这个按钮时到底发生了啥:右键View Summary检查是这样:
Python模拟登录实战,采集整站表格数据

文章插图
 
实话说,这是我第一次遇到要提交表单的活儿 。以前可能是上天眷顾我,统统get就能搞定,今天终于让我碰上一个post了 。
点击View Summary,到DevTools里找network第一条:
Python模拟登录实战,采集整站表格数据

文章插图
 
不管三七二十一,post一下试试看
import requests url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg'headers = {'user-agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) '           'AppleWebKit/537.36 (KHTML, like Gecko) '           'Chrome/74.0.3729.131 Safari/537.36',           'Host': 'www.ctic.org'}data = https://www.isolves.com/it/cxkf/yy/Python/2020-08-19/{'_csrf': 'SjFKLWxVVkkaSRBYQWYYCA1TMG8iYR8ReUYcSj04Jh4EBzIdBGwmLw==', 'CRMSearchForm[year]': '2011', 'CRMSearchForm[format]': 'Acres', 'CRMSearchForm[area]': 'County', 'CRMSearchForm[region]': 'Midwest', 'CRMSearchForm[state]': 'IL', 'CRMSearchForm[county]': 'Adams', 'CRMSearchForm[crop_type]': 'All', 'summary': 'county'}response = requests.post(url, data=data, headers=headers)print(response.status_code)果不其然,输出400……我猜这就是传说中的cookies在搞鬼吗?《Python3网络爬虫实战》只看到第6章的我不禁有些心虚跃跃欲试呢!
首先,我搞不清cookies具体是啥,只知道它是用来维持会话的,应该来自于第一次get,搞出来看看先:
response1 = requests.get(url, headers=headers)if response1.status_code == 200:    cookies = response1.cookies    print(cookies)输出:
<RequestsCookieJar[<Cookie phpSESSID=52asgghnqsntitqd7c8dqesgh6 for www.ctic.org/>, <Cookie _csrf=2571c72a4ca9699915ea4037b967827150715252de98ea2173b162fa376bad33s%3A32%3A%22TAhjwgNo5ElZzV55k3DMeFoc5TWrEmXj%22%3B for www.ctic.org/>]>Nah,看不懂,不看不管,直接把它放到post里试试
response2 = requests.post(url, data=https://www.isolves.com/it/cxkf/yy/Python/2020-08-19/data, headers=headers, cookies=cookies)print(response2.status_code)还是400,气氛突然变得有些焦灼,我给你cookies了啊,你还想要啥?!
突然,我发现一件事:post请求所带的data中那个一开始就显得很可疑的_csrf我仿佛在哪儿见过?
那个我完全看不懂的cookies里好像就有一个_csrf啊!但是两个_csrf的值很明显结构不一样,试了一下把data里的_csrf换成cookies里的_csrf确实也不行 。
但是我逐渐有了一个想法:这个两个_csrf虽然不相等,但是应该是匹配的,我刚刚的data来自浏览器,cookies来自python程序,所以不匹配!
于是我又点开浏览器的DevTools,Ctrl+F搜索了一下,嘿嘿,发现了:


推荐阅读