lzth.net
当前位置:首页 >> python3中,使用gEt提交表单时怎样使用hEADEr >>

python3中,使用gEt提交表单时怎样使用hEADEr

这个应该可以的。 #下面的代码是基于python3的 from urllib import request req=request.Request('http://www.linuxsir.org/bbs' req.add_header('User-Agent','Mozilla/5.0 (X11; Linux i686; rv:2.0b11) Gecko/20100101 Firefox/4.0b11' reque...

def openUrl(url): import urllib2 url = 'http://' + url req = urllib2.Request(url) //根据你自己的需要设置header,add_header方法中需要两个参数,key和value的键值对 req.add_header('User-agent', 'Mozilla/5.0 (Windows NT 6.2; WOW64) ...

然后你提交的地址是url='http://localhost:8080/wl/user/login.jsp' 所以……

用requests库 import requestsdata={} #表单为json格式,自定义requests.post(url,data=data)

是的,至于怎么确定是这个地址,你理解它的逻辑就行了,截获post是截获的哪个阶段?是从提交页面发给接受页面的时候截获的,所以你截取的post中这个post地址就是接受地址。只不过是相对路径,需要加上host才是完整路径。而这个host肯定是你在访...

__author__ = 'Administrator' #encoding:utf8 print """ """ __author__ = 'Administrator' import cgi form = cgi.FieldStorage() if form.has_key('name'): code = form['name'].value print code

以下实例是一个完整的代码,实现了从博客获取内容发布至百度,分别实践抓取博客内容、模拟登录、表单提交这几步; #注意,以下程序是一个完全程序,如果只需要实现模拟登录,提交表单,删除抓取部分即可,相关的代码已经清楚标注,可以根据自己...

我用过selenium模拟浏览器 使用selenium的chrome或firefox的webdriver打开浏览器 driver.get(url) #访问你的网页from=driver.find_elements_by_xpath("xxx")通过xpath或id等方法锁定到网页上表单的那个元素后,用 from.send_keys("xxx")来输入内容

你应该使用chrome浏览器的调试工具,点击提交的时候,网页会请求网页,里面包含了所有信息,包含报头等。 具体信息见下图:

简答: 需要你自己去(用工具)分析网页在post时候都发送了哪些参数和值,然后再用程序去模拟。 详解: 我写的,算是史上最全的了,自己看吧: 如何用Python,C#等语言去实现抓取静态网页 模拟登陆网站 (此处不能贴地址,请自己用google搜标题,...

网站首页 | 网站地图
All rights reserved Powered by www.lzth.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com