当前位置: 首页 > news >正文

天津市建行网站中信建设有限责任公司云南分公司

天津市建行网站,中信建设有限责任公司云南分公司,莆田网站制作企业,贵阳网站制作建设目录 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 获取豆瓣电影前十页的数据 ajax的post请求 总结 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 首先可以在浏览器找到发送数据的接口 那么我们的url就可以在header中找到了 再加上UA这个header 进行请…目录 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 获取豆瓣电影前十页的数据 ajax的post请求 总结 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 首先可以在浏览器找到发送数据的接口 那么我们的url就可以在header中找到了 再加上UA这个header 进行请求对象的定制模拟浏览器发送请求即可 详细代码如下 # get请求 # 获取豆瓣电影第一页的数据并且保存起来 import urllib.requesturl https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 }# 请求对象的定制 request urllib.request.Request(urlurl, headersheaders)# 模拟浏览器发送请求,获取响应的数据 response urllib.request.urlopen(request) content response.read().decode(utf-8) # print(content)# 将数据下载到本地 # open方法默认使用GBK但是我们前面使用的是utf-8那么这里 # 需要将编码格式指定为utf-8 fp open(douban.json, w, encodingutf-8) fp.write(content)# get请求 # 获取豆瓣电影第一页的数据并且保存起来 import urllib.requesturl https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 }# 请求对象的定制 request urllib.request.Request(urlurl, headersheaders)# 模拟浏览器发送请求,获取响应的数据 response urllib.request.urlopen(request) content response.read().decode(utf-8) # print(content)# 将数据下载到本地 # open方法默认使用GBK但是我们前面使用的是utf-8那么这里 # 需要将编码格式指定为utf-8 fp open(douban.json, w, encodingutf-8) fp.write(content) 这就下载下来了 获取豆瓣电影前十页的数据 首先我们找到第一次的刷新数据的请求url https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20 然后是第二次的 https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart20limit20 然后是第三次的https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart40limit20 如果你观察这几个URL后面的参数的话你就可以发现问题了start每次都累加上limit通过改变起始索引来挨个查询这个在Java开发中经常会有这种代码那么它查询的方法就已经是显而易见了。 所以可以得出start的值是(page - 1) * 20 然后就可以写出下面的代码了 # get请求 # 下载豆瓣电影前十页的数据 import urllib.request import urllib.parse得到不同pages的requestdef create_request(page):base_url https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actiondata {start: (page - 1) * 20,limit: 20}data urllib.parse.urlencode(data)url base_url dataprint(url)headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36}request urllib.request.Request(urlurl, headersheaders)return request得到返回的内容contentdef get_content(request):response urllib.request.urlopen(request)content response.read().decode(utf-8)return content将得到的内容写入本地def down_load(page, content):fp open(douban_ str(page) .json, w, encodingutf-8)fp.write(content)主方法if __name__ __main__:start_page int(input(请输入起始页码))end_page int(input(请输入结束页码))for page in range(start_page, end_page 1):# 每一页都有自己的请求对象的定制request create_request(page)# 获取响应数据content get_content(request)# download下载down_load(page, content)然后就完美得到了所有的数据了  ajax的post请求 对肯德基官网的餐厅位置进行爬取 这为什么是一个ajax发送的数据呢因为这里有一个ajax的核心对象 然后就通过URL和header就可以得到下面的代码并没有新的东西 都是前面的知识点的整合。 # post请求 # 肯德基官网 import urllib.request import urllib.parse# 第一页 # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcname# cname: 哈尔滨 # pid: # pageIndex: 1 # pageSize: 10# 第二页 # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcname# cname: 哈尔滨 # pid: # pageIndex: 2 # pageSize: 10请求对象定制def create_request(page):base_url https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcnamedata {cname: 哈尔滨,pid: ,pageIndex: page,pageSize: 10}data urllib.parse.urlencode(data).encode(utf-8)headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36}request urllib.request.Request(urlbase_url, headersheaders, datadata)return request获取网页内容def get_content(request):response urllib.request.urlopen(request)content response.read().decode(utf-8)return content下载内容到本地def down_load(page, content):fp open(KFC str(page) .json, w, encodingutf-8)fp.write(content)if __name__ __main__:start_page int(input(请输入起始页码))end_page int(input(请输入结束页码))for page in range(start_page, end_page 1):# 请求对象的定制request create_request(page)# 获取网页内容content get_content(request)# 下载内容到本地down_load(page, content)总结 累了没有总结再见兄弟们ヾ(▽)Bye~Bye~
http://www.w-s-a.com/news/513704/

相关文章:

  • 建设单位网站经费请示wordpress模板添加授权
  • 国外的电商网站有哪些为进一步加强校园网站建设
  • 专业集团门户网站建设企业微信商城和网站建设
  • 多少钱可以做网站找网络公司做推广费用
  • python php 网站开发网络营销师是干什么的
  • 网站建设设计方案动漫制作专业学校
  • 吴江区建设用地申报网站包装设计模板设计素材
  • 快速建站的公司wordpress 元数据定义
  • 网站seo分析工具网站标题用空格 逗号影响seo
  • 基金项目实验室信息网站建设wordpress文章新窗口打开
  • php网站开发就业前景做网站推荐源创网络
  • wordpress 8211西安网站优化维护
  • 泰安招聘网站有哪些wordpress 回复提醒
  • 网站服务器不稳定怎么打开网页企业营销策划心得体会
  • 自己做视频网站会不会追究版权企业商城网站建设方案
  • 烟台网站制作计划网站做seo的好处
  • 网站首页轮播官方网站下载拼多多
  • 罗庄区建设局网站自己做网站推广产品
  • 优秀flash网站欣赏苏州吴中区建设局网站
  • 网站添加wordpress博客网上商城购物系统论文
  • 上海市建设安全协会网站王夑晟企业网站建设需要做些什么
  • 网站app 开发辽宁建设工程信息网官网新网站是哪个
  • 厦门建设企业网站建设wordpress添加形式
  • 建立什么网站可以赚钱室内设计效果图qq群
  • 厦门网站设计大概多少钱服务公司沈傲芳
  • 如何起手做网站项目百度站长app
  • dede 购物网站wordpress主题超限
  • 做啊录音网站WordPress音乐悬浮插件
  • 安徽建设厅证书查询网网站网站策划与运营课程认知
  • wordpress证书关闭重庆seo优化效果好