当前位置: 首页 > news >正文

栏目手机版 企业网站极端页面 装修wordpress 主题

栏目手机版 企业网站,极端页面 装修wordpress 主题,网站制作公司推荐,天元建设集团有限公司邮编一、分布式爬虫简述 #xff08;一#xff09;分布式爬虫优势 1.充分利用多台机器的带宽速度 2.充分利用多台机器的ip地址 #xff08;二#xff09;Redis数据库 1.Redis是一个高性能的nosql数据库 2.Redis的所有操作都是原子性的 3.Redis的数据类型都是基于基本数据…一、分布式爬虫简述 一分布式爬虫优势 1.充分利用多台机器的带宽速度 2.充分利用多台机器的ip地址 二Redis数据库 1.Redis是一个高性能的nosql数据库 2.Redis的所有操作都是原子性的 3.Redis的数据类型都是基于基本数据结构无需额外的抽象 4.Redis五种数据类型string、hash、list、set、zset(sorted set 三python操作redis数据库 1.终端pip install redis 2.代码如下 import redis db redis.Redis(hostlocalhost, port6379, decode_responsesTrue)# 如果用到相同的key值可以自动修改 db.set(name, Sam) db.set(name2, 张三)print(db.get(name2))# 多个值 db.mset({k1:v1,k2:v2}) print(db.mget(k1,k2,name2))# hash db.hset(hash1,hkey1,hvalue1) db.hset(hash1,hkey2,hvalue2) db.hset(hash1,hkey3,hvalue3)print(db.hget(hash1,hkey2)) print(db.hgetall(hash1))db.lpush(list1,11,22,33) print(db.llen(list1)) print(db.lrange(list1,0,-1))db.sadd(set1, 55, 44 ,77) print(db.scard(set1)) print(db.smembers(set1))db.zadd(zset1,{item1:1,item2:2,item3:2}) print(db.zcard(zset1)) print(db.zrange(zset1,0,-1)) print(db.zrange(zset1,0,-1,withscoresTrue)) 四Redis数据保存至mongodb数据库 import redis import pymongo import jsondb_redis redis.Redis(hostlocalhost, port6379, decode_responsesTrue)client_mongo pymongo.MongoClient(mongodb://localhost:27017) db_mongo client_mongo[RedisToMongo] col_mongo db_mongo[C1]for i in db_redis.lrange(app:items, 0 -1):page {title:json.loads(i)[title]}res col_mongo.insert_one(page)print(res.inserted_id) 二、分布式爬虫实战 实现一个简单的分布式 1.创建爬虫项目和文件同scrapy一样的步骤 2.修改settings.py文件中的user-agent、robotstxt_obey、log_level、打开注释掉的item_piplines 3.终端安装scrapy-redis:pip install scrapy-redis 4.在app.py文件中修改如下代码 import scrapy from ..items import C07L07Item from scrapy_redis.spiders import RedisSpiderclass AppSpider(RedisSpider):name appredis_key app# start_urls [http://127.0.0.1:5000/C07L07]def __init__(self, *args, **kwargs):domain kwargs.pop(domain,)self.allowed_domains filter(None, domain.split(,))super(AppSpider, self).__init__(*args, **kwargs)def parse(self, response):links response.xpath(//a/href).getall()for link in links:link http://127.0.0.1:5000linkyield scrapy.Request(urllink,callbackself.parse_details, dont_filterTrue)def parse_details(self, response):item C07L07Item()item[title] response.textyield item 在items.py文件中修改数据结构 import scrapyclass C07L07Item(scrapy.Item):title scrapy.Field() 在pipelines.py文件中修改代码 from itemdapter import ItemAdapterclass C07L07Pipeline:def process_item(self, item, spider):print(item[title])return item 5.在settings.py文件中添加如下代码修改ITEM_PIPELINES DUPEFILTER_CLASS scrapy_redis.dupefilter.RFPDupeFilter SCHEDULER scrapy_redis.scheduler.Scheduler SCHEDULER_PERSIST TrueREDIS_URL redis://127.0.0.1:6379 DOWNLOAD_DELAY 1ITEM_PIPELINES {C07LO7.pipelines.C07LO7Pipeline:300,scrapy_redis.pipelines.RedisPipeline:400 } 6.在终端链接redis数据库redis-cli lpush app http://127.0.0.1:5000/C07L07 7.运行爬虫代码scrapy crawl app(可以开多进程
http://www.w-s-a.com/news/407778/

相关文章:

  • 小学生网站制作最新域名网站
  • 奖励网站代码设计制作ppt时
  • 茂名优化网站建设门户网站和部门网站的区别
  • 一尊网 又一个wordpress站点wordpress获取当前文章名称
  • 营销型网站多少钱新建网站的外链多久生效
  • 网站空间怎么选择tp5企业网站开发百度云
  • 网站建设saas排名成立公司的流程和要求及费用
  • 网站建设共享骨科医院网站优化服务商
  • 肯尼亚网站域名万能进销存软件免费版
  • 做商城网站价格上海做网站建设
  • 广州制作外贸网站公司阿里云网站模板
  • 做网站为什么要买服务器十堰城市建设网站
  • 西安网站seo技术厂家东莞如何制作免费的网页
  • 做旅游的网站的目的和意义极限优化wordpress
  • 做美食视频网站有哪些品牌营销策划机构
  • 佛山知名营销网站开发wordpress可视化编辑器排行
  • 石岩做网站哪家好石家庄做网站设计
  • 建设网站需要冠县做网站
  • 保定网站seo哪家公司好wordpress教程视频下载
  • 网站开发 哪些文档网站海外推广方法
  • 广西建设局网站首页如何做条形码网站怎么搞
  • 琼海建设网站wordpress 商城站下载地址
  • 网站需要多大数据库divider wordpress
  • 兰州北京网站建设网络广告推广网站
  • 宁晋网站建设森网站建设
  • 网站没有收录原因trel域名
  • 建设门户网站的目的和需求台州专业网站建设方案
  • 苏州网站建设系统方案成都行业网站设计
  • wordpress多说读者墙seo分析师招聘
  • 视频网站开发计划书wordpress文件详情