标签:hive lin lis 新浪微博 顺序 filter 灾难恢复 获取 soft
redis
是一种支持分布式的nosql
数据库,他的数据是保存在内存中,同时redis
可以定时把内存数据同步到磁盘,即可以将数据持久化,并且他比memcached
支持更多的数据结构(string
,list列表[队列和栈]
,set[集合]
,sorted set[有序集合]
,hash(hash表)
)。相关参考文档:http://redisdoc.com/index.html
redis
中,与memcached
相比,数据不会丢失。celery
就是使用redis
作为中间人。BBS
论坛,板块不会经常变化的,但是每次访问首页都要从mysql
中获取,可以在redis
中缓存起来,不用每次请求数据库。redis
实现。redis
和memcached
的比较:memcached | redis | |
---|---|---|
类型 | 纯内存数据库 | 内存磁盘同步数据库 |
数据类型 | 在定义value时就要固定数据类型 | 不需要 |
虚拟内存 | 不支持 | 支持 |
过期策略 | 支持 | 支持 |
存储数据安全 | 不支持 | 可以将数据同步到dump.db中 |
灾难恢复 | 不支持 | 可以将磁盘中的数据恢复到内存中 |
分布式 | 支持 | 主从同步 |
订阅与发布 | 不支持 | 支持 |
redis
在ubuntu
系统中的安装与启动 sudo apt-get install redis-server
sudo apt-get purge --auto-remove redis-server
启动:redis
安装后,默认会自动启动,可以通过以下命令查看:
ps aux|grep redis
如果想自己手动启动,可以通过以下命令进行启动:
sudo service redis-server start
停止:
sudo service redis-server stop
redis
安装所在的路径然后执行redis-server.exe redis.windows.conf
就可以运行了。redis
和mysql
以及mongo
是一样的,都提供了一个客户端进行连接。输入命令redis-cli
(前提是redis安装路径已经加入到环境变量中了)就可以连接到redis
服务器了。想要让其他机器访问本机的redis服务器。那么要修改redis.conf的配置文件,将bind改成bind [自己的ip地址或者0.0.0.0]
,其他机器才能访问。
注意:bind绑定的是本机网卡的ip地址,而不是想让其他机器连接的ip地址。如果有多块网卡,那么可以绑定多个网卡的ip地址。如果绑定到额是0.0.0.0,那么意味着其他机器可以通过本机所有的ip地址进行访问。
redis
的操作对redis
的操作可以用两种方式,第一种方式采用redis-cli
,第二种方式采用编程语言,比如Python
、PHP
和JAVA
等。
使用redis-cli
对redis
进行字符串操作:
启动redis
:
sudo service redis-server start
redis-server
:
redis-cli -h [ip] -p [端口]
添加:
set key value
如:
set username xiaotuo
将字符串值value
关联到key
。如果key
已经持有其他值,set
命令就覆写旧值,无视其类型。并且默认的过期时间是永久,即永远不会过期。
删除:
del key
如:
del username
设置过期时间:
expire key timeout(单位为秒)
也可以在设置值的时候,一同指定过期时间:
set key value EX timeout
或:
setex key timeout value
查看过期时间:
ttl key
如:
ttl username
查看当前redis
中的所有key
:
keys *
列表操作:
在列表左边添加元素:
lpush key value
将值value
插入到列表key
的表头。如果key
不存在,一个空列表会被创建并执行lpush
操作。当key
存在但不是列表类型时,将返回一个错误。
在列表右边添加元素:
rpush key value
将值value插入到列表key的表尾。如果key不存在,一个空列表会被创建并执行RPUSH操作。当key存在但不是列表类型时,返回一个错误。
查看列表中的元素:
lrange key start stop
返回列表key
中指定区间内的元素,区间以偏移量start
和stop
指定,如果要左边的第一个到最后的一个lrange key 0 -1
。
移除列表中的元素:
key
的头元素:
lpop key
rpop key
移除并返回列表key
的中间元素:
lrem key count value
将删除key
这个列表中,count
个值为value
的元素。
指定返回第几个元素:
lindex key index
将返回key
这个列表中,索引为index
的这个元素。
获取列表中的元素个数:
llen key
如:
llen languages
删除指定的元素:
lrem key count value
如:
lrem languages 0 php
根据参数 count 的值,移除列表中与参数 value 相等的元素。count
的值可以是以下几种:
value
相等的元素,数量为count
。value
相等的元素,数量为count
的绝对值。value
相等的值。set
集合的操作:
sadd set value1 value2....
如:
sadd team xiaotuo datuo
smembers set
如:
smembers team
srem set member...
如:
srem team xiaotuo datuo
scard set
如:
scard team1
sinter set1 set2
如:
sinter team1 team2
sunion set1 set2
如:
sunion team1 team2
sdiff set1 set2
如:
sdiff team1 team2
hash
哈希操作:
添加一个新值:
hset key field value
如:
hset website baidu baidu.com
将哈希表key
中的域field
的值设为value
。
如果key
不存在,一个新的哈希表被创建并进行 HSET
操作。如果域 field
已经存在于哈希表中,旧值将被覆盖。
获取哈希中的field
对应的值:
hget key field
如:
hget website baidu
删除field
中的某个field
:
hdel key field
如:
hdel website baidu
获取某个哈希中所有的field
和value
:
hgetall key
如:
hgetall website
获取某个哈希中所有的field
:
hkeys key
如:
hkeys website
获取某个哈希中所有的值:
hvals key
如:
hvals website
判断哈希中是否存在某个field
:
hexists key field
如:
hexists website baidu
获取哈希中总共的键值对:
hlen field
如:
hlen website
事务操作:Redis事务可以一次执行多个命令,事务具有以下特征:
开启一个事务:
multi
以后执行的所有命令,都在这个事务中执行的。
执行事务:
exec
会将在multi
和exec
中的操作一并提交。
取消事务:
discard
会将multi
后的所有命令取消。
监视一个或者多个key
:
watch key...
监视一个(或多个)key,如果在事务执行之前这个(或这些) key被其他命令所改动,那么事务将被打断。
取消所有key
的监视:
unwatch
发布/订阅操作:
publish channel message
subscribe channel
Scrapy
是一个框架,他本身是不支持分布式的。如果我们想要做分布式的爬虫,就需要借助一个组件叫做Scrapy-Redis
,这个组件正是利用了Redis
可以分布式的功能,集成到Scrapy
框架中,使得爬虫可以进行分布式。可以充分的利用资源(多个ip、更多带宽、同步爬取)来提高爬虫的爬行效率。
通过pip install scrapy-redis
即可安装。
Scrapy架构图:
Scrapy-Redis架构图:
分布式爬虫架构图:
以上两个图片对比我们可以发现。Item Pipeline
在接收到数据后发送给了Redis
、Scheduler
调度器调度数据也是从Redis
中来的、并且其实数据去重也是在Redis
中做的。
要将一个Scrapy
项目变成一个Scrapy-redis
项目只需修改以下三点就可以了:
scrapy.Spider
变成scrapy_redis.spiders.RedisSpider
;或者是从scrapy.CrawlSpider
变成scrapy_redis.spiders.RedisCrawlSpider
。 start_urls
删掉。增加一个redis_key="xxx"
。这个redis_key
是为了以后在redis
中控制爬虫启动的。爬虫的第一个url,就是在redis中通过这个发送出去的。 # Scrapy-Redis相关配置
# 确保request存储到redis中
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 确保所有爬虫共享相同的去重指纹
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 设置redis为item pipeline
ITEM_PIPELINES = {
‘scrapy_redis.pipelines.RedisPipeline‘: 300
}
# 在redis中保持scrapy-redis用到的队列,不会清理redis中的队列,从而可以实现暂停和恢复的功能。
SCHEDULER_PERSIST = True
# 设置连接redis信息
REDIS_HOST = ‘127.0.0.1‘
REDIS_PORT = 6379
scrapy runspider [爬虫名字]
。Redis
服务器上,推入一个开始的url链接:redis-cli> lpush [redis_key] start_url
开始爬取。标签:hive lin lis 新浪微博 顺序 filter 灾难恢复 获取 soft
原文地址:https://www.cnblogs.com/lcy0302/p/11063564.html