标签:
学习python爬虫框架scrapy的时候,用到pip管理工具来安装scrapy。最直观的感受,pip有点类似于Ubuntu下的apt-get工具,几行代码,自动下载、安装相关的东西。网上查了一些背景资料。
python的使用过程中经常引入其他包来实现功能,而pip就是一个管理这些包的工具。当前比较流行的python包管理工具有easy_install以及pip。据说easy_install的删除包功能不太好,所以相对而言pip更受欢迎。
python版本2.x和3.y以上自带pip(我不记得x和y的具体值了,可以在命令行下运行 pip --version 试试有没有安装pip),反正我的python 2.7.11是自带了pip的,但是自带pip可能版本不够问题需要更新,按照指示update一下就好。
使用pip遇到最大的问题就是下载到一半下不动、抛异常、程序中止。这时候很可能是国内网络原因,pip的默认源地址在国外,获取不到。此时需要替换pip的源(感觉和apt-get越来越像了)
自定义pip源方法:
windows下,在当前用户目录pip文件夹下更改pip.ini(没有以上路径,请新建之)。注意,这里的用户目录指的是windows给每个用户默认的一个路径。一般在系统盘\用户目录下,比如我的:
C:\Users\undeadfire\
编辑pip.ini文件,添加以下内容:
[global]
trusted-host=mirrors.aliyun.com
index-url=http://mirrors.aliyun.com/pypi/simple/
这里用的是阿里云的源,速度嗖嗖的,爸爸的资源就是赞。
上面方法摘自网页:http://it.taocms.org/08/8567.htm
标签:
原文地址:http://www.cnblogs.com/flowingcloud/p/5667697.html