基本用法(配合sed/awk/grep)
默认将输出打印到标准输出中(STDOUT)中
$curl http://www.baidu.com
下载保存:
通过-o/-O选项保存下载的文件到指定的文件中:
-o:将文件保存为命令行中指定的文件名的文件中
-O:使用URL中默认的文件名保存文件到本地
直接输出保存 $curl http://www.baidu.com > index.html 保存在当前目录下并命名 $curl -o index.html http://www.baidu.com 指定路径/home并命名 $curl -o /home/index.html http://www.baidu.com 保存在当前目录下使用默认文件名 $curl -O http://www.baidu.com/target.tar.gz
为CURL设置代理
-x 选项可以为CURL添加代理功能
指定代理主机和端口 curl -x proxysever.test.com:3128 http://google.com 或 curl -x 192.168.1.100:3128 http://google.com
保存与使用网站cookie信息
将网站的cookies信息保存到cookies.txt文件中 curl -D cookies.txt http://localhost/index.php 使用上次保存的cookie信息 curl -b cookies.txt http://localhost/index.php
未完待续吧
本文出自 “大喵下山” 博客,请务必保留此出处http://damiao.blog.51cto.com/8194496/1913720
原文地址:http://damiao.blog.51cto.com/8194496/1913720