标签:arp stream targe 调试 入门 验证 服务端 tput 加密
这个一个俄国牛人写的开源工具,为啥说他强悍了,因为他将所有Http协议的底层都实现了一遍,这有啥好处?只要你是写爬虫的,都会遇到一个让人抓狂的问题,就是明明知道自己Http请求头跟浏览器一模一样了,为啥还会获取不到自己想要的数据。这时你如果使用HttpWebReaquest,你只能调试到GetRespone,底层的字节流是调试不到了。所以必须得有个更深入的底层组件,方便自己调试。以下是xNet的开源地址:https://github.com/X-rus/xNet
快速入门
首先来一个读取cnblogs首页的案例,HttpWebRequest在上一篇已经举例,我们看看xNet是怎么写的
using (var request = new xNet.HttpRequest())
{
var html = request.Get("http://www.cnblogs.com").ToString();
}
增加http头,譬如:

注意,默认的http头,建议用属性进行设置,譬如KeepAlive,Referer和UserAgent
扩展的Http头,譬如Upgrade-Insecure-Requests,可以使用AddHeader方法进行设置譬如
using (var request = new xNet.HttpRequest())
{
request.AddHeader("Upgrade-Insecure-Requests", "1");
var html=request.Get("http://www.cnblogs.com").ToString();
}
当然有些方法使用AddHeader和设置属性值是一样的,例如:
request.AddHeader("User-Agent","Mozilla/5.0 (Windows NT 6.3; WOW64; rv:49.0) Gecko/20100101 Firefox/49.0");
request.UserAgent = "Mozilla/5.0 (Windows NT 6.3; WOW64; rv:49.0) Gecko/20100101 Firefox/49.0";
request.UserAgent = xNet.Http.FirefoxUserAgent();
当然不是所有值都可以使用AddHeader进行设置,譬如:Content-Type,这是POST时说明POST的数据类型,如果使用AddHeader会报错。如果你不知道那些可以手动设那些是不能的,参考xNet.HttpHeader的枚举值
public enum HttpHeader
{
Accept = 0,
AcceptCharset = 1,
AcceptLanguage = 2,
AcceptDatetime = 3,
CacheControl = 4,
ContentType = 5,
Date = 6,
Expect = 7,
From = 8,
IfMatch = 9,
IfModifiedSince = 10,
IfNoneMatch = 11,
IfRange = 12,
IfUnmodifiedSince = 13,
MaxForwards = 14,
Pragma = 15,
Range = 16,
Referer = 17,
Upgrade = 18,
UserAgent = 19,
Via = 20,
Warning = 21,
DNT = 22,
AccessControlAllowOrigin = 23,
AcceptRanges = 24,
Age = 25,
Allow = 26,
ContentEncoding = 27,
ContentLanguage = 28,
ContentLength = 29,
ContentLocation = 30,
ContentMD5 = 31,
ContentDisposition = 32,
ContentRange = 33,
ETag = 34,
Expires = 35,
LastModified = 36,
Link = 37,
Location = 38,
P3P = 39,
Refresh = 40,
RetryAfter = 41,
Server = 42,
TransferEncoding = 43,
}
Post提交数据,偷懒,直接用官方的示例
using (var request = new HttpRequest())
{
var reqParams = new RequestParams();
reqParams["login"] = "neo";
reqParams["password"] = "knockknock";
string content = request.Post(
"www.whitehouse.gov", reqParams).ToString();
}
等同于
using (var request = new xNet.HttpRequest())
{
var html = request.Post("www.whitehouse.gov",
"login=neo&password=knockknock", "application/x-www-form-urlencoded").ToString();
}
application/x-www-form-urlencoded是form提交,默认是application/octet-stream,用于上传图片资源之类的,其实我觉得应该Form提交设置为默认,估计表单提交比较常用
会使用Post之后,我们就可以做模拟登陆了,本来想举博客园登陆的例子,奈何dudu做了一系列的防自动登陆措施,所以也就作罢。其实如果真正想破其实也不难,很多公钥都写在页面上了,只要写一个RSA加密算法便可以得到加密后的用户名密码了。有兴趣的人可以研究一下。
还有一个注意的地方,我比较推荐使用第一种方式,因为参数在内核里面就会UrlEncode了,如果自己拼凑地址的话,如果英文是没问题,但是中文或者其他文字就得UrlEncode一下了,譬如:"login="+System.Web.HttpUtility.UrlEncode("老蜗牛")+"&password=knockknock"
这里要强烈抗议一下UrlEncode的方法应该放在System.Net的空间比较合适,因为做爬虫没必要使用System.Web命名空间,当然也有牛X的网友早就写了一个替代品
//不用引用System.Web
public static string ToUrlEncode(string strCode, Encoding encoding)
{
StringBuilder sb = new StringBuilder();
byte[] byStr = encoding.GetBytes(strCode);
System.Text.RegularExpressions.Regex regKey = new System.Text.RegularExpressions.Regex("^[A-Za-z0-9]+$");
for (int i = 0; i < byStr.Length; i++)
{
string strBy = Convert.ToChar(byStr[i]).ToString();
if (regKey.IsMatch(strBy))
{
//是字母或者数字则不进行转换
sb.Append(strBy);
}
else
{
sb.Append(@"%" + Convert.ToString(byStr[i], 16));
}
}
return (sb.ToString());
}
包含文件的表单
using (var request = new HttpRequest())
{
var multipartContent = new MultipartContent()
{
{new StringContent("Bill Gates"), "login"},
{new StringContent("qwerthahaha"), "password"},
{new FileContent(@"C:\windows_9_alpha.rar"), "file1", "1.rar"}
};
request.Post("www.microsoft.com", multipartContent).None();
}
设置Cookie值,这在模拟登陆和验证码会经常用到
using (var request = new xNet.HttpRequest())
{
request.Cookies = new xNet.CookieDictionary()
{
{"SERVERID", "9ffd301069c1081a14d128e0c97deda8|1478866092|1478862527"}
};
var html = request.Get("http://www.cnblogs.com").ToString();
}
等同于
using (var request = new xNet.HttpRequest())
{
request.AddHeader("Set-Cookie","SERVERID=9ffd301069c1081a14d128e0c97deda8|1478866092|1478862527;Path=/");
var html=request.Get("http://www.cnblogs.com").ToString();
}
使用Http代理
var proxyClient = HttpProxyClient.Parse("127.0.0.1:8080");
var tcpClient = proxyClient.CreateConnection("habrahabr.ru", 80);
当然他还支持Socks4和Socks5,代理的好处不言而喻了。当然在挠头找服务端的童鞋可以上https://github.com/NewLifeX/X 里面有一个http代理服务器,非常强悍。不会弄的可以加石头的群。
其他更多的功能就不一一举例了,有星期可以加群研究研究。
一下篇会讲讲如何获取页面数据,主要是靠HtmlAgilityPack组件或者正则,两者各有各的优势。如果等不及可以看看我的好友老董写的一篇文章
C#+HtmlAgilityPack+XPath带你采集数据(以采集天气数据为例子)
开源Q群:302961959
足球研究技术群:142780296
标签:arp stream targe 调试 入门 验证 服务端 tput 加密
原文地址:http://www.cnblogs.com/weitaoxiaozhu/p/6037928.html