码迷,mamicode.com
首页 >  
搜索关键字:获取网页    ( 745个结果
php curl_init函数用法
使用PHP的cURL库可以简单和有效地去抓网页。你只需要运行一个脚本,然后分析一下你所抓取的网 页,然后就可以以程序的方式得到你想要的数据了。无论是你想从从一个链接上取部分数据,或是取一个XML文件并把其导入数据库,那怕就是简单的获取网页内 容,cURL 是一个功能强大的PHP库。 PHP中的CURL函数库(Client URL Library Function) curl_close — 关...
分类:Web程序   时间:2014-10-25 17:24:27    阅读次数:299
forever.Sun js获取网页高度
function getInfo() { var s = ""; s += " 网页可见区域宽:"+ document.body.clientWidth+" "; s += " 网页可见区域高:"+ document.body.clientHeight+" "; s += " 网页...
分类:Web程序   时间:2014-10-21 17:05:11    阅读次数:207
C# webbrowser开发指南
全篇引用单元mshtml;       路径:C:\windows\assembly\GAC\Microsoft.mshtml\7.0.3300.0__b03f5f7f11d50a3a\Microsoft.mshtml.dll  //不同的版本路径不同 一、如何用Webbrowser获取网页的全部源代码        1.不含框架           string s= WB1.D...
分类:Windows程序   时间:2014-10-19 21:30:41    阅读次数:261
网站数据获取
本例中主要是通过HtmlAgilityPack解析html源码获取所需的数据. using HtmlAgilityPack;1.通过C#中WebRequest,WebResponse,StreamReader类获取网页源代码WebRequest request = WebRequest.Create...
分类:Web程序   时间:2014-10-17 18:15:13    阅读次数:186
网站数据获取
本例中主要是通过HtmlAgilityPack解析html源码获取所需的数据. using HtmlAgilityPack;1.通过C#中WebRequest,WebResponse,StreamReader类获取网页源代码WebRequest request = WebRequest.Create...
分类:Web程序   时间:2014-10-17 16:50:24    阅读次数:135
Asp.Net Mvc第一天学习
最近学习一种新的模式开发,ASP.NET MVC框架一.基础知识MVC即Model, View, ControllerModel就是我们获取网页需要的数据Controller就是我们获取数据,然后将数据绑定到页面控件的这个业务流程.不十分正确但是可以先这样理解: Controller就是我们的Pag...
分类:Web程序   时间:2014-10-16 20:07:03    阅读次数:183
Android:简单联网获取网页代码
设置权限,在AndroidManifest.xml加入public class MainActivity extends Activity { private EditText address; private Button getbutton; private TextView ...
分类:移动开发   时间:2014-10-14 18:09:43    阅读次数:161
[C#]GetHtmlSource
关键代码: /// /// 获取网页HTML源码 /// /// 链接 eg:http://www.baidu.com/ /// 编码 eg:Encoding.UTF8 /// HTML源码 public static string GetHtmlSource(string ur...
分类:Windows程序   时间:2014-10-11 18:52:46    阅读次数:288
js获取网页高度
function getInfo(){var s = "";s += " 网页可见区域宽:"+ document.body.clientWidth;s += " 网页可见区域高:"+ document.body.clientHeight;s += " 网页可见区域宽:"+ document.body...
分类:Web程序   时间:2014-10-08 14:24:55    阅读次数:151
robots.txt的详细写法
什么是robots.txt?   搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个...
分类:其他好文   时间:2014-10-06 20:38:32    阅读次数:166
745条   上一页 1 ... 65 66 67 68 69 ... 75 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!