禁止搜索引擎收录的方法(robots.txt)一、什么是robots.txt文件?搜索引擎通过一种程序robot(又称spider),自己主动訪问互联网上的网页并获取网页信息。您能够在您的站点中创建一个纯文本文件robots.txt,在这个文件里声明该站点中不想被robot訪问的部分,这样,该站点的...
分类:
其他好文 时间:
2014-10-04 13:00:46
阅读次数:
219
一般公司网页上的图片都会禁止右键另存为,用截图工具接下来的图会带背景色,PS成背景透明有点费时间。用Google Chrome 或Firefox 打开目标网页,右键点击审查元素,将鼠标放在图片上,一般图片都被放在css里,找见图片网址,在浏览器里打开该网址,右键图片,选图片另存为,存下来的LOGO图...
分类:
Web程序 时间:
2014-10-01 18:33:21
阅读次数:
427
曾经在WP7写过一个通过HTTP获取网页内容的小程序,当时一直没能够解决:有一个网址,在每次点击刷新之后页面所呈现的内容都是不同的。但是进行HTTP请求时,结果将会一直重复。从网上查资料得知,在请求数据的时候会自动建立缓存,当网址相同的时候,就不发送请求了。所以就要保证两次的url不能完全一样。 所...
分类:
其他好文 时间:
2014-09-30 22:54:00
阅读次数:
223
1 /// 2 /// 获取网页源码 3 /// 4 /// 链接 5 /// 编码 6 /// 7 public static string GetSource(string Url, string CharSet = "utf-8") 8 { 9 using (WebClient...
分类:
Web程序 时间:
2014-09-29 10:46:10
阅读次数:
125
1.file_get_contents PHP代码 复制代码 代码如下:2.curl PHP代码 复制代码 代码如下:
分类:
Web程序 时间:
2014-09-28 17:49:43
阅读次数:
256
欢迎访问个人原创地址: http://www.phpthinking.com/archives/468
使用PHP的cURL库可以简单和有效地去抓网页。你只需要运行一个脚本,然后分析一下你所抓取的网页,然后就可以以程序的方式得到你想要的数据了。无论是你想从从一个链接上取部分数据,或是取一个XML文件并把其导入数据库,那怕就是简单的获取网页内容,cURL 是一个功能强大的PHP库。本文主要...
分类:
Web程序 时间:
2014-09-28 12:27:01
阅读次数:
317
在使用ajax的时候,我们无法跨域获取不属于自己的服务器的数据,故引出了这么一种方法来辗转获取:
1、向本域中的网页请求数据,包含一个网址信息
2、被请求的本域的网页中的asp代码向跨域的服务器请求数据,然后返回给本域中的asp文件
代码:
1
2
3
4
5
6
7
8
9
10
11
12
Function getHt...
分类:
Web程序 时间:
2014-09-23 12:27:34
阅读次数:
159
使用jython调用java编写的Html解析库,实现自动爬取网站的链接信息...
分类:
Web程序 时间:
2014-09-19 01:11:04
阅读次数:
304
(一)精弘论坛iOS客户端 很早就想做一个自己学校论坛的iOS客户端了。但是论坛(Discuz)没有API,是一个硬伤。高人指点的思路是:用cookies模拟电脑端在线,用HTTP GET的方式获取网页中的内容,用各种正则运算去获取HTML网页中的内容。然后解析之后展现到客户端上来。而发帖之类的操....
分类:
其他好文 时间:
2014-09-17 11:36:32
阅读次数:
192
package ex30;import java.awt.*;import java.awt.event.*;import java.io.*;import java.net.*;import javax.swing.*;public class ViewRemoteFile extends JAp...
分类:
编程语言 时间:
2014-09-14 14:00:17
阅读次数:
226