日前有采集需求,当我把所有的对应页面的链接都拿到手,准备开始根据链接去采集(写爬虫爬取)对应的终端页的时候,发觉用程序获取到的数据根本没有对应的内容,可是我的浏览器看到的内容明明是有的,于是浏览器查看源代码也发觉没有,此时想起该网页应该是ajax加载的。不知道ajax的小朋友可以去学下web开发啦。
采集ajax生成的内容手段不外乎两种。一种是通过http观察加载页面时候的请求,然后我们模仿该请求去得到对应的内容,第二种则是模仿浏览器行为去渲染这个页面得到内容。我在这里决定采用第二种方式,之前一直玩webkit,不过一直要加载页面太浪费资源了,此时了解到有一个好玩的玩意phantomjs,这是个可以用命令行来操作webkit的玩意,然后也可以直接在里面用js的api去操作页面(当然,我这边比较简单就懒得用了)。
下载完phantomjs之后直接解压就可以使用,然后在path目录加入phantomjs的路径(以便直接在命令行就可以执行phantomjs命令)。
接下来要完成个代码,一个是用phantomjs去获取页面(采用js编写行为),一个是采用java去调用phantomjs来达到获取内容的作用,接下来直接贴代码。
- system = require(‘system‘)
- address = system.args[1];
- var page = require(‘webpage‘).create();
- var url = address;
- page.open(url, function (status) {
-
- if (status !== ‘success‘) {
- console.log(‘Unable to post!‘);
- } else {
-
-
-
-
-
-
- console.log(page.content);
- }
- phantom.exit();
- });
上述的js代码估计应该没几个看不懂的。。。
接下来贴java代码!
- import org.apache.commons.io.IOUtils;
-
- import java.io.*;
-
- public class HttpUtils {
- public static String getAjaxCotnent(String url) throws IOException {
- Runtime rt = Runtime.getRuntime();
- Process p = rt.exec("phantomjs.exe c:/phantomjs/codes.js "+url);
- InputStream is = p.getInputStream();
- BufferedReader br = new BufferedReader(new InputStreamReader(is));
- StringBuffer sbf = new StringBuffer();
- String tmp = "";
- while((tmp = br.readLine())!=null){
- sbf.append(tmp);
- }
-
- return sbf.toString();
- }
-
- public static void main(String[] args) throws IOException {
- getAjaxCotnent("http://www.oicqzone.com");
- }
- }