htmlunit 抓取网页(爬虫抓取网页的例子是什么?如何下载网页?)

优采云 发布时间: 2021-09-22 11:06

  htmlunit 抓取网页(爬虫抓取网页的例子是什么?如何下载网页?)

  当最近由httpclient编写时,httpclient的一些问题将逮捕一些问题,该问题是捕获收录大量加密文本的内容(通过JavaScript脚本),无法获得真实内容(即打开网页使用浏览器)呈现内容)。因此,它通常需要与JS引擎合作来解决这个问题,搜索,发现HTMLUnit可以提供帮助。这是一个非常糟糕的开源工具。虽然着名的傲慢小于httpclient,但实力绝对不低估。戈斯少。从这里下载:

  以下是爬虫抓取页面的示例:

  String  url="http://outofmemory.cn/";//想采集的网址

String refer="http://open-open.com/";

URL link=new URL(url); 

WebClient wc=new WebClient();

WebRequest request=new WebRequest(link); 

request.setCharset("UTF-8");

request.setProxyHost("120.120.120.x");

request.setProxyPort(8080);

request.setAdditionalHeader("Referer", refer);//设置请求报文头里的refer字段

////设置请求报文头里的User-Agent字段

request.setAdditionalHeader("User-Agent", "Mozilla/5.0 (Windows NT 5.1; rv:6.0.2) Gecko/20100101 Firefox/6.0.2");

//wc.addRequestHeader("User-Agent", "Mozilla/5.0 (Windows NT 5.1; rv:6.0.2) Gecko/20100101 Firefox/6.0.2");

//wc.addRequestHeader和request.setAdditionalHeader功能应该是一样的。选择一个即可。

//其他报文头字段可以根据需要添加

wc.getCookieManager().setCookiesEnabled(true);//开启cookie管理

wc.getOptions().setJavaScriptEnabled(true);//开启js解析。对于变态网页,这个是必须的

wc.getOptions().setCssEnabled(true);//开启css解析。对于变态网页,这个是必须的。

wc.getOptions().setThrowExceptionOnFailingStatusCode(false);

wc.getOptions().setThrowExceptionOnScriptError(false);

wc.getOptions().setTimeout(10000);

//设置cookie。如果你有cookie,可以在这里设置

Set cookies=null;

Iterator i = cookies.iterator();

while (i.hasNext()) 

{

wc.getCookieManager().addCookie(i.next());

}

//准备工作已经做好了

HtmlPage page=null;

page = wc.getPage(request);

if(page==null)

{

System.out.println("采集 "+url+" 失败!!!");

return ;

}

String content=page.asText();//网页内容保存在content里

if(content==null)

{

System.out.println("采集 "+url+" 失败!!!");

return ;

}

//搞定了

CookieManager CM = wc.getCookieManager(); //WC = Your WebClient's name

Set cookies_ret = CM.getCookies();//返回的Cookie在这里,下次请求的时候可能可以用上啦。

  如果您不明白,您可以留言,互相讨论。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线