java爬虫抓取动态网页( Java爬虫爬取网页内容网页内容方法:用apache提供的包)

优采云 发布时间: 2021-09-12 04:09

  java爬虫抓取动态网页(

Java爬虫爬取网页内容网页内容方法:用apache提供的包)

  

  1、网络爬虫

  按照一定的规则爬取网页上的信息,通常是在爬取一些网址之后,再将这些网址放入队列中反复搜索。

  2、Java 爬虫网页

  对于网页的内容,找到网页中的其他链接地址,然后通过这些链接地址找到下一个网页,一直循环直到所有网站网页都被抓取。如果把整个互联网看作一个网站,那么网络蜘蛛就可以利用这个原理来抓取互联网上的所有网页。

  3、Java 爬虫方法抓取网页内容:使用apache提供的包

  // commons-httpclient-3.1.jar

// commons-logging-1.0.4.jar

public static String createhttpClient(String url, String param) {

   HttpClient client = new HttpClient();

   String response = null ;

   String keyword = null ;

   PostMethod postMethod = new PostMethod(url);

//  try {

//   if (param != null)

//    keyword = new String(param.getBytes("gb2312"), "ISO-8859-1");

//  } catch (UnsupportedEncodingException e1) {

//   // TODO Auto-generated catch block

//   e1.printStackTrace();

//  }

   // NameValuePair[] data = { new NameValuePair("keyword", keyword) };

   // // 将表单的值放入postMethod中

   // postMethod.setRequestBody(data);

   // 以上部分是带参数抓取,我自己把它注销了.大家可以把注销消掉研究下

   try {

    int statusCode = client.executeMethod(postMethod);

    response = new String(postMethod.getResponseBodyAsString()

      .getBytes( "ISO-8859-1" ), "gb2312" );

      //这里要注意下 gb2312要和你抓取网页的编码要一样

    String p = response.replaceAll( "//&[a-zA-Z]{1,10};" , "" )

      .replaceAll( "]*>" , "" ); //去掉网页中带有html语言的标签

    System.out.println(p);

   } catch (Exception e) {

    e.printStackTrace();

   }

   return response;

}

  在Java爬虫中使用apache提供的包对网页内容进行爬取非常方便。可以用代码来用~更多java学习推荐:java教程。

  (推荐操作系统:win7系统,java10版本,DELL G3电脑。)

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线