博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Java爬虫,信息抓取的实现
阅读量:4591 次
发布时间:2019-06-09

本文共 10135 字,大约阅读时间需要 33 分钟。

转载请注明出处:http://blog.csdn.net/lmj623565791/article/details/23272657

今天公司有个需求,需要做一些指定网站查询后的数据的抓取,于是花了点时间写了个demo供演示使用。

思想很简单:就是通过Java访问的链接,然后拿到html字符串,然后就是解析链接等需要的数据。

技术上使用Jsoup方便页面的解析,当然Jsoup很方便,也很简单,一行代码就能知道怎么用了:

Document doc = Jsoup.connect("http://www.oschina.net/")   .data("query", "Java")   // 请求参数  .userAgent("I ’ m jsoup") // 设置 User-Agent   .cookie("auth", "token") // 设置 cookie   .timeout(3000)           // 设置连接超时时间  .post();                 // 使用 POST 方法访问 URL
下面介绍整个实现过程:

1、分析需要解析的页面:

网址:http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery

页面:

先在这个页面上做一次查询:观察下请求的url,参数,method等。

这里我们使用chrome内置的开发者工具(快捷键F12),下面是查询的结果:

我们可以看到url,method,以及参数。知道了如何或者查询的URL,下面就开始代码了,为了重用与扩展,我定义了几个类:

1、Rule.java用于指定查询url,method,params等

package com.zhy.spider.rule;/** * 规则类 *  * @author zhy *  */public class Rule{	/**	 * 链接	 */	private String url;	/**	 * 参数集合	 */	private String[] params;	/**	 * 参数对应的值	 */	private String[] values;	/**	 * 对返回的HTML,第一次过滤所用的标签,请先设置type	 */	private String resultTagName;	/**	 * CLASS / ID / SELECTION	 * 设置resultTagName的类型,默认为ID 	 */	private int type = ID ;		/**	 *GET / POST	 * 请求的类型,默认GET	 */	private int requestMoethod = GET ; 		public final static int GET = 0 ;	public final static int POST = 1 ;		public final static int CLASS = 0;	public final static int ID = 1;	public final static int SELECTION = 2;	public Rule()	{	}		public Rule(String url, String[] params, String[] values,			String resultTagName, int type, int requestMoethod)	{		super();		this.url = url;		this.params = params;		this.values = values;		this.resultTagName = resultTagName;		this.type = type;		this.requestMoethod = requestMoethod;	}	public String getUrl()	{		return url;	}	public void setUrl(String url)	{		this.url = url;	}	public String[] getParams()	{		return params;	}	public void setParams(String[] params)	{		this.params = params;	}	public String[] getValues()	{		return values;	}	public void setValues(String[] values)	{		this.values = values;	}	public String getResultTagName()	{		return resultTagName;	}	public void setResultTagName(String resultTagName)	{		this.resultTagName = resultTagName;	}	public int getType()	{		return type;	}	public void setType(int type)	{		this.type = type;	}	public int getRequestMoethod()	{		return requestMoethod;	}	public void setRequestMoethod(int requestMoethod)	{		this.requestMoethod = requestMoethod;	}}

简单说一下:这个规则类定义了我们查询过程中需要的所有信息,方便我们的扩展,以及代码的重用,我们不可能针对每个需要抓取的网站写一套代码。

2、需要的数据对象,目前只需要链接,LinkTypeData.java

package com.zhy.spider.bean;public class LinkTypeData{	private int id;	/**	 * 链接的地址	 */	private String linkHref;	/**	 * 链接的标题	 */	private String linkText;	/**	 * 摘要	 */	private String summary;	/**	 * 内容	 */	private String content;	public int getId()	{		return id;	}	public void setId(int id)	{		this.id = id;	}	public String getLinkHref()	{		return linkHref;	}	public void setLinkHref(String linkHref)	{		this.linkHref = linkHref;	}	public String getLinkText()	{		return linkText;	}	public void setLinkText(String linkText)	{		this.linkText = linkText;	}	public String getSummary()	{		return summary;	}	public void setSummary(String summary)	{		this.summary = summary;	}	public String getContent()	{		return content;	}	public void setContent(String content)	{		this.content = content;	}}
3、核心的查询类:ExtractService.java

package com.zhy.spider.core;import java.io.IOException;import java.util.ArrayList;import java.util.List;import java.util.Map;import javax.swing.plaf.TextUI;import org.jsoup.Connection;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;import org.jsoup.nodes.Element;import org.jsoup.select.Elements;import com.zhy.spider.bean.LinkTypeData;import com.zhy.spider.rule.Rule;import com.zhy.spider.rule.RuleException;import com.zhy.spider.util.TextUtil;/** *  * @author zhy *  */public class ExtractService{	/**	 * @param rule	 * @return	 */	public static List
extract(Rule rule) { // 进行对rule的必要校验 validateRule(rule); List
datas = new ArrayList
(); LinkTypeData data = null; try { /** * 解析rule */ String url = rule.getUrl(); String[] params = rule.getParams(); String[] values = rule.getValues(); String resultTagName = rule.getResultTagName(); int type = rule.getType(); int requestType = rule.getRequestMoethod(); Connection conn = Jsoup.connect(url); // 设置查询参数 if (params != null) { for (int i = 0; i < params.length; i++) { conn.data(params[i], values[i]); } } // 设置请求类型 Document doc = null; switch (requestType) { case Rule.GET: doc = conn.timeout(100000).get(); break; case Rule.POST: doc = conn.timeout(100000).post(); break; } //处理返回数据 Elements results = new Elements(); switch (type) { case Rule.CLASS: results = doc.getElementsByClass(resultTagName); break; case Rule.ID: Element result = doc.getElementById(resultTagName); results.add(result); break; case Rule.SELECTION: results = doc.select(resultTagName); break; default: //当resultTagName为空时默认去body标签 if (TextUtil.isEmpty(resultTagName)) { results = doc.getElementsByTag("body"); } } for (Element result : results) { Elements links = result.getElementsByTag("a"); for (Element link : links) { //必要的筛选 String linkHref = link.attr("href"); String linkText = link.text(); data = new LinkTypeData(); data.setLinkHref(linkHref); data.setLinkText(linkText); datas.add(data); } } } catch (IOException e) { e.printStackTrace(); } return datas; } /** * 对传入的参数进行必要的校验 */ private static void validateRule(Rule rule) { String url = rule.getUrl(); if (TextUtil.isEmpty(url)) { throw new RuleException("url不能为空!"); } if (!url.startsWith("http://")) { throw new RuleException("url的格式不正确!"); } if (rule.getParams() != null && rule.getValues() != null) { if (rule.getParams().length != rule.getValues().length) { throw new RuleException("参数的键值对个数不匹配!"); } } }}
4、里面用了一个异常类:RuleException.java

package com.zhy.spider.rule;public class RuleException extends RuntimeException{	public RuleException()	{		super();		// TODO Auto-generated constructor stub	}	public RuleException(String message, Throwable cause)	{		super(message, cause);		// TODO Auto-generated constructor stub	}	public RuleException(String message)	{		super(message);		// TODO Auto-generated constructor stub	}	public RuleException(Throwable cause)	{		super(cause);		// TODO Auto-generated constructor stub	}}
5、最后是测试了:这里使用了两个网站进行测试,采用了不同的规则,具体看代码吧

package com.zhy.spider.test;import java.util.List;import com.zhy.spider.bean.LinkTypeData;import com.zhy.spider.core.ExtractService;import com.zhy.spider.rule.Rule;public class Test{	@org.junit.Test	public void getDatasByClass()	{		Rule rule = new Rule(				"http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery",		new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "兴网","" },				"cont_right", Rule.CLASS, Rule.POST);		List
extracts = ExtractService.extract(rule); printf(extracts); } @org.junit.Test public void getDatasByCssQuery() { Rule rule = new Rule("http://www.11315.com/search", new String[] { "name" }, new String[] { "兴网" }, "div.g-mn div.con-model", Rule.SELECTION, Rule.GET); List
extracts = ExtractService.extract(rule); printf(extracts); } public void printf(List
datas) { for (LinkTypeData data : datas) { System.out.println(data.getLinkText()); System.out.println(data.getLinkHref()); System.out.println("***********************************"); } }}
输出结果:

深圳市网兴科技有限公司http://14603257.11315.com***********************************荆州市兴网公路物资有限公司http://05155980.11315.com***********************************西安市全兴网吧#***********************************子长县新兴网城#***********************************陕西同兴网络信息有限责任公司第三分公司#***********************************西安高兴网络科技有限公司#***********************************陕西同兴网络信息有限责任公司西安分公司#***********************************
最后使用一个Baidu新闻来测试我们的代码:说明我们的代码是通用的。

/**	 * 使用百度新闻,只设置url和关键字与返回类型	 */	@org.junit.Test	public void getDatasByCssQueryUserBaidu()	{		Rule rule = new Rule("http://news.baidu.com/ns",				new String[] { "word" }, new String[] { "支付宝" },				null, -1, Rule.GET);		List
extracts = ExtractService.extract(rule); printf(extracts); }
我们只设置了链接、关键字、和请求类型,不设置具体的筛选条件。

结果:有一定的垃圾数据是肯定的,但是需要的数据肯定也抓取出来了。我们可以设置Rule.SECTION,以及筛选条件进一步的限制。

按时间排序/ns?word=支付宝&ie=utf-8&bs=支付宝&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime***********************************xjavascript:void(0)***********************************支付宝将联合多方共建安全基金 首批投入4000万http://finance.ifeng.com/a/20140409/12081871_0.shtml***********************************7条相同新闻/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd***********************************百度快照http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1***********************************OpenSSL漏洞涉及众多网站 支付宝称暂无数据泄露http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml***********************************26条相同新闻/ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd***********************************百度快照http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2***********************************雅虎日本6月起开始支持支付宝付款http://www.techweb.com.cn/ucweb/news/id/2025843***********************************

如果有什么不足,可以指出;如果觉得对你有用,顶一下~~哈哈

转载于:https://www.cnblogs.com/oversea201405/p/3752050.html

你可能感兴趣的文章
浮动:图解两栏布局
查看>>
CSS3 box-sizing 属性
查看>>
expect用法
查看>>
JavaScript [ 转 ] —— 面向对象编程(二):构造函数的继承
查看>>
$百度应用引擎BAE的使用与应用部署
查看>>
Keras入门——(6)长短期记忆网络LSTM(三)
查看>>
高效算法的常用技术(算法导论)
查看>>
TCP、UDP套接字网络协议
查看>>
STDIN_FILENO与stdin区别(转)
查看>>
页面操作postback后保持滚动条位置
查看>>
nginx动静分离小示例
查看>>
nginx socket转发设置
查看>>
centos samba搭建
查看>>
Android Studio 错误: 非法字符: '\ufeff'
查看>>
并发编程--一堆锁,GIL,同步异步,Event事件
查看>>
svn配置
查看>>
解决SQLite database is locked
查看>>
Javascript中this关键字
查看>>
微信静默授权
查看>>
Spring MVC框架初步讲解
查看>>