如何使用Java制作网络爬虫?

互联网上有很多有用的信息。我们如何自动获取这些信息?-是的,网络爬虫。

如何使用Java制作网络爬虫?

这篇文章展示了如何使用Java制作简单的Web爬网程序原型。制作Web搜寻器并不像听起来那样困难。只需按照指南进行操作,您将在1小时或更短的时间内迅速到达该地点,然后享受它可以为您提供的大量信息。由于这只是一个原型,因此您需要花费更多时间来根据需要自定义它。

以下是本教程的先决条件:

· 基本Java程式设计

· 关于SQL和MySQL数据库的一些知识。

如果您不想使用数据库,则可以使用文件来跟踪爬网历史记录。

1.目标


在本教程中,目标如下:

给定学校根URL,例如" mit.edu",返回包含该学校字符串" research"的所有页面

典型的搜寻器按以下步骤工作:

1. 解析根网页(" mit.edu"),并从该页面获取所有链接。要访问每个URL并解析HTML页面,我将使用JSoup,它是用Java编写的便捷的网页解析器。

2. 使用从步骤1检索到的URL,并解析这些URL

3. 执行上述步骤时,我们需要跟踪之前已处理过的页面,因此每个网页仅被处理一次。这就是我们需要数据库的原因。

2.设置MySQL数据库

如果您使用的是Ubuntu,则可以按照本指南安装Apache,MySQL,PHP和phpMyAdmin。

如果使用Windows,则只需使用WampServer。您可以简单地从wampserver.com下载它,并在一分钟内安装它,可以继续进行下一步。

我将使用phpMyAdmin来操作MySQL数据库。它只是使用MySQL的GUI界面。如果您使用任何其他工具或不使用GUI工具,那都很好。

3.创建一个数据库和一个表

创建一个名为" Crawler"的数据库,并创建一个名为" Record"的表,如下所示:

<code>CREATE TABLE IF NOT EXISTS `Record` (/<code>
<code>  `RecordID` INT(11) NOT NULL AUTO_INCREMENT,/<code>
<code>  `URL` text NOT NULL,/<code>
<code>  PRIMARY KEY (`RecordID`)) ENGINE=InnoDB DEFAULT CHARSET=utf8 AUTO_INCREMENT=1 ;/<code>

4.开始使用Java进行爬网

1)下载JSoup核心库。

2)现在,在Jsoup中创建一个名为" Crawler"的项目,并将您下载的JSoup和mysql-connector jar文件添加到Java Build Path。(右键单击项目->选择"构建路径"->"配置构建路径"->单击"库"选项卡->单击"添加外部JAR")

3)创建一个名为" DB"的类,该类用于处理数据库操作。

<code>import java.sql.Connection;import java.sql.DriverManager;import java.sql.ResultSet;import java.sql.SQLException;import java.sql.Statement;/<code>
<code>public class DB {/<code>
<code>
<code>\tpublic Connection conn = null;/<code>
<code>
<code>\tpublic DB() {/<code>
<code>\t\ttry {/<code>
<code>\t\t\tClass.forName("com.mysql.jdbc.Driver");/<code>
<code>\t\t\tString url = "jdbc:mysql://localhost:3306/Crawler";/<code>
<code>\t\t\tconn = DriverManager.getConnection(url, "root", "admin213");/<code>
<code>\t\t\tSystem.out.println("conn built");/<code>
<code>\t\t} catch (SQLException e) {/<code>
<code>\t\t\te.printStackTrace();/<code>
<code>\t\t} catch (ClassNotFoundException e) {/<code>
<code>\t\t\te.printStackTrace();/<code>
<code>\t\t}/<code>
<code>\t}/<code>
<code>
<code>\tpublic ResultSet runSql(String sql) throws SQLException {/<code> 
<code>\t\tStatement sta = conn.createStatement();/<code>
<code>\t\treturn sta.executeQuery(sql);/<code>
<code>\t}/<code>
<code>
<code>\tpublic boolean runSql2(String sql) throws SQLException {/<code>
<code>\t\tStatement sta = conn.createStatement();/<code>
<code>\t\treturn sta.execute(sql);/<code>
<code>\t}/<code>
<code>
<code>\t@Override/<code>
<code>\tprotected void finalize() throws Throwable {/<code>
<code>\t\tif (conn != null || !conn.isClosed()) {/<code>
<code>\t\t\tconn.close();/<code>
<code>\t\t}/<code>
<code>\t}}/<code>

4)创建一个名称为" Main"的类,它将作为我们的搜寻器。

<code>import java.io.IOException;import java.sql.PreparedStatement;import java.sql.ResultSet;import java.sql.SQLException;import java.sql.Statement;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;import org.jsoup.nodes.Element;import org.jsoup.select.Elements;/<code>
<code>
<code>public class Main {/<code>
<code>\tpublic static DB db = new DB();/<code>
<code>
<code>\tpublic static void main(String[] args) throws SQLException, IOException {/<code>
<code>\t\tdb.runSql2("TRUNCATE Record;");/<code>
<code>\t\tprocessPage("http://www.mit.edu");/<code> 
<code>\t}/<code>
<code>
<code>\tpublic static void processPage(String URL) throws SQLException, IOException{/<code>
<code>\t\t//check if the given URL is already in database/<code>
<code>\t\tString sql = "select * from Record where URL = '"+URL+"'";/<code>
<code>\t\tResultSet rs = db.runSql(sql);/<code>
<code>\t\tif(rs.next()){/<code>
<code>
<code>\t\t}else{/<code>
<code>\t\t\t//store the URL to database to avoid parsing again/<code>
<code>\t\t\tsql = "INSERT INTO  `Crawler`.`Record` " + "(`URL`) VALUES " + "(?);";/<code>
<code>\t\t\tPreparedStatement stmt = db.conn.prepareStatement(sql, Statement.RETURN_GENERATED_KEYS);/<code>
<code>\t\t\tstmt.setString(1, URL);/<code>
<code>\t\t\tstmt.execute();/<code>
<code>
<code>\t\t\t//get useful information/<code>
<code>\t\t\tDocument doc = Jsoup.connect("http://www.mit.edu/").get();/<code>
<code>
<code>\t\t\tif(doc.text().contains("research")){/<code>
<code>\t\t\t\tSystem.out.println(URL);/<code>
<code>\t\t\t}/<code>
<code>
<code>\t\t\t//get all links and recursively call the processPage method/<code>
<code>\t\t\tElements questions = doc.select("a[href]");/<code>
<code>\t\t\tfor(Element link: questions){/<code> 
<code>\t\t\t\tif(link.attr("href").contains("mit.edu"))/<code>
<code>\t\t\t\t\tprocessPage(link.attr("abs:href"));/<code>
<code>\t\t\t}/<code>
<code>\t\t}/<code>
<code>\t}}/<code>


最后,开发这么多年我也总结了一套学习Java的资料与面试题,如果你在技术上面想提升自己的话,可以关注我,私信发送领取资料或者在评论区留下自己的联系方式,有时间记得帮我点下转发让跟多的人看到哦。

如何使用Java制作网络爬虫?

如何使用Java制作网络爬虫?


分享到:


相關文章: