C#下解析html页面的几种方式?

写网页抓取应用的时候经常需要解析html页面,此时就需要html解析器。当然可以自己从零开始写一个全新的html parser,但是对于一般的网页分析,使用现成的解析器可能更好(可靠性、稳定性、性能)。

java平台下sourceforge上有一个开源的解析器,可以从这里下载:http://htmlparser.sourceforge.net。但是在dot net平台下一直没有很好的开源html解析器,因此通常dot net平台下一般有下面几种解析html网页的方式:

1、使用微软的mshtml com组件

这种大概在c++语言下用的最多,dot net下也可以使用,添加对mshtml com组件的引用。使用mshtml com的优势是可以运行网页里的java script脚本,有的网站做得很变态,网页的最终内容是通过网页的onload事件里的java script脚本实时生成的,网页文件里根本就没有所需要的正常内容;但是也有个缺点,在俺的实际使用中,发现用mshtml com会导致内存占用持续上升,直到所有物理内存耗光,dot net的垃圾回收机制看来没起作用

2、使用HtmlAgilityPack

HtmlAgilityPack是一个开源的html解析器,底层是通过将html格式转成标准的xml格式文件来实现的(使用dot net里的XPathDocument等xml相关类),可以从这里下载:http://htmlagilitypack.codeplex.com。可以通过指定xpath路径提取需要的内容,上面那个网站也提供了一个自动生成xpath路径的工具HAP Explorer。缺点和上面使用mshtml com组件一样,内存占用非常大,会耗光所有物理内存。

3、使用SgmlReader

SgmlReader也是一个开源的解析器,可以从这里下载(微软自己网站上的那个不完整,缺少一些文件)。用这个工具先将html文件转成标准的xml格式文件,再通过制定xpath路径来提取所需要的内容(xpath路径可以通过上面的那个工具生成)。下面一个简单的示例代码:

XPathDocument pathDoc = null;

using (SgmlReader sgmlReader = new SgmlReader())

{

sgmlReader.DocType = "HTML";

sgmlReader.InputStream = new StringReader(html);

using (StringWriter stringWriter = new StringWriter())

{

using (XmlTextWriter xmlWriter = new XmlTextWriter(stringWriter))

{

while (!sgmlReader.EOF)

{

xmlWriter.WriteNode(sgmlReader, true);

}

string xml = stringWriter.ToString().Replace("xmlns=\"http://www.w3.org/1999/xhtml\"", "");

pathDoc = new XPathDocument(new StringReader(xml));

}

}

}

//提取出整个table

string xpath = "//div[@class=\"infoList\"]/table";//xpath表达式

XPathNavigator nav = pathDoc.CreateNavigator();

XPathNodeIterator nodes = nav.Select(xpath);

if (!nodes.MoveNext())

{

return;

}

nodes = nodes.Current.Select("//tr");

if (!nodes.MoveNext()) return;

string str = "";

while (nodes.MoveNext())

{

//遍历所有行

XPathNodeIterator tdNode = nodes.Current.Select("./td");

while (tdNode.MoveNext())

{

//遍历列

str += tdNode.Current.Value.Trim() + " ";

}

str += "\r\n";

}

//输出结果

Console.WriteLine(str);

如果要提取图片的src,xpath写成这样://div[@class=\"infoList\"]/img/@src

注意:

上面的这行 stringWriter.ToString().Replace("xmlns=\"http://www.w3.org/1999/xhtml\"", "");

使用SgmlReader转换后的html会在根元素<html>自动加上命名空间http://www.w3.org/1999/xhtml,变成这样:

<html xmlns="http://www.w3.org/1999/xhtml">

如果不把这个xmlns="http://www.w3.org/1999/xhtml"移走,那么

XPathNodeIterator nodes = nav.Select(xpath);

这条语句将取不出来内容,也即是nodes.MoveNext()的值将会是false,网上很多例子里都没有提到这点

例子中的html样本:

<html>

<head>

<title>示例Test</title>

</head>

<body>

<div >

</div>

</div>

</doby>

</html>

使用SgmlReader的好处就是内存占用稳定,在俺实际使用中内存上下浮动不会超过20M(2个线程,间隔60秒抓取一个新页面,7*24小时不间断的后台服务程序)。不足就是html转成xml格式耗时间

4、自己写html解析器

这种方式就不详细说了,每个人的实现都不相同。