一、获取数据

想弄一个数据库,由于需要一些人名,所以就去百度一下,然后发现了360图书馆中有很多人名



然后就像去复制一下,发现复制不了,需要登陆





此时f12查看源码是可以复制的,不过就算可以复制想要插入数据也是很麻烦的。既然复制走不通,于是我抱着探索知识的精神,打开了Visual Studio


首先我们需要先拿到整个页面的数据,此时的话可以使用WebClient对象来获取数据(HttpWebRequest方式稍微有点麻烦),然后使用byte数组来接受一下返回值
public static void GetData(String address) { WebClient wc = new WebClient();
byte[] htmlData = wc.DownloadData(address); }
此时需要将htmlData对象解码为String对象,然后我们在网站中f12看一下解码方式



可以看到charset=utf-8,说明需要用utf-8来解码,然后使用Encoding对象来解码
string html = Encoding.UTF8.GetString(htmlData);
我们输出一下html有没有值
static void Main(string[] args) { //将地址复制过来 GetData("
http://www.360doc.com/content/18/1010/13/642066_793541226.shtml");
Console.ReadKey(); }public static void GetData(String address) { WebClient wc =
new WebClient(); //地址由调用时传入 byte[] htmlData = wc.DownloadData(address); string
html = Encoding.UTF8.GetString(htmlData); Console.WriteLine(html); }
输出:





二、Regex匹配

接下来就是匹配的问题了,首先看一下html文档的结构



就是说只需要匹配到所有的p标签,然后拿到其中的内容就行了

第一种想到的就是使用正则表达式匹配:
public static void GetData(String address) { WebClient wc = new WebClient(); //
地址由调用时传入 byte[] htmlData = wc.DownloadData(address); string html =
Encoding.UTF8.GetString(htmlData);//使用正则表达式匹配 <p或P>非空字符至少100个<P或p> Regex reg =
new Regex("<[pP]>\\S{100,}</[Pp]>"); //接受所有匹配到的项 MatchCollection result =
reg.Matches(html);//循环输出 foreach (Match item in result) {
Console.WriteLine(item.Value); } }
调用不变,启动:




匹配到是匹配到了,但是我们把<p></p>标签也匹配出来了,所以把正则表达式改进一下,使用组匹配,将p标签中的内容单独匹配出来(当然也可以截取字符串)。也就是说在写正则表达式时,将想要单独匹配出来的数据用括号"(想要单独匹配出来的数据)"括起来,来看一下怎么写:
Regex reg = new Regex("<[pP]>(\\S{100,})</[Pp]>");
然后如果想要拿数据的话,需要使用Match对象的Groups属性通过索引来获取匹配到的组:
public static void GetData(String address) { WebClient wc = new WebClient(); //
地址由调用时传入 byte[] htmlData = wc.DownloadData(address); string html =
Encoding.UTF8.GetString(htmlData);//使用正则表达式组匹配 <p或P>(非空字符至少100个)<P或p> Regex reg
=new Regex("<[pP]>(\\S{100,})</[Pp]>"); //接受所有匹配到的项 MatchCollection result =
reg.Matches(html);//循环输出 foreach (Match item in result) { //0的话是整体匹配到的字符串对象 //
1就是第一个匹配到的组(\\S{100,) Console.WriteLine(item.Groups[1]); } }
输出结果:



这次p标签就没有被匹配进入组中(如果通过item.Groups[0]拿到的回是和上面匹配到一样的数据,会带p标签)

匹配到了之后就可以使用item.Groups[1].Split('、')来将字符串分割为String数组,然后循环写入数据库,或者进行其他操作。

三、HTML解析器NSoup


虽然正则表达式也可以匹配,但是如果对正则表达式比较陌生的话,可能就不是友好了。如果有方法可以像用js操作html元素一样,用C#操作html字符串,就非常棒了。NSoup就是可以做到解析html字符串,变成可操作的对象。

首先使用前先在管理NuGet程序包中添加:NSoup,直接就可以搜索到,添加完成之后接下来就看一下如何使用

使用NSoupClient.Parse(放入html代码:<html>....</html>)创建一个声明Docuemnt文档对象:
//声明Document对象 Document doc = NSoupClient.Parse(html);
第二种就是使用Document doc = NSoupClient.Connect(放入url)   
.Get()/.Post(),然后他就会自动获取url地址的html代码,并且根据html代码加载一个Document对象
//通过url自动加载Document对象 Document doc = NSoupClient.Connect(address).Get();
当然还有其他方式获取,然后我们看一下如何使用Document对象
//通过id获取元素 //获取id为form的元素 Element form = doc.GetElementById("form"); //
通过标签名获取元素//获取所有的p标签 Elements p = doc.GetElementsByTag("p"); //通过类样式获取元素 //
获取类样式为btn的元素 Elements c = doc.GetElementsByClass("btn"); //通过属性获取 //
获取包含style属性的元素 Elements attr = doc.GetElementsByAttribute("style");
也可以自己组合一些其他的嵌套操作,例如:



获取id为artContent下的所有p标签
//使用链式编程 //获取id为artContent下的所有p标签 Elements ps = doc.GetElementById("artContent"
).GetElementsByTag("p"); //等同于 //Element artContent =
doc.GetElementById("artContent");//Elements ps =
artContent.GetElementsByTag("p");
元素方法的使用:
//Elements是Element元素的集合 多了个s //Element对象的方法 Element id = doc.GetElementById("id
"); //获取或设置id元素的文本 id.Text(); //获取或设置id元素的html代码 id.Html(); //获取或设置id元素的value值
id.Val();
都是像js操作html元素一样的方法,而且方法的名字也很人性,基本上一看就会知道方法是什么意思,方法也太多了就不一一讲了。

然后我们来使用NSoup获取所有的名字,来试一下就会发现很简单了:

 方式一:
public static void GetData(String address) { WebClient wc = new WebClient();
byte[] htmlData = wc.DownloadData(address); string html =
Encoding.UTF8.GetString(htmlData); Document doc= NSoupClient.Parse(html); //
先获取id为artContent的元素,再获取所有的p标签 Elements p = doc.GetElementById("artContent"
).GetElementsByTag("p"); foreach (Element item in p) {
Console.WriteLine(item.Text()); } }
方式二:
public static void GetData(String address) { //直接通过url来获取Document对象 Document
doc = NSoupClient.Connect(address).Get(); //先获取id为artContent的元素,再获取所有的p标签
Elements p = doc.GetElementById("artContent").GetElementsByTag("p"); foreach
(Element itemin p) { Console.WriteLine(item.Text()); } }
运行结果都是一样的




总结:效率的话不太了解就不做评价了,就简单说一下优缺点:使用正则表达式的话,需要对正则表达式有一定的熟悉,然后匹配数据的话也是很方便的,但是修改、添加、删除的话就不是太方便了;使用HTMl解析器(HtmlAgilityPack、NSoup)的话操作起来明显更方便一些,如果对js有一定的基础,html解析器根本不需要大学习就可以熟练使用,然后对元素进行修改、添加、删除、获取都是非常方便的,不过如果对于未知的html结构就不是太友好了,例如:如果获取页面上所有的http://www.baidu.com这类的地址的话,使用正则就会更好一些。

 

 

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信