国产成人AV无码一二三区,少女1到100集,国产精品久久久久精品综合紧,巜公妇之诱感肉欲HD在线播放

文章 > Python爬虫 > 一文搞定Xpath简单高效的提取HTML数据

一文搞定Xpath简单高效的提取HTML数据

头像

silencement

2019-07-16 13:50:295779浏览 · 0收藏 · 0评论

1.简介

XPath是一门在 XML 文档中查找信息的语言。XPath 用于在 XML 文档中通过元素和属性进行导航。
相比于BeautifulSoup,Xpath在提取数据时会更加的方便。

2. 安装

在Python中很多库都有提供Xpath的功能,但是最基本的还是lxml这个库,效率最高。在之前BeautifulSoup章节中我们也介绍到了lxml是如何安装的。

pip install lxml

3. 语法

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

我们将用以下的HTML文档来进行演示:

html_doc = '''<html><head></head><body>
    <bookstore>

        <book category="COOKING">
            <title lang="en">Everyday Italian</title>
            <author>Giada De Laurentiis</author>
            <year>2005</year>
            <price>30.00</price>
        </book>

        <book category="CHILDREN">
            <title lang="en">Harry Potter</title>
            <author>J K. Rowling</author>
            <year>2005</year>
            <price>29.99</price>
        </book>

        <book category="WEB">
            <title lang="en">XQuery Kick Start</title>
            <author>James McGovern</author>
            <author>Per Bothner</author>
            <author>Kurt Cagle</author>
            <author>James Linn</author>
            <author>Vaidyanathan Nagarajan</author>
            <year>2003</year>
            <price>49.99</price>
        </book>

        <book category="WEB">
            <title lang="en">Learning XML</title>
            <author>Erik T. Ray</author>
            <year>2003</year>
            <price>39.95</price>
        </book>

    </bookstore></body></html>'''

导入语句,并生成HTML的DOM树:

from lxml import etree

page = etree.HTML(html_doc)

3.1. 路径查找

defd07f9ada5ba5d4f5495712eb2fcd.png

查找当前节点的子节点

In [1]: page.xpath('head')
Out[1]: [<Element head at 0x111c74c48>]

从根节点进行查找

In [2]: page.xpath('/html')
Out[2]: [<Element html at 0x11208be88>]

从整个文档中所有节点查找

In [3]: page.xpath('//book')
Out[3]:
[<Element book at 0x1128c02c8>, <Element book at 0x111c74108>, <Element book at 0x111fd2288>, <Element book at 
0x1128da348>]

选取当前节点的父节点

In [4]: page.xpath('//book')[0].xpath('..')
Out[4]: [<Element bookstore at 0x1128c0ac8>]

选取属性

In [5]: page.xpath('//book')[0].xpath('@category')
Out[5]: ['COOKING']

3.2. 节点查找

07f5eaac231e8411ebe2c461dc2e62c.png

nodename[1]

选取第一个元素。

nodename[last()]

选取最后一个元素。

nodename[last()-1]

选取倒数第二个元素。

nodename[position()<3]

选取前两个子元素。

nodename[@lang]

选取拥有名为 lang 的属性的元素。

nodename[@lang='eng']

选取拥有lang属性,且值为 eng 的元素。

选取第二个book元素

In [1]: page.xpath('//book[2]/@category')
Out[1]: ['CHILDREN']

选取倒数第三个book元素

In [2]: page.xpath('//book[last()-2]/@category')
Out[2]: ['CHILDREN']

选取第二个元素开始的所有元素

In [3]: page.xpath('//book[position() > 1]/@category')
Out[3]: ['CHILDREN', 'WEB', 'WEB']

选取category属性为WEB的的元素

In [4]: page.xpath('//book[@category="WEB"]/@category')
Out[4]: ['WEB', 'WEB']

3.3. 未知节点

f3bec962b40697e607f4f396dbf4af7.png

匹配第一个book元素下的所有元素

In [1]: page.xpath('//book[1]/*')
Out[1]:
[<Element title at 0x111f76788>,
 <Element author at 0x111f76188>,
 <Element year at 0x1128c1a88>,
 <Element price at 0x1128c1cc8>]

3.4. 获取节点中的文本

用text()获取某个节点下的文本

In [1]: page.xpath('//book[1]/author/text()')
Out[1]: ['Giada De Laurentiis']

如果这个节点下有多个文本,则只能取到一段。

用string()获取某个节点下所有的文本

In [2]: page.xpath('string(//book[1])')
Out[2]: '\n            Everyday Italian\n            Giada De Laurentiis\n

3.5. 选取多个路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

In [1]: page.xpath('//book[1]/title/text() | //book[1]/author/text()')
Out[1]: ['Everyday Italian', 'Giada De Laurentiis']
关注

关注公众号,随时随地在线学习

本教程部分素材来源于网络,版权问题联系站长!

舌吻哼哼唧唧原声不带歌 | 啵啵浏览器| 强多干伦久久久久久久久| 摁着她干了好几次嫩B| 真人做运动视频素材| 学生妹高清版免费观看电视剧 | 女教师2免费观看全集电视剧| 摧花狂魔全文阅读免费| 中字HD人妻の亂倫2| 小乖(糙汉文)TXT笔趣阁免费..| 儿子日娘章节小说| 两领导在车上吃我的奶| 初中小姐姐脚丫踩在男生困困| 女生把球球给男生抓的视频| 法国理伦片《粉嫩小娇乳小说| 妻子的姐姐免费观看大全电视剧| 人犬兽人在线观看免费完整一| 《诱人的女房东3》| 人马杂配MV的视频在哪里看| 把腿扒开让我添30分钟| 日亚M码是日本的还是中国的| 老师~这是学校的不可以| 苍井空做爰高潮A片| 两人世界高清完整版免费观看| 欧美MV日韩MV最火的一句歌词| 暴躁老阿姨CSGO技能推荐大全| BOBO浏览器| 女性三角毛毛若隐若现| 性做爰A片春欲| 美女和帅哥一起努力生产豆浆| 麻豆蜜桃69无码专区在线| B站暴躁女RAPPER| 亚州精品无码A片毛片直播间| 车后座啪啪刚进去就软了| 金铃铛| 两只奶头被老头吸肿了| 暴躁妹妹CSGO高清| 法国《监狱伦理3》| 日产MV和欧美MV的外观对比| 无码人妻久久一区二区| 跳抖胸舞