这篇文章主要介绍了python爬虫urllib库中parse模块urlparse的使用方法,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
成都创新互联是一家朝气蓬勃的网站建设公司。公司专注于为企业提供信息化建设解决方案。从事网站开发,网站制作,网站设计,网站模板,微信公众号开发,软件开发,小程序设计,十余年建站对成都房屋鉴定等多个方面,拥有丰富的网站建设经验。
在python爬虫urllib库中,urllib.parse是url解析模块,提供了很多解析和组建 URL 的方法,其中urlunparse() 方法通过长度为6的可迭代对象,组建URL。
一、urlparse() 方法
可以将 URL 解析成 ParseResult 对象,实现url的识别和分段。
标准链接格式为:scheme://netloc/path;params?query#fragment
二、urlparse将url拆分为六个部分
urlparse(url, scheme='', allow_fragments=True)
三、参数说明
urlstring:必填,待解析的url;
scheme:默认的协议,如http,https。链接没有协议信息时生效;
allow_fragments:是否忽略fragment,如果设置False,fragment部分会被忽略,解析为path、params或者query的一部分,而fragment部分为空。当URL不包含params和query时候,fragment会被解析为path一部分;
四、拆分六个部分为:
1、协议(scheme)
2、域名(netloc)
3、路径(path)
4、路径参数(params)
5、查询参数(query)
6、片段(fragment)
五、使用实例
from urllib.parse import urlparse # 该方法可以实现URL的识别和分段 result = urlparse('http://www.baidu.com/index.html;user?id=5#comment') # 这里我们利用urlparse()方法进行了一个URL的解析。首先,输出了解析结果的类型,然后将结果也输出出来。 print(type(result), result)
输出
E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/3_1_3.pyParseResult(scheme='http', netloc='www.baidu.com', path=' /index.html', params='user', query='id=5', fragment='comment')
感谢你能够认真阅读完这篇文章,希望小编分享的“python爬虫urllib库中parse模块urlparse的使用方法”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,更多相关知识等着你来学习!
分享标题:python爬虫urllib库中parse模块urlparse的使用方法
当前URL:http://scyingshan.cn/article/gigces.html