博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
常用正则表达式爬取网页信息及HTML分析总结
阅读量:6826 次
发布时间:2019-06-26

本文共 4810 字,大约阅读时间需要 16 分钟。

Python爬取网页信息时,经常使用的正则表达式及方法。

1.获取标签之间内容2.获取超链接之间内容3.获取URL最后一个参数命名图片或传递参数4.爬取网页中所有URL链接5.爬取网页标题title两种方法6.定位table位置并爬取属性-属性值7.过滤等标签8.获取等标签内容

 

1). 获取<tr></tr>标签之间内容

开始标签如:<tr>、<th>、<td>、<a>、<table>、<div>...
后缀标签如:</tr>、</th>、</td>、</a>、</table>、</div>...

核心代码:

res_tr = r'(.*?)'m_tr = re.findall(res_tr,language,re.S|re.M)

# eg_v1

import relanguage = '''床前明月光忧思独伤心'''# 正则表达式获取之间内容res_tr = r"(.*?)"m_tr = re.findall(res_tr,language,re.S|re.M)print (unicode(m_tr,"utf-8"))for line in m_tr:print lineres_th = r"(.*?)"m_th = re.findall(res_th,line,re.S|re.M)for mm in m_th:print (unicode(mm,"utf-8"))res_td = r"(.*?)"m_td = re.findall(res_td,line,re.S|re.M)for nn in m_td:print (unicode(nn,"utf-8"))

  

2). 获取超链接<a href=..></a>之间内容

在使用正则表达式时,需要分析网页链接,获取URL或网页内容。核心代码如下:

res = r'(.*?)'mm = re.findall(res, content, re.S|re.M)urls=re.findall(r"
<\/a>", content, re.I|re.S|re.M)

  

# eg_v2

  

# 获取<a href></a>之间的内容

res = r'(.*?)'mm = re.findall(res,content,re.S|re.M)for value in mm:print (value)

# 获取所有<a href></a>链接所有内容

urls = re.findall(r"a.*?href=.*?<\/a>",content,re.I|re.S|re.M)for i in urls:print i

# 获取<a href></a>中的URL

res_url = r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')"link = re.findall(res_url,content,re.I|re.S|re.M)for url in link:print (url)

  

3). 获取URL最后一个参数命名图片或传递参数
使用Python爬取图片过程中,会遇到图片对应的URL最后一个字段通常用于命名图片
通过该URL的"/"后面的参数命名图片
# eg_v3

urls = 'http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg'value = urls.split("/")[-1]print (value)# BbsImg141568417848931_640*640.jpg

  

使用Python获取GET方法的URL链接中,还可能存在传递参数的值,获取参数方法:

url = 'http://localhost/test.py?a=hello&b=world'values = url.split('?')[-1]print (values)# a=hello&b=worldfor key_value in values.split('&'):print (key_value.split('='))# ['a', 'hello']# ['b', 'world']

  

4). 爬取网页中所有URL链接
从固有网页中爬取URL链接,再进行下一步的循环爬取或URL抓取.
# eg_v4 (爬取CSDN首页的所有URL链接)

import reimport urllib2url = "http://www.csdn.net/"content = urllib2.urlopen(url).read()urls = re.findall(r'
<\/a>',content,re.I)for url in urls:print (unicode(url,"utf-8"))link_list = re.findall(r"(?=href=\".+?(?=\")|(?<=href=\').+?(?=\')",content)for url in link_list:print (url)

  

5). 爬取网页标题title两种方法

获取网页标题也是一种常见的爬虫,常位于<html><head><title>标题</title></head></html>中
# eg_v5 (爬取CSDN标题)

import reimport urllib2url = 'http://www.csdn.net/'content = urllib2.urlopen(url).read()# 方法一title_pat = r'(?<=).*?(?=)'title_ex = re.compile(title_pat,re.M|re.S)title_obj = re.search(title_ex,content)title = title_obj.group()print (title)# 方法二title = re.findall(r'(.*?)',content)print (title[0])

  

6). 定位table位置并爬取属性-属性值

# eg_v6 (正则表达式获取td值的例子)

import res = '''
序列号 DEIN3-39CD3-2093J3 日期 2013年1月22日 售价 392.70 元 说明 仅限5用户使用
'''res = r'(.*?)(.*?)'m = re.findall(res,s,re.S|re.M)for line in m:print (unicode(line[0],'utf-8'),unicode(line[1],'utf-8'))

  

# 如果<td id="">包含该属性则正则表达式为r'<td id=.*?>(.*?)</td>';同样如果不一定是id属性开头,则可以使用正则表达式r'<td .*?>(.*?)</td>'

7). 过滤<span></span>等标签

获取值过程中,通常会存在<span>、<br>、<a href>等标签
核心代码:

elif "span" in nn: #处理标签res_value = r'(.*?)'m_value = re.findall(res_value,nn,re.S|re.M) for value in m_value:print unicode(value,'utf-8'),

 

# eg_v7 

import relanguage = '''
d
购书
性別:
異名: (字) 翔宇
政黨:
籍貫: 广东省绍兴市
''' # 获取table中tr值res_tr = r'(.*?)'m_tr = re.findall(res_tr,language,re.S|re.M)# 获取表格第一列th 属性for line in m_tr:res_th = r'(.*?)'m_th = re.findall(res_th,line,re.S|re.M)for mm in m_th:if "href" in mm: # 如果获取加粗的th中含超链接则处理restr = r''h = re.findall(res_tr,mm,re.S|re.M)print (unicode(h[0],'utf-8'))else:print (unicode(mm,'utf-8'))# 取表格第二列td 属性值res_td = r'(.*?)'m_td = re.findall(res_td,line,re.S|re.M)for nn in m_td:if 'href' in nn:res_value = r'(.*?)'m_value = re.findall(res_value,nn,re.S|re.M)for value in m_value:print (unicode(value,'utf-8'))elif "span" in nn:res_value = r'(.*?)'m_value = re.findall(res_value,nn,re.S|re.M)for value in m_value:print (unicode(value,'utf-8')else:print (unicode(nn,'utf-8'))print (' ')

  

8). 获取<script></script>等标签内容

在获取游讯网图库中,图集对应的原图它是存储在script中,其中获取原图-original即可
通过正则表达式下载URL:

res_original = r'"original":"(.*?)"' #原图m_original = re.findall(res_original,script)

# eg_v8

import reimport osimport urllibcontent = '''  '''html_script = r''m_script = re.findall(html_script,content,re.S|re.M)for script in m_script:	res_original = r'"original":"(.*?)"'	m_original = re.findall(res_original,script)	for pic_url in m_original:		print (pic_url)		filename = os.path.basename(pic_url)		urllib.urlretrieve(pic_url,"D:\\" + filename)

 

转载于:https://www.cnblogs.com/xieshengsen/p/6882163.html

你可能感兴趣的文章
KVM虚拟化主机安装
查看>>
内部命令vs外部命令
查看>>
CenOS5 x86下配置Nginx+keepalived主从负载均衡
查看>>
named启动脚本修改
查看>>
RHEL6.5的安装过程
查看>>
js随笔
查看>>
Java逆向基础之打印所有类名
查看>>
Andrdoid Sensors Overview (探测器概述)二
查看>>
使用screen实现字符桌面共享
查看>>
css hack的认识
查看>>
photoshop制作透明背景图片
查看>>
通过vftps和虚拟帐号增强ftp的安全性
查看>>
HBase Filter使用方法(三)------批量put导入
查看>>
CentOS下httpd与tomcat整合
查看>>
oracle group by 行转列 分析执行计划
查看>>
ubuntu10.04基本设置
查看>>
SCCM Deploy Microsoft Teams
查看>>
领域模型设计的见解
查看>>
linux命令:pwd
查看>>
linux用户权限相关内容查看
查看>>