Python实现网络爬虫的方法操作是什么?
导读:Python实现网络爬虫的方法操作是什么?对于Python实现网络爬虫很多朋友都比较好奇和感兴趣的,对此这篇就给大家分享一下方法,具体的方法步骤及代码如下,感兴趣的朋友可以参考。python实现网络爬虫的方法:第一步:爬取使用request...
Python实现网络爬虫的方法操作是什么?对于Python实现网络爬虫很多朋友都比较好奇和感兴趣的,对此这篇就给大家分享一下方法,具体的方法步骤及代码如下,感兴趣的朋友可以参考。
python实现网络爬虫的方法:
第一步:爬取
使用request库中的get方法,请求url的网页内容
编写代码
[root@localhost demo]# touch demo.py [root@localhost demo]# vim demo.py
#web爬虫学习 -- 分析
#获取页面信息
#输入:url
#处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式
#输出:爬取到的内容
import requests
def getHTMLText(url):
try:
r = requests.get( url, timeout=30 )
r.raise_for_status() #如果状态码不是200,产生异常
r.encoding = 'utf-8' #字符编码格式改成 utf-8
return r.text
except:
#异常处理
return " error "
url = "http://www.baidu.com"
print( getHTMLText(url) )[root@localhost demo]# python3 demo.py
第二步:分析
使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个html文件,提取指定信息。
编写代码
[root@localhost demo]# touch demo1.py
[root@localhost demo]# vim demo1.py
#web爬虫学习 -- 分析
#获取页面信息
#输入:url
#处理:request库获取页面信息,并从爬取到的内容中提取关键信息
#输出:打印输出提取到的关键信息
import requests
from bs4 import BeautifulSoup
import re
def getHTMLText(url):
try:
r = requests.get( url, timeout=30 )
r.raise_for_status() #如果状态码不是200,产生异常
r.encoding = 'utf-8' #字符编码格式改成 utf-8
return r.text
except:
#异常处理
return " error "
def findHTMLText(text):
soup = BeautifulSoup( text, "html.parser" ) #返回BeautifulSoup对象
return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配
url = "http://www.baidu.com"
text = getHTMLText(url) #获取html文本内容
res = findHTMLText(text) #匹配结果
print(res) #打印输出[root@localhost demo]# python3 demo1.py
关于Python实现网络爬虫的内容就介绍到这,上述方法和代码仅供参考。大家想要了解更多Python网络爬虫的内容,可以关注网络其它的相关文章。
文本转载自PHP中文网
声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!
若转载请注明出处: Python实现网络爬虫的方法操作是什么?
本文地址: https://pptw.com/jishu/651056.html
