python 爬取天眼查
导读:Python 爬虫技术是一项非常有用的技能,可用于从网络中收集大量有用的数据,而天眼查则是一个非常受欢迎的网站,是许多企业和个人喜欢使用的工具。在本文中,我们将使用 Python 和 Beautiful Soup 库来爬取天眼查网站的数据。...
Python 爬虫技术是一项非常有用的技能,可用于从网络中收集大量有用的数据,而天眼查则是一个非常受欢迎的网站,是许多企业和个人喜欢使用的工具。在本文中,我们将使用 Python 和 Beautiful Soup 库来爬取天眼查网站的数据。
import requestsfrom bs4 import BeautifulSoupurl = "https://www.tianyancha.com/company/1213835686"headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64;
x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"}
response = requests.get(url, headers=headers)soup = BeautifulSoup(response.content, "html.parser")company = soup.find("h1", {
"class": "name"}
).text.strip()location = soup.find("span", {
"class": "loc"}
).text.strip()legal_person = soup.find("div", {
"class": "humancompany"}
).a.text.strip()registered_capital = soup.find("div", {
"class": "humancompany"}
).find_all("p")[1].span.text.strip()print(f"公司名称: {
company}
")print(f"所在地区: {
location}
")print(f"法定代表人: {
legal_person}
")print(f"注册资本: {
registered_capital}
")
以上代码中,我们首先导入了使用爬取天眼查所需的所有库。然后我们指定要爬取的公司 URL 和用户代理(User-Agent)标头。接着,我们使用 requests 库 GET 请求方式访问该 URL,并指定 headers 头部。随后,我们使用 BeautifulSoup 对响应内容进行解析。
在使用 BeautifulSoup 进行解析时,我们使用 find() 方法和特定的标识符来获取所需的信息,例如公司名称和所在地区等。最后,我们将这些信息打印出来展示。您还可以根据需要修改代码以获取更多信息。
总而言之,使用 Python 爬取天眼查网站是一项有趣而且实用的技能。掌握了这项技能后,您可以收集并分析网站上的各种信息,从而更好地了解企业和市场趋势。
声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!
若转载请注明出处: python 爬取天眼查
本文地址: https://pptw.com/jishu/325332.html