首页主机资讯python3 爬虫如何保存数据

python3 爬虫如何保存数据

时间2025-09-27 12:22:03发布访客分类主机资讯浏览570
导读:在Python3中,我们可以使用多种库来保存爬取到的数据。以下是一些建议的库和方法: SQLite3:SQLite3是Python内置的数据库库,可以用来存储爬取到的数据。首先,你需要创建一个数据库和一个表,然后插入数据,最后查询和更新数...

在Python3中,我们可以使用多种库来保存爬取到的数据。以下是一些建议的库和方法:

  1. SQLite3:SQLite3是Python内置的数据库库,可以用来存储爬取到的数据。首先,你需要创建一个数据库和一个表,然后插入数据,最后查询和更新数据。
import sqlite3

# 创建数据库连接
conn = sqlite3.connect('example.db')
cursor = conn.cursor()

# 创建表
cursor.execute('''CREATE TABLE IF NOT EXISTS data (
                    id INTEGER PRIMARY KEY AUTOINCREMENT,
                    title TEXT NOT NULL,
                    url TEXT NOT NULL)''')

# 插入数据
def insert_data(title, url):
    cursor.execute("INSERT INTO data (title, url) VALUES (?, ?)", (title, url))
    conn.commit()

# 查询数据
def query_data():
    cursor.execute("SELECT * FROM data")
    return cursor.fetchall()

# 更新数据
def update_data(id, title, url):
    cursor.execute("UPDATE data SET title = ?, url = ? WHERE id = ?", (title, url, id))
    conn.commit()

# 关闭数据库连接
conn.close()
  1. JSON:JSON是一种轻量级的数据交换格式,易于阅读和编写。你可以将爬取到的数据保存为JSON文件,以便于后续处理和分析。
import json

data = [
    {
"title": "Title 1", "url": "https://example.com/1"}
,
    {
"title": "Title 2", "url": "https://example.com/2"}
,
]

# 保存为JSON文件
with open('data.json', 'w') as f:
    json.dump(data, f)
  1. CSV:CSV(逗号分隔值)是一种常见的表格数据格式。你可以将爬取到的数据保存为CSV文件,以便于后续处理和分析。
import csv

data = [
    {
"title": "Title 1", "url": "https://example.com/1"}
,
    {
"title": "Title 2", "url": "https://example.com/2"}
,
]

# 保存为CSV文件
with open('data.csv', 'w', newline='', encoding='utf-8') as f:
    writer = csv.DictWriter(f, fieldnames=["title", "url"])
    writer.writeheader()
    for row in data:
        writer.writerow(row)
  1. MongoDB:MongoDB是一个NoSQL数据库,可以用来存储爬取到的数据。首先,你需要安装PyMongo库(pip install pymongo),然后连接到MongoDB数据库,插入数据,查询和更新数据。
from pymongo import MongoClient

# 创建数据库连接
client = MongoClient('mongodb://localhost:27017/')
db = client['example_db']
collection = db['data']

# 插入数据
def insert_data(title, url):
    collection.insert_one({
"title": title, "url": url}
)

# 查询数据
def query_data():
    return collection.find()

# 更新数据
def update_data(id, title, url):
    collection.update_one({
"_id": id}
, {
"$set": {
"title": title, "url": url}
}
    )

# 关闭数据库连接
client.close()

根据你的需求和数据类型,可以选择合适的库和方法来保存爬取到的数据。

声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!


若转载请注明出处: python3 爬虫如何保存数据
本文地址: https://pptw.com/jishu/709948.html
python3 爬虫怎样突破限制 python3 爬虫怎样避免IP封

游客 回复需填写必要信息