首页后端开发其他后端知识如何用Golang处理大文件,怎样做效率高

如何用Golang处理大文件,怎样做效率高

时间2024-03-26 02:38:03发布访客分类其他后端知识浏览1389
导读:这篇文章主要给大家介绍“如何用Golang处理大文件,怎样做效率高”的相关知识,下文通过实际案例向大家展示操作过程,内容简单清晰,易于学习,有这方面学习需要的朋友可以参考,希望这篇“如何用Golang处理大文件,怎样做效率高”文章能对大家有...
这篇文章主要给大家介绍“如何用Golang处理大文件,怎样做效率高”的相关知识,下文通过实际案例向大家展示操作过程,内容简单清晰,易于学习,有这方面学习需要的朋友可以参考,希望这篇“如何用Golang处理大文件,怎样做效率高”文章能对大家有所帮助。

   

使用Pandas分块处理大文件

问题:今天在处理快手的用户数据时,遇到了一个差不多600M的txt文本,用sublime打开都蹦了,我用pandas.read_table()去读,差不多花了近2分钟,最后打开发现差不多3千万行数据。这仅仅是打开,如果要处理不知得多费劲。

解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksizeiterator

原理就是不一次性把文件数据读入内存中,而是分多次。

1、指定chunksize分块读取文件

read_csv 和 read_table 有一个 chunksize 参数,用以指定一个块大小(每次读取多少行),返回一个可迭代的 TextFileReader 对象。

table=pd.read_table(path+'kuaishou.txt',sep='t',chunksize=1000000)
for df in table:
    对df处理
    #如df.drop(columns=['page','video_id'],axis=1,inplace=True)
    #print(type(df),df.shape)打印看一下信息

我这里又对文件进行了划分,分成若干个子文件分别处理(没错,to_csv也同样有chunksize参数)

2、指定iterator=True

iterator=True同样返回的是TextFileReader对象

reader = pd.read_table('tmp.sv', sep='t', iterator=True)
df=reader.get_chunk(10000)
#通过get_chunk(size),返回一个size行的块
#接着同样可以对df处理

直接看看pandas文档在这一方面的内容吧。


以上就是关于“如何用Golang处理大文件,怎样做效率高”的介绍了,感谢各位的阅读,希望文本对大家有所帮助。如果想要了解更多知识,欢迎关注网络,小编每天都会为大家更新不同的知识。

声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!


若转载请注明出处: 如何用Golang处理大文件,怎样做效率高
本文地址: https://pptw.com/jishu/653204.html
Node打印全链路日志的做法是什么 Go语言中有没有while关键字,常见关键字有哪些

游客 回复需填写必要信息