python 利用生成器处理大于内存的 csv 文件数据
0x00 问题场景📃
现在你请想象,有这样一个运行环境,以及需要处理的文件:
- 一台运行内存只有 8 GB 的电脑;
- 两份 csv 文件大小分别为 16 GB;
python 代码要求实现:
- 同时读取两份 CSV 文件中所有的 data 行的数据;
- 将 data 数据,进行差值计算;
- 最终将得到的所有行的,进行两两求和
# A.csv - 16GB
index, data
1, 100
2, 100
3, 100
...
# B.CSV - 16GB
index, data
1, 90
2, 90
3, 90
...
0x01 构建 csv 文件的生产器🏭
如果不用生成器,同时将两个 16 GB 的文件加载到只有 8GB 的内存中,势必会造成内存的溢出,所以我们需要先解决这个问题
import csv
def get_csv_data(csv_file_name, jgnore_header=False):
try:
with open(csv_file_name, encoding='utf-8') as csv_file:
data_reader = csv.reader(csv_file)
# 有些 csv 文件需要跳过表头
if ignore_header == True:
next(dataReader)
for one_line in data_reader:
yield one_line
except Exception as e:
# 打印出异常行到终端
print(str(e))
print(one_line)
函数 get_csv_data
在遍历数据时,使用了 yield
关键字,而不是 return
,我们构建了一个
生成器
所以,并不会将所有的数据一次性读取到内存当中
只有当我们使用next(get_csv_data())
或者 for each_row in get_csv_data()
时,csv 文件中的每一行数据才会被读取到内存中
好了,我们还有一个问题没有解决,数据的一一对应
0x02 如何保证数据,行行对应?🤔
这里可以使用 zip
函数
它能够像【拉链】一样,将两个列表的数据,一一结对,组成一个元组
我们分别读取两份文件,构建两个 csv
文件的生产器
借助zip
函数,验证数据是否是同时读取
A_file = get_csv_data("A.csv")
B_file = get_csv_data("B.csv")
for a, b in zip(A_file, B_file):
print("A_file: ", a[1])
print("B_file: ", b[1])
# 输出结果
A_file: 100
B_file: 90
A_file: 100
B_file: 90
A_file: 100
B_file: 90
如果我们用两个
for
循环嵌套的思路,会出现重复遍历的问题
0x03 最终代码✨
文件读取、行数一一对应的问题解决了
最终代码如下
imoprt csv
# 忽略 csv 的表头,直接从数据行开始读取
A_file = get_csv_data("A.csv", ignore_header=True)
B_file = get_csv_data("B.csv", ignore_header=True)
# 如果两份文件的行数不一致,会以行数最少的 csv 文件为准
# 列表推导式
result = sum([int(a[1]) - int(b[1])] for a, b in zip(A_file, B_file))
# 假设只有三行,最终结果会是
>>> print(result)
>>> 30
0xFF 其他思路💭
- pandas 读取 csv 数据,使用 datafram 对象的取值特性,可以直接相减,但是空间占用问题待验证;
- 分割文件, 使用多线程同时处理,将多个线程的数据汇总;